logo of tongyi

通义通义实验室-大模型预训练算法工程师-通义千问

社招全职1年以上技术类-算法地点:北京 | 杭州 | 上海状态:招聘

任职要求


1. 对上述研究方向的某一项或者几项有完整的研究经历或者实际的工业界落地经验。
2. 具有较强的动手能力,可以独立完成 idea 的验证和模型的训练。
3. 对技术有追求,务实,渴望做出有极大影响力的工作。

加分项:
1. 对LLM的训练优化或推理有深入认知,熟悉 Triton 或 CUDA。
2. LLM 知名开源项目贡献者。
3. ACM 等编程竞赛获奖者。
4. 在相关方向有影响力论文发表。
5. 有过相关方向的实习经验。

工作职责


我们期望打造世界一流的预训练 LLM 基座,开发涵盖参数量从几百M到T级的基座模型,并将作为 Qwen / QwenVL / Qwen-Omni / Qwen-Coder 等系列模型的基座。我们追求将现有的预训练技术做到极致,并积极探索下一代的预训练技术。

工作职责:
1. 预训练数据:大规模预训练数据合成技术探索、STEM & reasoning 优化、长尾知识优化、精品数据挖掘过滤、自然数据 scaling、长文本优化、面向 test-time scaling 的数据优化。
2. 预训练策略:新型预训练损失函数探索、遗忘对抗与持续学习、optimizer 优化、lr scheduler 优化、课程学习、scaling law 预测、超参优化。
3. 模型结构:新型模型结构探索、模型可解释性、MoE 优化、参数扩展与裁剪蒸馏、线性注意力、动态稀疏注意力、draft model 优化、动态计算优化、KV cache压缩、长序列优化、decoding 加速等。
包括英文材料
大模型+
CUDA+
相关职位

logo of tongyi
社招3年以上技术类-算法

建设 AGI 最重要的原料就是数据,数据的规模和质量都对模型效果起到至关重要的作用。我们极其重视数据的 scaling,包括但不限于自然语言、代码、多模态等数据的 scaling。我们正在寻找一位适应快速变化、热衷解决大规模数据挑战的算法工程师,专注于大模型预训练中的数据收集、处理与优化。你将面对百亿至千亿级别的数据规模,设计高效的数据处理管线,与纯文本和多模态预训练团队深度协作,持续提升数据质量和模型性能。 工作职责: 1. 需求对接与迭代: 快速理解模型预训练需求,灵活调整数据方案以适应高频迭代。   2. 数据处理与优化: 开发工具完成数据收集、清洗、格式转换(如HTML2Text、PDF2Text、ASR等),构建验证与测试集以量化性能指标,优化流程以应对超大规模数据挑战。   3. 管线搭建与扩展: 构建自动化、高效率的数据处理管线,优化组件性能,确保稳定性和可扩展性。   4. 协助数据平台建设:与平台团队合作共建数据平台,分析使用痛点,提出建议意见以改进易用性,并跟进落实。 5. 技术支持与创新: 追踪业界技术进展,为预训练团队提供数据支持,探索新技术以提升数据价值和模型效果。

更新于 2025-09-16
logo of tongyi
社招1年以上技术类-算法

在蕴含丰富世界知识的预训练模型的基础上,我们利用 Post-train 打造出我们想要的能够服务人类的 AI 模型。我们通过 RL、SFT、RFT 等技术,探索大模型潜能的同时,也在塑造大模型的能力与性格。本着为人类服务的目标,我们的 Post-train 将会重点探索其推理能力,实现深度思考,并致力于提升其 Agent 能力,让大模型服务于真实世界的任务。 工作职责: 1. 探索更多可 scalable 的 verifier 信号,并通过 RL 提升模型的各项能力。 2. 提升 reward model 在创作、人类偏好、指令遵循等各专项上的能力,减少reward hacking和bias。 3. 研究 reasoning path压缩和外推,实现更高质量的推理思考。 4. 将LLM的推理能力和Agent以及其他模态相结合,探索统一模态的reasoning。

更新于 2025-06-05
logo of tongyi
社招1年以上技术类-算法

在蕴含丰富世界知识的预训练模型的基础上,我们利用 Post-train 打造出我们想要的能够服务人类的 AI 模型。我们通过 RL、SFT、RFT 等技术,探索大模型潜能的同时,也在塑造大模型的能力与性格。本着为人类服务的目标,我们的 Post-train 将会重点探索其推理能力,实现深度思考,并致力于提升其 Agent 能力,让大模型服务于真实世界的任务。 工作职责: 1. 探索更多可 scalable 的 verifier 信号,并通过 RL 提升模型的各项能力。 2. 提升 reward model 在创作、人类偏好、指令遵循等各专项上的能力,减少reward hacking和bias。 3. 研究 reasoning path压缩和外推,实现更高质量的推理思考。 4. 将LLM的推理能力和Agent以及其他模态相结合,探索统一模态的reasoning。

更新于 2025-09-02
logo of tongyi
社招3年以上技术类-算法

通义千问(Qwen)是由通义实验室自主研发的超大规模语言模型,具备跨语言、跨任务的理解与生成能力。Qwen系列模型,涵盖参数量从几百 M 到 T 级的基座大语言模型,并相继推出Qwen-VL、Qwen-Audio、Qwen-Omni、Qwen-Coder等系列模型。从多轮对话到代码生成,从逻辑推理到内容创作,从单一多模态到全模态统一理解生成,Qwen 正在打造全球领先的全模态模型技术体系,推动AI在企业服务、开发者生态、个人用户等领域的深度应用,引领下一代人工智能的发展。 团队致力于实现理解生成一体化的世界模型,达成“交互”和“创造”两大目标。本方向专注于研发视觉生成技术的突破,其中研究内容包括但不限于:理解生成一体化、视觉生成等,充分探索相关数据及训练方法研究,以期解决计算机视觉基本问题的同时,为 AI 赋予创造力,理解世界及预测未来世界。 工作描述: 1. 下一代理解生成一体化的模型结构设计与研发,探索 Autoregressive LLM 、Diffusion、及两者结合的多种技术路线。 2. 研究及探索世界模型的多模态训练数据及对应训练策略。 3. 设计及研发自动化评估方法设计与实现,为模型研发提供科学指导。

更新于 2025-08-04