通义通义实验室-算法专家-大模型Agentic应用范式
任职要求
1. 硕士及以上学历,热爱计算机以及互联网技术,喜欢尝试最新的技术,关注新的思维。 2. 熟练掌握模型post-training,包含SFT、DPO、RL等训练范式。 3. 有大模型原生应用的架构设计和落地经验优先,有开源生态建设相关经验者优先。 4. 要求具备良好的工…
工作职责
我们正在寻找充满激情的大模型应用开发者,共同构建大模型应用新开发范式,积极推进大模型应用落地新范式,拥抱开源社区,探索前沿研究方向。 工作内容包括: 1. 探索超前沿大语言模型强化学习算法和Agentic应用范式。 2. 参与大模型应用开发平台架构设计,积极推进MCP等开源协议赋能企业级开发平台。 3. 构建大模型轻应用,推进大模型在金融/医疗/教育等核心场景落地和赋能。
我们正在寻找一位对大模型和agent前沿领域充满热情的大模型算法工程师,重点聚焦于旅行智能体(Agent)技术的研发与训练。我们已经开发了飞猪问一问,也接入了千问,如果你对创造能够自主感知、决策和行动的智能系统感到兴奋,并希望在大模型与强化学习结合的前沿领域大展身手,那么这个职位将非常适合你。你将加入我们的核心算法团队: 1、负责设计和实现下一代具有推理和行动能力的AI智能体,推动其在复杂环境中的应用。 2、研究、设计并实现基于大模型的智能体训练框架,特别是Agentic Reinforcement Learning (Agentic RL) 相关算法,探索和实验多种智能体范式,如ReAct、CoT、ToT 等,并将其与强化学习相结合,开发和优化智能体的推理、规划、工具使用等核心能力。 3、参与大规模语言模型的预训练、有监督微调(SFT)和指令微调。

我们正在寻找一位对大模型和agent前沿领域充满热情的大模型算法工程师,重点聚焦于旅行智能体(Agent)技术的研发与训练。我们已经开发了飞猪问一问,也接入了千问,如果你对创造能够自主感知、决策和行动的智能系统感到兴奋,并希望在大模型与强化学习结合的前沿领域大展身手,那么这个职位将非常适合你。你将加入我们的核心算法团队: 1、负责设计和实现下一代具有推理和行动能力的AI智能体,推动其在复杂环境中的应用。 2、研究、设计并实现基于大模型的智能体训练框架,特别是Agentic Reinforcement Learning (Agentic RL) 相关算法,探索和实验多种智能体范式,如ReAct、CoT、ToT 等,并将其与强化学习相结合,开发和优化智能体的推理、规划、工具使用等核心能力。 3、参与大规模语言模型的预训练、有监督微调(SFT)和指令微调。

1. 参与面向网络安全领域的垂直大模型基座建设,包括模型架构优化、训练策略制定与性能优化; 2. 负责高质量安全数据的构建,涵盖代码漏洞检测与修复、程序逆向与分析、安全领域工具(包括但不限于Fuzz、反编译、漏扫等)等多样化安全数据的加工处理和合成优化; 3. 开展大模型全流程训练工作,包括预训练、SFT、GRPO及安全工具结合的Agentic RL; 4. 针对经典且依赖安全专家经验的的安全任务(如渗透测试、二进制代码分析、红蓝对抗策略生成、项目级代码漏洞发现与修复等)优化模型能力,提升其在真实攻防场景中的模型性能与鲁棒性; 5. 探索大模型在代码安全、漏洞挖掘、逆向工程等方向的应用,并推动技术成果落地与学术发表。
随着大语言模型从通用问答走向复杂任务执行,Agent能力正成为模型演进的关键方向。传统大模型虽具备海量知识,但面对复杂任务的自主规划、工具调用及长期记忆管理时,往往难以应对。本课题旨在探索Midtrain这一关键阶段,推动通用基座模型向原生Agentic Foundation Model演进,为构建下一代自主智能体提供坚实的底座支持。 1. 大规模高质量数据体系与合成数据建设 数据体系构建:建设 Trillion 级别的大规模跨模态数据处理与合成链路。负责从训练数据获取到配比建模的全流程优化 合成方法演进:探索大规模合成数据 (Synthetic Data) 与自蒸馏 (Self-distillation) 技术,制定合成数据应用策略 理论探索:研究Data Scaling Laws,解决数据扩展中的模型坍塌(Model Collapse)与多样性瓶颈问题,通过课程学习(Curriculum Learning)等训练策略,显著优化Token/FLOPs转化效率 2. 长上下文 (Long Context) 与高效架构演进 长窗口突破: 持续Scaling Up模型的Context Length,优化超长上下文机制,重点提升LongCat基座模型在长上下文上的表现 架构优化: 探索并验证MoE(混合专家)、稀疏注意力(Sparse Attention)、线性注意力等模型结构;结合剪枝与稀疏化技术,协同优化训练与推理效率,提升超长上下文场景下的效率 上下文管理: 探索逐轮次和跨多轮次的上下文管理方法,并建立对应评测体系,从而减少冗余信息堆叠,实现高效思考和性能提升 3. 多模态能力融合与 Agent 赋能 模态融合:探索多模态预训练新范式,突破模态融合瓶颈。利用多模态扩展定律指导数据与训练方案,提升模型在多模态交互场景下的原生能力 复杂场景落地:面向 Agent、具身智能等前沿场景,提升模型的多模态指令遵循与复杂任务规划能力 4. 下一代训练范式与前沿技术探索 自进化机制:协同上下游团队,探索模型自进化(Self-evolution)机制,研究RL在Mid-training阶段的应用 能力扩展:研究推理阶段扩展(Test-time Scaling)及全模态链式思维(Omni-modal CoT),推动模型从单纯的“知识记忆”向“深度推理与问题解决”演进