理想汽车【基座模型】-大模型技术专家-北京
任职要求
1. 计算机视觉、机器视觉、机器学习、自然语言处理、语音信号处理等相关专业硕士、博士研究生 2. 熟悉传统机器学习基础理论,熟练掌握Kaldi, TensorFlow, Pytorch等社区开源工具中的一种及以上 3. 熟练C/C++,Python,Shell编程语言,对数据结构和算法设计有深刻理解,参加过ACM等编程比赛的优先 4. 学习能力强,逻辑思维清晰,具有自我驱动力,有创造力,有较强的文献阅读能力,能够快速实现或设计相关算法。 5. 有相关大模型开源项目、有人工智能顶会论文发表者优先。
工作职责
1.负责多模态融合算法、多模态大语言模型的技术探索和创新。 2. 负责大语言模型以及多模态大模型的预训练、精调等研发及落地; 3. 探索Agent在复杂任务中的应用,实现基于LLM的复杂任务在软件研发领域场景的应用落地。
1.负责大语言模型强化学习算法的研究探索与开发工作,包括但不限于完善和优化RLHF/RLAIF算法,基于RLHF/RLAIF等方法提升模型性能; 2.探索和追踪业界强化学习的前沿算法及技术,并在大模型场景应用,不断提升大模型能力;
1. 基座模型能力建设 • 主导代码大模型(Code LLM)的预训练与优化,涵盖代码生成、补全、理解、翻译、调试等核心能力; • 设计高效的多语言代码表征架构(如Python、Java、C++等),支持长上下文学习(Long Context)与复杂逻辑推理; • 探索代码语料(GitHub、Stack Overflow等)与自然语言的高效对齐技术,提升模型对开发者意图的理解能力。 2. Agent协同与系统化落地 • 构建代码智能体(Code Agent)协作框架,整合代码解释器、测试框架、知识检索模块,实现多工具联合推理; • 开发动态任务调度策略,支持多智能体分工解决复杂编程问题(如系统设计、全栈开发、自动化测试); • 推动模型在类似Cursor的代码工具中落地,实现代码生成、智能补全、错误诊断、跨语言迁移等核心功能。 3. 多智能体代码系统 • 设计多智能体协同架构,支持代码生成、评审、迭代优化的闭环流程; • 探索智能体自主协作机制(如分工协商、结果校验、知识共享),提升复杂工程问题的解决效率; • 结合业务场景(如企业级代码库重构、自动化运维),打造端到端代码解决方案。
数据与训练方向: 1.大模型数据体系建设:构建多语言和多模态的数据处理流程和实验链路,优化数据的筛选与配比策略,探索动态数据调整、多阶段训练和课程学习等方法提升数据质量和多样性,优化大模型的训练效果。 2.合成数据探索:探索大规模合成数据方法,应用于复杂任务、推理、代码和多模态等场景。制定合成数据在预训练、强化学习等不同训练阶段的应用策略,并深入研究数据扩展规模定律、数据多样性和模型坍塌等基础问题,推动数据驱动的性能突破。 3.多模态学习与推理:探索多模态预训练的新范式,突破模态融合瓶颈。具体包括实现多模态能力的早期融合、理解与生成的统一建模,研究多模态扩展定律以指导数据与训练方案,扩展超长上下文机制以支持全模态场景等。同时,面向复杂的多模态推理与交互场景,探索多模态强化学习、多模态奖励模型、推理阶段扩展(test-time scaling)以及全模态链式思维(CoT)等方法,提升模型处理复杂任务和全模态交互的能力。 4.高效模型架构设计:设计高效的大模型架构以提升训练和推理效率。探索 MoE(混合专家)、稀疏注意力、线性注意力等高效模型结构,以及模型编辑与合并等技术,研发能够显著提升推理速度和资源利用率的新型模型架构。 5.推理效率与性能优化:推动算法与系统的协同优化,实现模型性能与效率的最大化平衡。基于对硬件计算潜力的深度挖掘,开发高效的模型推理方案和算法,包括模型压缩、剪枝、量化、稀疏化等,降低模型应用部署成本。 后训练方向: 1.后训练数据与流程建设,从指令数据生产、合成、进化、配比等方面提升数据质量,优化指令微调、强化学习、奖励模型等训练pipeline,提升模型综合能力; 2.后训练关键能力建设,包括但不限于优化模型创意生成、多语言、逻辑推理、复杂指令遵循、代码生成、工具调用等能力,提升模型可控性和安全性,拓展模型能力边界; 3.面向准确性、多模信息、最优路径等方向,探索奖励模型的新范式,构建统一模型学习环境,实现模型的价值对齐和能力对齐; 4.面向推理规划能力、多智能体系统、模型自进化等方向,探索下一代强化学习算法,持续提升大模型的智能水平和在真实复杂场景效果; 5.前沿探索:动态推理计算优化(Test-time Compute Optimization)、多智能体协同进化架构 、大规模强化学习系统优化等。