腾讯混元大模型算法工程师
任职要求
1.硕士或博士学位,机器学习、人工智能、自然语言处理或相关领域的专业背景; 2.3年以上相关工作经验,有大型语言模型算法研究或落地经验者优先; 3.高质量相关论文Neur…
工作职责
1.负责混元大模型相关研发工作,包括文本创作、文本理解、数学、翻译、Agent FunctionCalls等专项; 2.负责混元在公司内相关业务场景落地,根据业务需求优化混元模型,提升业务效果; 3.负责跟踪和探索大语言模型的前沿问题,结合实际场景,提供全面的技术解决方案,参与前沿算法与应用的研究。
1.负责混元大模型 Post-training 研发与应用,根据落地场景优化混元模型能力和 AI PaaS效果,包括 Agent 构建与强化、多轮对话、翻译等; 2.负责混元在公司内相关业务场景落地,根据业务需求优化混元模型,提升业务效果; 3.跟踪和探索大模型的前沿问题,结合实际场景,提供全面的技术解决方案,参与前沿算法与应用的研究。
1.负责大语言模型(LLM)规划、推理、反思能力的研究,提升大语言模型的高阶推理能力; 2.跟进推理领域的前沿技术,将其应用于混元大模型基座,持续提升大模型的推理能力。
1.参与LLM、多模态大模型压缩加速方案研究,包括投机采样、稀疏化、量化和蒸馏等方法; 2.设计可落地的大模型压缩算法及成本优化方案,助力大模型的性能加速; 3.分析业务性能瓶颈和模型特点,定制化开发大模型压缩优化工具,实现高速推理方案。
1.负责大语言模型后训练(Post-Training)阶段的核心技术研发,构建和优化高质量的奖励系统(Reward System),通过Reward Modeling (RM) 和强化学习(RL)算法持续提升模型在复杂指令遵循、逻辑推理及价值观对齐方面的能力; 2.深入研究和优化 RLHF 等后训练算法,提升模型训练的稳定性和最终效果; 3.负责大模型个性化(Personalization)与长期记忆(Memory)机制的算法研发,构建精准的“千人千面”用户建模体系,探索模型如何理解、提取、记忆并动态适应不同用户的长期偏好,持续提升个性化交互体验; 4.负责后训练阶段的数据合成与管理,设计高效的数据飞轮机制,利用SFT、Self-Instruct等技术合成高质量训练数据,并负责建立从用户多维反馈(User Feedback)到模型迭代的闭环信号建模体系; 5.负责后训练模型的全维度评测与分析,制定科学的评价指标,跟进前沿技术动态,将最新研究成果快速转化为业务价值。