腾讯LLM算法研究员
任职要求
1.熟悉NLP领域的基础理论和主流大模型原理,具备大模型实战经验者优先; 2.在ACL、NAACL、EMNLP、TACL、NeurIPS、ICML、AAAI等学术会议或期刊发表过文章者优先; 3.熟练掌握Python编程,熟悉至少一种深度学习框架,如Pytor…
工作职责
1.负责大语言模型的预训练、指令微调、强化学习等算法的研究,针对业务问题开展算法调优; 2.熟悉NLP领域的常用算法,包括但不限于文本分析、内容摘要、意图识别、RAG、对话系统、角色扮演等; 3.定期收集产品反馈,建立合理的LLM评价机制,根据问题及时对算法架构和特定模型进行升级; 4.跟进NLP前沿技术,结合业务应用场景,提供创新性的解决方案。
1、研究LLM后训练算法,探索LLM Agent在游戏场景中的落地应用,包括在游戏设计、玩法以及研发管线中的应用等; 2、针对各应用场景,收集LLM后训练数据,制定数据流转pipeline,参与构建后训练数据飞轮; 3、研究LLM模型的后训练策略,使用强化学习等技术提升LLM Agent的性能,参与游戏领域LLM模型的调优、训练和迭代,推动LLM在游戏场景中的技术突破; 4、与游戏制作管线中的其他团队紧密合作,打造新的AI游戏开发流程,创造次世代游戏体验;与工程团队紧密合作,交付稳定可靠的LLM服务。
"我们团队将致力于探索新型LLM架构的训练与推理加速技术,推动模型结构与算法层面的创新,全面提升LLM的效率与性能。 1. 研发Diffusion LLM的高效训练与推理框架,实现其推理性能1000倍的提升,突破现有扩散模型在语言生成中的效率瓶颈 2. 和LLM算法研究员合作,通过算法和系统的co-design,加速现有LLM的训练和推理 3. 针对新型LLM优化关键算子与分布式并行计算策略,显著降低其训练与推理成本 4. 开发面向LLM算子与并行计算的自动化优化框架,为算法研究人员提供一站式的自动优化解决方案,显著提升模型结构的开发效率与系统性能。"
我们团队将致力于探索新型LLM架构的训练与推理加速技术,推动模型结构与算法层面的创新,全面提升LLM的效率与性能。 1. 研发Diffusion LLM的高效训练与推理框架,实现其推理性能1000倍的提升,突破现有扩散模型在语言生成中的效率瓶颈 2. 和LLM算法研究员合作,通过算法和系统的co-design,加速现有LLM的训练和推理 3. 针对新型LLM优化关键算子与分布式并行计算策略,显著降低其训练与推理成本 4. 开发面向LLM算子与并行计算的自动化优化框架,为算法研究人员提供一站式的自动优化解决方案,显著提升模型结构的开发效率与系统性能。