米哈游LLM研究员(agent)
任职要求
1、拥有计算机科学、人工智能、机器学习、语言学、统计学或相关技术领域的硕士或博士学位; 2、具备 RAG(检索增强生成)算法的实现经验,包括查询重写模型与稠密检索系统; 3、对构建 AI 智能体记忆系统有浓厚兴趣; 4、精通 Python,熟悉 TensorFlow 或 PyTorch 等主流机器学习框架; 5、了解提示工程(Prompt Engineering)技术,如 Chain-of-Thought Prompting、ReAct Prompting 等; 6、具备优秀的系统设计能力,关注可扩展性与效率。 加分项 1、有在实际生产环境中设计 AI 智能体记忆系统的经验; 2、拥有计算机科学、人工智能、机器学习或相关领域的博士学位; 3、精通多智能体系统(Multi-agent systems)及复杂推理问题求解; 4、具备 LLM 模型训练、微调及高级提示策略的实践经验; 5、有将 AI 智能体应用于真实场景、解决实际问题的项目经历。
工作职责
1、设计并实现适用于 LLM 驱动智能体(AI agents)的记忆系统,用于构建 AI 角色与虚拟人格; 2、在 LLM 智能体框架下开发和优化基于检索增强生成(RAG)的系统; 3、构建具备任务规划、任务分解与复杂推理能力的高级 LLM 智能体; 4、将 LLM 与外部工具、数据库和 API 进行集成,以解决复杂问题并支持智能决策; 5、开发完善的评估体系,用于衡量智能体的性能与能力边界。
1、紧跟领域前沿技术,搭建一致、拟人、高智商、高情商的AI角色 2、持续迭代 Memory、Planning、RAG、Tool use、Multi-Agent等关键技术,提升Agent的对话管理、行为决策与环境交互能力 3、研发高效的Agent系统,持续优化架构与性能,推动Agent在产品化应用中的落地 4、探索并实现复杂场景下的Agent数据闭环,构建稳健、可靠的评估流程
1、探索大模型及Agent技术在游戏领域的前沿应用,包括不限于智能NPC、AI交互叙事、AIGC游戏内容生成管线研发; 2、优化和提升游戏场景下的模型效果:SFT/RLHF训练策略、Reward Model、记忆系统、Agent架构; 3、预研大模型驱动的AI Native游戏玩法、提升游戏体验、确保内容可控性和实时推理性能等。
研究方向一:垂域LLM研究与构建 1.基座模型架构设计与优化:参与大语言模型基座架构的设计,研究前沿技术,如稀疏激活、混合精度训练等,同时优化模型的训练和推理流程。 2.技术创新与突破:参与前沿技术研究,如多任务学习、跨模态理解等,推动模型在复杂任务上的性能提升;探索Transformer替代架构,突破现有模型scaling law限制;同时挑战学术benchmark,为模型的性能树立新的行业标杆。 3.强化学习算法研究:参与大语言模型后训练阶段的强化学习算法研究,包括基于AI和环境反馈的强化学习(RLXF)算法。同时探索奖励模型与反馈机制,研究可泛化的细粒度过程监督和奖励建模,探索基于细粒度反馈的强化学习算法。 4.垂域模型定制化构建:领域认知智能突破,探索小样本场景自演进架构设计、可信推理机制构建等方向,同时建立面向AGI的模型评价体系新范式。 5.跨部门协作与落地:与公司数据科学家、算法工程师、产品团队紧密合作,将研究成果快速转化为实际应用,推动大语言模型在更多场景的落地。 研究方向二:垂域MLLM研究与构建 1.研究多模态表征与大语言模型融合的前沿技术,设计和实现创新算法,研究异质数据的统一编解码模型,适配多种模态下的特征统一,实现高效微调与优化。 2.探索强化学习(RL)在多模态大模型中的应用,包括强化学习增强的多模态生成、跨模态对齐、偏好建模及自适应优化,提升多模态理解与推理能力。 3.持续追踪多模态与强化学习结合的最新研究进展,优化现有多模态系统架构,提升性能、效率与可扩展性,推动多模态强化学习在智能体交互、决策推理等任务中的应用。 4.构建技术评估体系,通过多场景验证推动多模态理解、生成及强化学习优化策略的落地应用,提升多模态大模型的泛化能力和实际应用价值。 研究方向三:基于角色扮演的虚拟数字助理 1. 角色扮演技术(Role-Playing):通过模型优化、Agent构建,在人设、拟人性、情感等取得显著提升。 2. 记忆管理与增强(Memory):通过模型长上下文,记忆抽取与管理,提升系统的记忆能力。 3. 个性化技术:通过用户行为数据挖掘与建模,结合多轮对话上下文理解,分析用户情感状态,提升模型的个性化回复能力。 4. 基于Agent的数字助理:通过Agent构建和基于RL的优化,实现数字助理的能力复刻和增强