小鹏汽车大语言模型RLHF算法工程师
任职要求
1. 具备扎实的机器学习基础和强悍的编码能力,能熟练使用 PyTorch; 2. 对人工智能和大模型技术有强烈的兴趣和热情,愿意不断学习和探索新技术。 加分项: 1. 有 ICML、ICLR、NeurIPS、ACL、CVPR 等顶级学术会议发表过有影响力研究成果的优先; 2. 在 ACM/ICPC、NOI/IOI、Kaggle 等编程/AI 比赛获奖者优先; 3. 主导、参与过 AI 相关的有大影响力的开源/闭源项目的优先。
工作职责
我们致力于推动强化学习(Reinforcement Learning, RL)在人形机器人运动控制、大语言模型推理优化、和具身智能体(Embodied AI) 领域的突破性应用。现招募具备深厚RL技术背景的算法工程师,参与从算法设计、仿真训练到真实场景部署的全链路研发,探索AI与物理世界的深度融合。 1. 研究大语言模型RLHF阶段的广义强化算法,提升大模型的能力,探索大模型的自我进化之路; 2. 研究大模型驱动的智能体算法,包括但是不局限于ReACT、Voyager、WebGPT、AutoGPT; 3. 撰写技术报告和论文,分享研究成果,参与内外部的技术交流和合作,推动团队技术水平的提升,提高团队在行业内的影响力。
我们致力于推动强化学习(Reinforcement Learning, RL)在人形机器人运动控制、大语言模型推理优化、和具身智能体(Embodied AI) 领域的突破性应用。现招募具备深厚RL技术背景的算法工程师,参与从算法设计、仿真训练到真实场景部署的全链路研发,探索AI与物理世界的深度融合。 1. 研究大语言模型RLHF阶段的广义强化算法,提升大模型的能力,探索大模型的自我进化之路; 2. 研究大模型驱动的智能体算法,包括但是不局限于ReACT、Voyager、WebGPT、AutoGPT; 3. 撰写技术报告和论文,分享研究成果,参与内外部的技术交流和合作,推动团队技术水平的提升,提高团队在行业内的影响力。
我们致力于推动强化学习(Reinforcement Learning, RL)在人形机器人运动控制、大语言模型推理优化、和具身智能体(Embodied AI) 领域的突破性应用。现招募具备深厚RL技术背景的算法工程师,参与从算法设计、仿真训练到真实场景部署的全链路研发,探索AI与物理世界的深度融合。 1. 研究大语言模型RLHF阶段的广义强化算法,提升大模型的能力,探索大模型的自我进化之路; 2. 研究大模型驱动的智能体算法,包括但是不局限于ReACT、Voyager、WebGPT、AutoGPT; 3. 撰写技术报告和论文,分享研究成果,参与内外部的技术交流和合作,推动团队技术水平的提升,提高团队在行业内的影响力。
团队介绍:字节跳动豆包大模型团队成立于 2023 年,致力于开发业界最先进的 AI 大模型技术,成为世界一流的研究团队,为科技和社会发展作出贡献。 豆包大模型团队在AI领域拥有长期愿景与决心,研究方向涵盖NLP、CV、语音等,在中国、新加坡、美国等地设有实验室和研究岗位。团队依托平台充足的数据、计算等资源,在相关领域持续投入,已推出自研通用大模型,提供多模态能力,下游支持豆包、扣子、即梦等50+业务,并通过火山引擎开放给企业客户。目前,豆包APP已成为中国市场用户量最大的AIGC应用。 1、团队负责公司大模型的研发和应用,研究相关技术在搜索、推荐、广告、创作、对话和客服等领域的全新应用和解决方案,满足用户不断增长的智能交互需求,全面提升用户在未来世界的生活和交流方式;主要工作方向包括: 1)优化&创新RLHF算法训练效率与模型泛化能力; 2)Long CoT技术的实现和应用; 3)多模态大模型(文本、图像、语音)的Posttraining算法; 4)构建高质量、多领域的数据合成方法; 5)探索LLM在情感对话、创作等场景的应用。
团队介绍:字节跳动豆包大模型团队成立于 2023 年,致力于开发业界最先进的 AI 大模型技术,成为世界一流的研究团队,为科技和社会发展作出贡献。 豆包大模型团队在AI领域拥有长期愿景与决心,研究方向涵盖NLP、CV、语音等,在中国、新加坡、美国等地设有实验室和研究岗位。团队依托平台充足的数据、计算等资源,在相关领域持续投入,已推出自研通用大模型,提供多模态能力,下游支持豆包、扣子、即梦等50+业务,并通过火山引擎开放给企业客户。目前,豆包APP已成为中国市场用户量最大的AIGC应用。 1、团队负责公司大模型的研发和应用,研究相关技术在搜索、推荐、广告、创作、对话和客服等领域的全新应用和解决方案,满足用户不断增长的智能交互需求,全面提升用户在未来世界的生活和交流方式;主要工作方向包括: 1)优化&创新RLHF算法训练效率与模型泛化能力; 2)Long CoT技术的实现和应用; 3)多模态大模型(文本、图像、语音)的Posttraining算法; 4)构建高质量、多领域的数据合成方法; 5)探索LLM在情感对话、创作等场景的应用。