logo of bytedance

字节跳动大语言模型RLHF实习研究员-Seed

实习兼职A229714地点:深圳状态:招聘

任职要求


1、2026届博士学位在读,计算机/数学等相关专业优先;
2、扎实的机器学习基础,熟悉NLP、RL领域的技术,在ACL/EMNLP/NAACL/NeurIPS/ICML/ICLR等顶级会议上发表论文者优先;
3、优秀的代码能力、数据结构和基础算法功底,熟练C/C++或Python,ACM/ICP…
登录查看完整任职要求
微信扫码,1秒登录

工作职责


ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。
团队介绍:字节跳动 Seed 团队成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。
Seed 团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。

1、探索超大规模模型,并进行极致系统优化;
2、构建完善的数据Pipeline,进行自动高效的数据均衡、挖掘、构造;
3、通过RLHF进行偏好对齐,探索全新的训练范式,优化大模型在文本、图像、语音等多模态上的表现;
4、在未来生活中的更多使用场景的深入研究和探索。
包括英文材料
学历+
机器学习+
NLP+
NeurIPS+
ICML+
还有更多 •••
相关职位

logo of bytedance
社招A168184

团队介绍:字节跳动 Seed 团队成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 Seed 团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、LLM推理和规划;在整个开发过程中增强LLM推理和规划,包括数据采集、模型评估、预训练、SFT、奖励建模和强化学习,以提高LLM的整体性能; 2、通过重写、扩充和生成等方法合成大规模、高质量的数据;如指令调优、偏好对齐、模型优化以提高LLM在各个阶段(预训练、SFT、RLHF)的能力; 3、通过RLHF/RLAIF进行偏好对齐,探索全新的训练范式,优化大模型在文本、图像、语音等多模态上的表现; 4、研究和实施稳健的评估方法,以评估LLM在各个阶段的表现,揭示其能力的潜在机制和来源,并利用这种理解来推动模型改进; 5、探索和优化有效的LLM训练方法(如主动学习、课程学习)和目标,以完善缩放规律,实现卓越的模型性能; 6、相关应用落地,包括内容创作、逻辑推理、代码生成等,深入研究和探索大模型在未来生活中的更多使用场景。

更新于 2024-04-19北京
logo of bytedance
实习A216731

Top Seed人才计划-豆包大模型研究实习生专项:面向 2025 年 9 月及以后毕业的博士及本硕在读同学,加入我们,你可以自主决定研究课题,与正式员工享受同等权限和资源,和优秀的研究员一起,向智能上限发起挑战。 团队介绍:字节跳动 Seed 团队成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 Seed 团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、优化&创新RLHF算法训练效率与模型泛化能力; 2、Long CoT技术的实现和应用; 3、多模态大模型(文本、图像、语音)的Posttraining算法; 4、构建高质量、多领域的数据合成方法; 5、探索LLM在情感对话、创作等场景的应用。

更新于 2025-03-18北京
logo of bytedance
实习A243488

Top Seed人才计划-豆包大模型研究实习生专项:面向 2025 年 9 月及以后毕业的博士及本硕在读同学,加入我们,你可以自主决定研究课题,与正式员工享受同等权限和资源,和优秀的研究员一起,向智能上限发起挑战。 团队介绍:字节跳动 Seed 团队成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 Seed 团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、优化&创新RLHF算法训练效率与模型泛化能力; 2、Long CoT技术的实现和应用; 3、多模态大模型(文本、图像、语音)的Posttraining算法; 4、构建高质量、多领域的数据合成方法; 5、探索LLM在情感对话、创作等场景的应用。

更新于 2025-03-18上海
logo of bytedance
实习A183941

Top Seed人才计划-豆包大模型研究实习生专项:面向 2025 年 9 月及以后毕业的博士及本硕在读同学,加入我们,你可以自主决定研究课题,与正式员工享受同等权限和资源,和优秀的研究员一起,向智能上限发起挑战。 团队介绍:字节跳动 Seed 团队成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 Seed 团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、AI搜索总结Agent研发: 1)设计并实现基于LLM的搜索总结Agent,提升搜索结果的理解、推理与结构化总结能力; 2)探索LLM Reasoning技术(如思维链、多步推理),优化复杂查询的Deep Research模式,实现长文本理解与跨文档信息融合; 3)构建端到端系统,涵盖意图识别、知识检索、结果生成与偏好对齐,提升用户体验; 2、模型优化及应用: 1)通过指令微调(Instruction Tuning)、偏好对齐(RLHF/DPO)等技术优化模型在搜索场景的适应性; 2)探索多模态信息(文本、代码、结构化数据)融合的搜索与生成技术; 3)研究未来生活中的创新应用场景(如个性化知识助手、自动化研究工具),探索技术边界。

更新于 2025-03-18北京