小红书大模型训练框架研发工程师/专家
任职要求
任职资格: 1、精通PyTorch 框架、veRL/OpenRLHF/Llama-Factory等后训练引擎,具有修改框架源码的实战经验 2、深入理解Megatron/DeepSpeed等框架的并行策略,能自主设计混合并行方案解决显存墙问题 3、掌握强化学习训练全流程优化,有基于PPO/DPO等算法的大模型训练调优经验 4、具备模型训练调优分析经验,能够借助Nsight、nvprof等工具分析发现模型训练性能瓶颈,并进行针对性优化; 5、有良好的沟通表达及团队协作能力,有强烈的责任心和使命感。 加分项: 1、熟悉TRL、DeepSpeed-RL等强化学习框架的底层实现机制 2、掌握LLM训练全链路技术栈,包括分布式数据预处理、序列并行、梯度累积策略 3、有千卡规模大模型训练实战经验,成功解决过跨机房通信、容错训练等生产问题 4、发表过SOSP/MLSys等系统顶会论文,或主导过开源训练框架核心模块开发 5、熟悉NCCL/RDMA/IB/ROCE相关知识,有高性能CUDAKernel相关研发经验;
工作职责
我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 1、参与设计实现支持RLHF/DPO等对齐技术的高效训练框架,优化强化学习阶段的Rollout、Reward Model集成、多阶段训练 Pipline; 2、研发支持多机多卡 RL 的分布式训练框架,开发TP/PP/ZeRO-3与RL流程的动态协同机制,解决 RL 算法在超长时序下的显存/通信瓶刭 3、构建端到端后训练工具链,主导框架与 MLOps 平台集成,提供训练可视化、自动超参搜索等生产级能力 4、与公司各算法部门深度合作,参与大语言模型LLM、多模态大模型 MLLM等业务在 SFT/RL领域的算法探索和引擎迭代; 5、参与分析各业务 GPU 利用率与饱和度等指标,结合业务场景持续优化训练框架能力,提升框架领先性。
团队介绍:字节跳动豆包大模型团队(Seed)成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限,并探索新的交互。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 豆包大模型团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、负责字节跳动机器学习训练框架的研究与开发,服务于全公司各个产品; 2、参与机器学习训练框架底层组件的抽象,设计,优化与落地; 3、与全公司算法部门深度合作,为重点项目进行算法与系统的联合优化。
1.框架开发与优化:负责强化学习、模型精调、知识蒸馏等核心模块的设计与开发,提升框架的训练效率与易用性; 2.分布式训练支持:基于Megatron-LM、DeepSpeed等工具,优化大模型分布式训练策略(数据并行/张量并行/流水并行/专家并行等),解决显存、通信与计算瓶颈; 3.工具链构建:参与开发轻量化训练框架(如LLama-Factory、swift),支持快速模型微调、部署及多硬件平台适配; 4.前沿技术探索:跟踪学术动态(如RLHF、MoE架构、FlashMLA、EPLB、DualPipe等),将最新研究成果转化为框架功能,提升产品竞争力; 5.协作与文档:与产品团队紧密配合,提供框架级解决方案;编写技术文档与案例,赋能公有云客户。
1.负责文本、多模态等大模型后训练(微调/强化学习)能力建设,包括:训练框架研发、开源模型适配、训练成本优化、训练效果调优等。 2.协同产运、算法团队,推动后训练技术落地业务。 3.与团队其他成员密切合作,共同解决技术难题,推动团队整体技术提升。