
得物【算法平台】分布式训练框架工程师/专家
任职要求
1、具备优秀的编码能力,扎实的数据结构和算法功底,熟练掌握C++/Python编程语言; 2、熟悉至少一种主流深度学习框架(TensorFlow/PyTorch/PaddlePaddle/MindSpore),熟悉其底层架构和实现机制,有研发和定制优化经验; 3、有以下至少一项的背景知识与经验:GPU编程,分布式训练集合通信,训练框架图优化/编译优化,LLM4REC,混合精度/量化训练,; 4、具有独立解决问题的能力,良好的团队合作精神; 5、本科及以上学历,工作经验3年以上。 加分项: 1、参与过Parameter Server(参数服务器)系统研发; 2、参与过分布式KV系统研发或者基于NVMe-SSD的存储系统研发,熟悉Redis、LevelDB/RocksDB、Mongo 等开源存储类项目; 3、精通分布式服务系统后台性能调优,例如多线程优化,网络RPC通信优化,磁盘IO优化等。 4、一站式机器学习平台研发经验,熟悉MLOps平台研发; 5、阿里云、华为云等云上环境研发部署经验,熟悉云厂商提供的存储系统、网络系统、文件系统的最佳实践开发流程; 6、Alluxio在AI系统加速实践经验; 7、样本特征平台研发经验;
工作职责
团队负责研发一站式搜广推模型机器学习平台,该岗位专注于面向搜索/推荐/广告场景的机器学习分布式训练系统研发 1、负责研发搜广推稀疏大模型分布式GPU同步训练框架,支持GPU单机多卡、多机多卡训练,支持稀疏参数的多级缓存架构和异步流水训练,满足搜广推稀疏大模型离线训练、在线学习、特征准入和淘汰等算法需求; 2、负责TensorFlow/Pytorch框架的后端GPU训练性能优化,个别自定义GPU算子的cuda kernel开发和优化; 3、参与样本数据平台、搜推模型全链路解决方案、LLM4REC等重要方向的研发,提升平台的效率和易用性,加速算法同学的模型迭代效率。
我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 1、参与设计实现支持RLHF/DPO等对齐技术的高效训练框架,优化强化学习阶段的Rollout、Reward Model集成、多阶段训练 Pipline; 2、研发支持多机多卡 RL 的分布式训练框架,开发TP/PP/ZeRO-3与RL流程的动态协同机制,解决 RL 算法在超长时序下的显存/通信瓶刭 3、构建端到端后训练工具链,主导框架与 MLOps 平台集成,提供训练可视化、自动超参搜索等生产级能力 4、与公司各算法部门深度合作,参与大语言模型LLM、多模态大模型 MLLM等业务在 SFT/RL领域的算法探索和引擎迭代; 5、参与分析各业务 GPU 利用率与饱和度等指标,结合业务场景持续优化训练框架能力,提升框架领先性。
1.框架开发与优化:负责强化学习、模型精调、知识蒸馏等核心模块的设计与开发,提升框架的训练效率与易用性; 2.分布式训练支持:基于Megatron-LM、DeepSpeed等工具,优化大模型分布式训练策略(数据并行/张量并行/流水并行/专家并行等),解决显存、通信与计算瓶颈; 3.工具链构建:参与开发轻量化训练框架(如LLama-Factory、swift),支持快速模型微调、部署及多硬件平台适配; 4.前沿技术探索:跟踪学术动态(如RLHF、MoE架构、FlashMLA、EPLB、DualPipe等),将最新研究成果转化为框架功能,提升产品竞争力; 5.协作与文档:与产品团队紧密配合,提供框架级解决方案;编写技术文档与案例,赋能公有云客户。