百度大模型训练研发工程师(J95973)
任职要求
-热爱大模型训练技术或者深度学习框架技术 -计算机软件或相关专业硕士及以上学历 -有Linux/Unix下开发经验,熟悉多线程编程、网络编程 -熟悉大模型训练技术(高性能,算法策略,集群容错)或优化技术熟悉CUDA编程,高性能优化者优先 -了解飞…
工作职责
-参与负责百度文心大模型的训练优化 -负责百度核心产品飞桨的分布式训练功能和架构开发 -参与前沿大模型训练技术和超大规模分布式训练架构技术的探索和研究 -参与飞桨深度学习框架的优化工作,使开发者能够以更简单的方式实现各类任务,降低学习成本和开发成本 -负责高性能计算平台的设计、研发,高性能计算库、通信库开发与优化 -探索深度学习大语言模型、跨模态模型等领域的算法-工程协同优化方案 -根据整体技术方案完成高质量的开发、自测及项目文档编写
-参与负责百度文心大模型的训练优化和支持 -负责百度核心产品飞桨的分布式训练功能和架构开发 -参与前沿大模型训练技术和超大规模分布式训练架构技术的探索和研究 -参与飞桨深度学习框架的优化工作,使开发者能够以更简单的方式实现各类任务,降低学习成本和开发成本 -负责异构高性能计算平台的设计、研发,高性能计算库、通信库开发与优化 -探索深度学习大语言模型、跨模态模型等领域的算法-工程协同优化方案 -根据整体技术方案完成高质量的开发、自测及项目文档编写
1 )开发、部署和维护机器学习工具和平台,开发/优化机器学习模型训练框架,以支持自动驾驶场景下的机器学习模型开发; 2)和自动驾驶算法工程师密切配合,发现、定位模型训练迭代过程中的性能问题并配合分析优化,提升机器学习模型迭代的迭代效率和迭代效果; 3)调研业界先进的机器学习框架及优化手段,借鉴其中先进理念和经验,并应用到日常开发过程中;
我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 1、参与设计实现支持RLHF/DPO等对齐技术的高效训练框架,优化强化学习阶段的Rollout、Reward Model集成、多阶段训练 Pipline; 2、研发支持多机多卡 RL 的分布式训练框架,开发TP/PP/ZeRO-3与RL流程的动态协同机制,解决 RL 算法在超长时序下的显存/通信瓶刭 3、构建端到端后训练工具链,主导框架与 MLOps 平台集成,提供训练可视化、自动超参搜索等生产级能力 4、与公司各算法部门深度合作,参与大语言模型LLM、多模态大模型 MLLM等业务在 SFT/RL领域的算法探索和引擎迭代; 5、参与分析各业务 GPU 利用率与饱和度等指标,结合业务场景持续优化训练框架能力,提升框架领先性。