百度搜索产品研发工程师(J77553)
任职要求
-计算机软件或相关专业本科及以上学历 -有Linux/Unix下开发经验,熟悉多线程编程、网络编程,熟悉脚本编程;具有模型推理优化、分布式训练、GPU编程等经验者优先 -对数据结构和算法设计有较为深刻的理解,熟悉C/C++程序开发,有一定的高并发系统设计经验 -熟悉Tensorflow, Paddl…
工作职责
-负责机器学习工程架构研发工作,包括推荐模型、CV、NLP等方向,包括预估架构、特征工程、模型训练、推理优化、混部调度等 -负责大数据处理、系统稳定性、扩展技术研发 -优化在线的高并发高可用服务架构以及离线的高负载大数据量的服务架构 -和团队一起攻克高性能、高并发、高可用性等各种不同技术场景下的技术挑战
-负责机器学习工程架构研发工作,包括推荐模型、CV、NLP等方向,包括预估架构、特征工程、模型训练、推理优化、混部调度等 -负责大数据处理、系统稳定性、扩展技术研发 -优化在线的高并发高可用服务架构以及离线的高负载大数据量的服务架构 -和团队一起攻克高性能、高并发、高可用性等各种不同技术场景下的技术挑战
-负责搜索产品的服务端研发工作 -参与搜索整体研发效能和稳定性的提升工作 -负责优化搜索垂类在线检索系统,参与服务架构设计,独立完成业务需求分析和软件设计 -紧跟大模型前沿技术,结合实际业务场景开发落地,实现创新驱动业务增长 -负责AI大模型智能体开发机制建设
我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 1、参与设计实现支持RLHF/DPO等对齐技术的高效训练框架,优化强化学习阶段的Rollout、Reward Model集成、多阶段训练 Pipline; 2、研发支持多机多卡 RL 的分布式训练框架,开发TP/PP/ZeRO-3与RL流程的动态协同机制,解决 RL 算法在超长时序下的显存/通信瓶刭 3、构建端到端后训练工具链,主导框架与 MLOps 平台集成,提供训练可视化、自动超参搜索等生产级能力 4、与公司各算法部门深度合作,参与大语言模型LLM、多模态大模型 MLLM等业务在 SFT/RL领域的算法探索和引擎迭代; 5、参与分析各业务 GPU 利用率与饱和度等指标,结合业务场景持续优化训练框架能力,提升框架领先性。