小红书【2026校招】深度学习推理优化工程师
任职要求
1. 计算机及相关专业本科以上学历,3 年以上高性能系统或 AI Infra 研发经验。 2. 精通 C/C++,具备扎实的系统底层能力(内存、并发、网络),代码风格优雅,热衷技术分享。 3. 深入理解至少一种主流训练/推理框架(XDL、TFRA、DeepRec、TorchRec、DeepSpeed、veRL、Megatron 等),对其执行模型与性能瓶颈有源码级洞察。 4. 熟悉 TensorFlow Serving、TensorRT、OpenXLA、ONNX Runtime 等推理后端,具备大模型量化、编译优化与线上 A/B 调优实战经验。 5. 了解推荐/广告典型模型(DeepFM、DIEN、SIM、OneRec、RankMixer 等),熟悉样本生成→训练→上线→推理→特征服务的完整链路。 6. 有 GPU/TPU 集群建设与性能调优经验,熟练使用 CUDA、cuDNN、TensorRT 等工具,能够定位并解决分布式环境中的复杂性能瓶颈。 【加分项】 • 主导或核心参与过万卡级以上 AI 训练/推理平台的架构设计、实现和升级。 • 在 TensorFlow、PyTorch、DeepSpeed 等社区有持续代码贡献;或有高质量技术博客、顶会论文(OSDI、SOSP、MLSys、KDD、RecSys 等)。
工作职责
1. 主导新一代训练与推理引擎的架构设计与核心模块开发,支撑搜广推业务在长序列建模、生成式推荐、Agent 等前沿场景的规模落地。 2. 与存储、数据平台深度协同,打造端到端 ML 数据 Pipeline:统一特征管理、秒级调试、版本追踪与一键上线,让数据科学家专注模型创新。 3. 持续优化训推基础设施:自研 Embedding 高速存储、特征 DSL 引擎、弹性调度与服务化推理框架,实现 10x 级性能提升。 4. 跟踪 LLM / Agent 最新进展,将其工程化落地到搜索、广告、推荐及智能体业务,定义行业新标准。
小红书中台AI平台团队致力于打造业界领先的一站式AI平台,通过技术创新和工程优化,为公司AI业务发展提供强有力的基础设施支撑,实现算法研发效率的显著提升和成本的有效控制。我们负责调度公司所有AI模型训练及推理的数万卡GPU资源,基于自研的训练、推理、智能体框架,为公司所有算法及工程同学提供端到端、一站式的AI研发能力,包含大模型数据处理/训练/压缩/推理/部署及开箱即用的API体验、AI知识库/智能体应用构建、搜广推数据生产/模型训练/模型上线/特征管理/模型测试等。 1、负责大模型/搜广推模型开发平台、AI应用开发平台的架构设计和核心功能研发,构建云原生架构,设计高可用、高性能的微服务体系; 2、负责构建面向大模型、搜广推、智能体全流程DevOps,与下游云原生平台深度融合,支撑大模型在公司内各业务生产链路稳定高效地落地; 3、负责万卡规模GPU集群效能分析及优化,通过调度策略优化、在离线混部、GPU虚拟化、存储&网络加速等手段,提升GPU集群使用效率; 4、将平台和框架结合,通过任务调度、弹性容灾、性能优化等措施端到端提升AI生产效率,涉及k8s/kubeflow、网络通信、分布式训练等; 5、优化各AI平台性能,提升系统稳定性和可扩展性,保障大规模并发场景下的服务质量与用户体验; 6、持续研究分析业内创新AI平台产品,优化技术方案,改进产品功能,提升创新能力与产品体验。
1、负责智能客服相关算法优化工作,包括意图理解、改写、召回、精排、回复生成等,面向不同的客服场景进行模型微调、蒸馏、强化学习; 2、从需求分析到模型部署全流程负责,包括数据清洗、Prompt工程、模型训练、AB测试及线上服务优化,推动算法方案客服场景的应用落地; 3、跟踪大模型领域的最新技术研究进展,如MOE、Agent框架、推理加速、思维链(CoT)、多模态对话等,探索Agent化智能客服等创新方向。
小红书中台AI Infra团队深耕大模型「数-训-压-推-评」技术闭环,具备专业的大模型训练加速、模型压缩、推理加速、部署提效等方向硬核技术积淀,基于RedAccel训练引擎、RedSlim压缩工具、RedServing推理部署引擎、DirectLLM大模型MaaS服务,支撑小红书社区、商业、交易、安全、数平、研效等多个核心业务实现AI技术高效落地! 大模型训练方向: 1、参与设计实现支持RLHF/DPO等对齐技术的高效训练框架,优化强化学习阶段的Rollout、Reward Model集成、多阶段训练Pipeline; 2、研发支持多机多卡RL的分布式训练框架,开发TP/PP/ZeRO-3与RL流程的动态协同机制,解决RL算法在超长时序下的显存/通信瓶颈; 3、基于自建的训推引擎,落地公司统一的大模型生产部署平台,为公司所有大模型算法同学提供端到端的一站式服务。 大模型压缩方向: 1、探索研发针对大语言模型、多模态大模型等场景的压缩技术,包括但不限于量化、蒸馏、剪枝、稀疏化等; 2、参与/负责多个业务场景中的模型压缩技术实现,对模型进行轻量化压缩,提高训练/推理效率,支持业务降本增效; 3、参与/负责针对英伟达GPU、华为昇腾NPU等不同的计算硬件,制定不同的模型压缩方案并在业务落地。 大模型推理方向: 1、参与/负责研发面向LLM/MLLM等模型的稳定、易用、性能领先的AI推理框架; 2、通过并行计算优化、分布式架构优化、异构调度等多种框架技术,支撑各业务方向持续降本增效; 3、深度参与周边深度学习系统多个子方向的工作,包括但不限于模型管理、推理部署、日志/监控、工作流编排等。 高性能计算方向: 1、参与/负责AI推理/训练框架的底层性能优化工作,包括但不限于高性能算子、通信库开发与优化等工作; 2、参与/负责大模型计算引擎的研发工作,通过多种方式实现训推性能SOTA; 3、参与/负责前沿AI编译加速等技术的探索和业务落地。 大模型服务方向: 1、参与/负责大模型MaaS系统的架构设计、系统研发、产品研发等工作; 2、深入参与面向大模型场景的请求调度、异构资源调度、引擎优化等核心工作,实现万亿级并行推理系统; 3、为内部产品线提供解决方案,协助公司内用户解决大模型应用过程中业务在MaaS上的使用问题。