小红书【REDstar】深度学习推理优化工程师
任职要求
1、本科及以上学历,计算机等相关专业优先; 2、熟练掌握 C/C++,具备扎实的系统能力、良好的编程习惯与团队协作能力; 3、熟悉 TensorFlow / PyTorch 等主流训练推理框架,理解其执行模型及原理;熟悉 XDL、TFRA、DeepRec、TorchRec、DeepSpeed 等任一训练平台或组件优先; 4、熟悉主流推理服务框架及 backend,如 TensorFlow Serving、TensorRT、ONNX Runtime、XLA 等,具备模型部署与调优经验; 5、了解推荐领域常见模型(如 DeepFM、DIN、SIM 等)与完整的样本生成、训练、上线、推理、特征服务流程优先。
工作职责
1、参与模型训练与推理引擎的架构设计与核心模块开发,基于 TensorFlow / PyTorch 打造业界领先的训练-推理引擎,支撑长序列建模与生成式推荐等新一代模型架构升级; 2、对接存储与数据平台团队,搭建统一的 ML 数据 Pipeline,提供特征管理、开发调试、版本控制与高效生产等平台化能力; 3、负责训推基础设施核心模块的研发与性能优化,包括但不限于 Embedding 管理组件、特征 DSL 引擎、服务化调度与推理框架; 4、关注业界前沿 LLM / Agent 等模型与系统架构,探索其在搜索与推荐业务中的工程化落地方案。
小红书中台AI平台团队致力于打造业界领先的一站式AI平台,通过技术创新和工程优化,为公司AI业务发展提供强有力的基础设施支撑,实现算法研发效率的显著提升和成本的有效控制。我们负责调度公司所有AI模型训练及推理的数万卡GPU资源,基于自研的训练、推理、智能体框架,为公司所有算法及工程同学提供端到端、一站式的AI研发能力,包含大模型数据处理/训练/压缩/推理/部署及开箱即用的API体验、AI知识库/智能体应用构建、搜广推数据生产/模型训练/模型上线/特征管理/模型测试等。 1、负责大模型/搜广推模型开发平台、AI应用开发平台的架构设计和核心功能研发,构建云原生架构,设计高可用、高性能的微服务体系; 2、负责构建面向大模型、搜广推、智能体全流程DevOps,与下游云原生平台深度融合,支撑大模型在公司内各业务生产链路稳定高效地落地; 3、负责万卡规模GPU集群效能分析及优化,通过调度策略优化、在离线混部、GPU虚拟化、存储&网络加速等手段,提升GPU集群使用效率; 4、将平台和框架结合,通过任务调度、弹性容灾、性能优化等措施端到端提升AI生产效率,涉及k8s/kubeflow、网络通信、分布式训练等; 5、优化各AI平台性能,提升系统稳定性和可扩展性,保障大规模并发场景下的服务质量与用户体验; 6、持续研究分析业内创新AI平台产品,优化技术方案,改进产品功能,提升创新能力与产品体验。
小红书中台AI Infra团队深耕大模型「数-训-压-推-评」技术闭环,具备专业的大模型训练加速、模型压缩、推理加速、部署提效等方向硬核技术积淀,基于RedAccel训练引擎、RedSlim压缩工具、RedServing推理部署引擎、DirectLLM大模型MaaS服务,支撑小红书社区、商业、交易、安全、数平、研效等多个核心业务实现AI技术高效落地! 大模型训练方向: 1、参与设计实现支持RLHF/DPO等对齐技术的高效训练框架,优化强化学习阶段的Rollout、Reward Model集成、多阶段训练Pipeline; 2、研发支持多机多卡RL的分布式训练框架,开发TP/PP/ZeRO-3与RL流程的动态协同机制,解决RL算法在超长时序下的显存/通信瓶颈; 3、基于自建的训推引擎,落地公司统一的大模型生产部署平台,为公司所有大模型算法同学提供端到端的一站式服务。 大模型压缩方向: 1、探索研发针对大语言模型、多模态大模型等场景的压缩技术,包括但不限于量化、蒸馏、剪枝、稀疏化等; 2、参与/负责多个业务场景中的模型压缩技术实现,对模型进行轻量化压缩,提高训练/推理效率,支持业务降本增效; 3、参与/负责针对英伟达GPU、华为昇腾NPU等不同的计算硬件,制定不同的模型压缩方案并在业务落地。 大模型推理方向: 1、参与/负责研发面向LLM/MLLM等模型的稳定、易用、性能领先的AI推理框架; 2、通过并行计算优化、分布式架构优化、异构调度等多种框架技术,支撑各业务方向持续降本增效; 3、深度参与周边深度学习系统多个子方向的工作,包括但不限于模型管理、推理部署、日志/监控、工作流编排等。 高性能计算方向: 1、参与/负责AI推理/训练框架的底层性能优化工作,包括但不限于高性能算子、通信库开发与优化等工作; 2、参与/负责大模型计算引擎的研发工作,通过多种方式实现训推性能SOTA; 3、参与/负责前沿AI编译加速等技术的探索和业务落地。 大模型服务方向: 1、参与/负责大模型MaaS系统的架构设计、系统研发、产品研发等工作; 2、深入参与面向大模型场景的请求调度、异构资源调度、引擎优化等核心工作,实现万亿级并行推理系统; 3、为内部产品线提供解决方案,协助公司内用户解决大模型应用过程中业务在MaaS上的使用问题。
1、负责智能客服相关算法优化工作,包括意图理解、改写、召回、精排、回复生成等,面向不同的客服场景进行模型微调、蒸馏、强化学习; 2、从需求分析到模型部署全流程负责,包括数据清洗、Prompt工程、模型训练、AB测试及线上服务优化,推动算法方案客服场景的应用落地; 3、跟踪大模型领域的最新技术研究进展,如MOE、Agent框架、推理加速、思维链(CoT)、多模态对话等,探索Agent化智能客服等创新方向。
1、Post-Training Pipeline 设计与迭代:搭建并持续优化 SFT、RM、RLHF/RLAIF/ RLVF 等后训练流水线,支持多模态模型的高效迭代,让千亿级大模型在一次次“后训练”中真正变得聪明、智慧、安全; 2、可扩展监督与反馈系统:设计低成本人类 + AI 组合反馈机制,自动化完成偏好采集、对齐传递与数据质量评估,通过 Product-Research co-design 探索构建真实用户反馈的模型迭代机制; 3、通用推理与工具使用能力提升:构建跨模态强化学习环境和多样化奖励体系,帮助模型学会调用外部工具、提升模型利用文本-图像-语音跨模态信息进行复杂推理和问题解决能力; 4、长期记忆、个性化与终身学习:探索持久记忆与动态偏好建模,使模型能够跨会话记住用户偏好、持续学习而不遗忘核心能力; 5、安全评估与价值观对齐:搭建安全对齐机制、红队测试、越狱防御与自动化评测框架,量化模型幻觉、稳定性及价值观一致性,制定风险缓解策略,确保模型在开放场景中始终行为可控; 6、跨职能落地:与产品、设计、人文训练师及数据团队,把研究成果迅速推向真实场景,打造小红书下一代战略级 AI native 应用产品。