小红书【2026校招】大模型训练/压缩/推理Infra研发工程师
任职要求
1、本科及以上学历,计算机、人工智能等相关专业优先; 2、熟悉Linux/Unix平台上的C++/Python/Rust编程,熟悉常用的数据结构和算法,有良好的编程习惯; 3、具备大模型方向头部开源框架开发经验,或者具有大模型工程优化的前沿论文成果; 4、熟悉至少一种大模型训练或推理框架的原理和实现,具有修改源码或者深度使用的实践经验; 预训练框架:PyTorch、Megatron、DeepSpeed等 后训练框架:veRL、OpenRLHF、Llama-Factory等 推理框架:vLLM、SGLang、TensorRT-LLM等 5、熟悉大模型量化、蒸馏、剪枝等模型压缩常用方案并有相关实践经验; 6、熟悉NCCL/RDMA/IB/RoCE相关知识,具备AI模型性能调优经验、有CUDAKernel相关研发经验; 7、具备优秀的逻辑思维能力,有良好的团队合作精神,较强的沟通能力和学习能力。
工作职责
小红书中台AI Infra团队深耕大模型「数-训-压-推-评」技术闭环,具备专业的大模型训练加速、模型压缩、推理加速、部署提效等方向硬核技术积淀,基于RedAccel训练引擎、RedSlim压缩工具、RedServing推理部署引擎、DirectLLM大模型MaaS服务,支撑小红书社区、商业、交易、安全、数平、研效等多个核心业务实现AI技术高效落地! 大模型训练方向: 1、参与设计实现支持RLHF/DPO等对齐技术的高效训练框架,优化强化学习阶段的Rollout、Reward Model集成、多阶段训练Pipeline; 2、研发支持多机多卡RL的分布式训练框架,开发TP/PP/ZeRO-3与RL流程的动态协同机制,解决RL算法在超长时序下的显存/通信瓶颈; 3、基于自建的训推引擎,落地公司统一的大模型生产部署平台,为公司所有大模型算法同学提供端到端的一站式服务。 大模型压缩方向: 1、探索研发针对大语言模型、多模态大模型等场景的压缩技术,包括但不限于量化、蒸馏、剪枝、稀疏化等; 2、参与/负责多个业务场景中的模型压缩技术实现,对模型进行轻量化压缩,提高训练/推理效率,支持业务降本增效; 3、参与/负责针对英伟达GPU、华为昇腾NPU等不同的计算硬件,制定不同的模型压缩方案并在业务落地。 大模型推理方向: 1、参与/负责研发面向LLM/MLLM等模型的稳定、易用、性能领先的AI推理框架; 2、通过并行计算优化、分布式架构优化、异构调度等多种框架技术,支撑各业务方向持续降本增效; 3、深度参与周边深度学习系统多个子方向的工作,包括但不限于模型管理、推理部署、日志/监控、工作流编排等。 高性能计算方向: 1、参与/负责AI推理/训练框架的底层性能优化工作,包括但不限于高性能算子、通信库开发与优化等工作; 2、参与/负责大模型计算引擎的研发工作,通过多种方式实现训推性能SOTA; 3、参与/负责前沿AI编译加速等技术的探索和业务落地。 大模型服务方向: 1、参与/负责大模型MaaS系统的架构设计、系统研发、产品研发等工作; 2、深入参与面向大模型场景的请求调度、异构资源调度、引擎优化等核心工作,实现万亿级并行推理系统; 3、为内部产品线提供解决方案,协助公司内用户解决大模型应用过程中业务在MaaS上的使用问题。
小红书中台AI平台团队致力于打造业界领先的一站式AI平台,通过技术创新和工程优化,为公司AI业务发展提供强有力的基础设施支撑,实现算法研发效率的显著提升和成本的有效控制。我们负责调度公司所有AI模型训练及推理的数万卡GPU资源,基于自研的训练、推理、智能体框架,为公司所有算法及工程同学提供端到端、一站式的AI研发能力,包含大模型数据处理/训练/压缩/推理/部署及开箱即用的API体验、AI知识库/智能体应用构建、搜广推数据生产/模型训练/模型上线/特征管理/模型测试等。 1、负责大模型/搜广推模型开发平台、AI应用开发平台的架构设计和核心功能研发,构建云原生架构,设计高可用、高性能的微服务体系; 2、负责构建面向大模型、搜广推、智能体全流程DevOps,与下游云原生平台深度融合,支撑大模型在公司内各业务生产链路稳定高效地落地; 3、负责万卡规模GPU集群效能分析及优化,通过调度策略优化、在离线混部、GPU虚拟化、存储&网络加速等手段,提升GPU集群使用效率; 4、将平台和框架结合,通过任务调度、弹性容灾、性能优化等措施端到端提升AI生产效率,涉及k8s/kubeflow、网络通信、分布式训练等; 5、优化各AI平台性能,提升系统稳定性和可扩展性,保障大规模并发场景下的服务质量与用户体验; 6、持续研究分析业内创新AI平台产品,优化技术方案,改进产品功能,提升创新能力与产品体验。
模型压缩方向: 1、探索研发针对大语言模型、多模态大模型、StableDiffusion模型等模型的压缩技术,包括但不限于量化、蒸馏、剪枝、稀疏化等; 2、参与/负责多个业务场景中的模型压缩技术实现,对模型进行轻量化压缩,提高训练/推理效率,支持业务降本增效。 推理框架方向: 1、参与/负责研发面向CV/NLP/多模态/大语言模型等类型模型的推理服务框架; 2、通过并行计算优化、分布式架构优化、异构调度等多种框架技术,打造高效、易用、领先的AI推理框架。 高性能计算方向: 1、参与/负责AI推理/训练框架的底层性能优化工作,包括但不限于高性能算子、通信库开发与优化等工作; 2、参与/负责大模型计算引擎的研发工作,通过多种方式实现训推性能SOTA; 3、参与/负责前沿AI编译加速等技术的探索和业务落地。 模型训练方向: 1、负责调度公司所有模型训练与推理资源; 2、基于自建的训推引擎,构建公司统一的机器学习平台,为公司所有算法同学(稀疏 & 稠密,含 LLM) 模型迭代提供端到端的一站式服务;包括 数据生产,模型训练,模型上线,特征管理,模型测试,资源管控等一系列能力。
1、对业务模型训练效果的数据负责,与算法进行专业对话,结合模型能力要求进行数据策略的制定,为模型效果提供最优解决方案,支持从模型冷启、样本设计、数据生产、效果优化、线上监控的全过程,推动策略迭代提升模型效果; 2、负责搜索、安全生态、内容理解、大模型、商业交易等业务板块的模型需求,基于业务场景模型的应用效果设计运营链路,从模型实际应用收益出发,推动模型的策略、规则、数据链路的优化; 3、基于行业常见智能化应用手段,例如agent、rag、pe等,进行智能化标注策略设计,提供专业的智能化数据方案,搭建人机协同、智能化标注等数据链路,拿到效率、成本的收益; 4、保持数据行业前沿的视角和前瞻性的专业思考,持续推进智能化标注策略迭代,同时辅助内部工具平台、组织与业务交付流程的优化,提出有效建议,提高团队整体业务效率。