字节跳动大模型应用研发工程师(推理部署优化方向)-TRAE
任职要求
1、对LLM应用层创新有热情,追求卓越,致力于逼近模型能力边界与硬件理论算力极限; 2、具备端到端分析业务性能瓶颈、稳定性的能力,能精准定位关键卡点并推动解决; 3、熟悉LLM模型部署流程及常见优化技术,有vllm、TRT-LLM、SGLang开发/优化经验者优先; 4、了解Nvidia GPU硬件特性,具备一定CUDA Kernel开发及调优经验; 5、自驱力强,能主动学习LLM前沿结构与推理、部署优化方案,并推动业务落地。
工作职责
团队介绍:TRAE(The Real AI Engineer),是字节跳动旗下产品,一个能理解需求、调动工具、独立完成开发任务的 AI 工程师,为用户提供端到端生成真实软件的服务。TRAE是当前国内最受欢迎的AI编程产品之一,也是全球首个端到端AI软件开发Agent产品,可覆盖简单到复杂全场景。我们正在寻找充满热情、富有创造力的人才。期待你的加入,与我们共同重塑开发范式,定义未来开发的形态。 1、服务稳定性保障:保障TRAE产品AI功能的模型服务稳定,处理线上报警、完成部署扩缩容,支撑ToC/ToB业务增长; 2、E2E性能及成本优化:端到端分析链路性能,协同客户端与服务端优化代码补全及Agent时延、吞吐;从业务视角优化模型部署成本,提升GPU利用率; 3、高性能推理部署优化:结合业务特性设计并迭代模型推理、部署方案,逼近硬件理论算力极限;基于高性能算子库扩展新模型结构支持,构建 “模型量化 - 推理加速 - 部署” 完整Pipeline并产品化落地(如MoE稀疏结构、Diffusion模型)。
小红书中台AI Infra团队深耕大模型「数-训-压-推-评」技术闭环,具备专业的大模型训练加速、模型压缩、推理加速、部署提效等方向硬核技术积淀,基于RedAccel训练引擎、RedSlim压缩工具、RedServing推理部署引擎、DirectLLM大模型MaaS服务,支撑小红书社区、商业、交易、安全、数平、研效等多个核心业务实现AI技术高效落地! 大模型训练方向: 1、参与设计实现支持RLHF/DPO等对齐技术的高效训练框架,优化强化学习阶段的Rollout、Reward Model集成、多阶段训练Pipeline; 2、研发支持多机多卡RL的分布式训练框架,开发TP/PP/ZeRO-3与RL流程的动态协同机制,解决RL算法在超长时序下的显存/通信瓶颈; 3、基于自建的训推引擎,落地公司统一的大模型生产部署平台,为公司所有大模型算法同学提供端到端的一站式服务。 大模型压缩方向: 1、探索研发针对大语言模型、多模态大模型等场景的压缩技术,包括但不限于量化、蒸馏、剪枝、稀疏化等; 2、参与/负责多个业务场景中的模型压缩技术实现,对模型进行轻量化压缩,提高训练/推理效率,支持业务降本增效; 3、参与/负责针对英伟达GPU、华为昇腾NPU等不同的计算硬件,制定不同的模型压缩方案并在业务落地。 大模型推理方向: 1、参与/负责研发面向LLM/MLLM等模型的稳定、易用、性能领先的AI推理框架; 2、通过并行计算优化、分布式架构优化、异构调度等多种框架技术,支撑各业务方向持续降本增效; 3、深度参与周边深度学习系统多个子方向的工作,包括但不限于模型管理、推理部署、日志/监控、工作流编排等。 高性能计算方向: 1、参与/负责AI推理/训练框架的底层性能优化工作,包括但不限于高性能算子、通信库开发与优化等工作; 2、参与/负责大模型计算引擎的研发工作,通过多种方式实现训推性能SOTA; 3、参与/负责前沿AI编译加速等技术的探索和业务落地。 大模型服务方向: 1、参与/负责大模型MaaS系统的架构设计、系统研发、产品研发等工作; 2、深入参与面向大模型场景的请求调度、异构资源调度、引擎优化等核心工作,实现万亿级并行推理系统; 3、为内部产品线提供解决方案,协助公司内用户解决大模型应用过程中业务在MaaS上的使用问题。
我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! DirectLLM是小红书内部面向各业务场景建设的大模型API服务产品,通过标准化API接口提供LLM/MLLM等大模型推理服务,致力于为AI应用开发者提供品类丰富、数量众多的模型选择,并通过API接口为其提供开箱即用、能力卓越、成本经济的模型服务,各领域模型的能力均可通过统一的API和SDK来实现被不同业务系统集成。 工作职责: 1、参与/负责大模型推理服务平台(MaaS)的架构设计、系统研发、产品研发等工作; 2、深入参与面向大模型场景的请求调度、异构资源调度、引擎优化等核心工作,实现千亿级Token并行推理平台; 3、为内部产品线提供解决方案,协助公司内用户解决大模型应用过程中业务在平台上的使用问题。
我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 1、负责大模型平台的架构设计和核心功能研发,构建云原生架构,设计高可用、高性能的微服务体系; 2、负责构建面向大模型全流程的DevOps,与下游云原生平台深度融合,支撑大模型在公司内各业务生产链路稳定高效地落地; 3、负责万卡规模GPU集群效能分析及优化,通过调度策略优化、在离线混部、GPU虚拟化、存储&网络加速等手段,提升GPU集群使用效率; 4、将平台和框架结合,通过任务调度、弹性容灾、性能优化等措施端到端提升AI生产效率,涉及k8s/kubeflow、网络通信、分布式训练等; 5、优化各AI平台性能,提升系统稳定性和可扩展性,保障大规模并发场景下的服务质量与用户体验; 6、持续研究分析业内创新AI平台产品,优化技术方案,改进产品功能,提升创新能力与产品体验。