钉钉钉钉-AI Infra架构师-大模型推理优化
任职要求
1. 编程基础扎实: 熟悉 Python、C++或Go,具备优秀的工程能力和代码风格 2. 熟悉深度学习框架: 熟悉至少一种主流深度学习框架(PyTorch, TensorFlow等),了解其模型结构和训练流程。 3. 丰富的推理框架实践经验: 深入理解并具备丰富的主流推理框架实践经验,如 vLLM、SGLang、TensorRT, ONNX Runtime, TVM, OpenVINO 等,有实际…
工作职责
1. 推理引擎应用与优化: 负责AI模型的性能优化与部署,应用业界主流推理框架(如vLLM、SGLang、TensorRT、ONNX Runtime、 TVM、OpenVINO等)对模型进行加速 2. 模型性能深度分析与调优: 针对公司业务场景,对各类AI模型(包括但不限于大语言模型LLM、VL、ASR、TTS等)在不同硬件平台(GPU、PPU、昇腾、海光等)上进行深度性能分析、定位瓶颈并制定优化方案 3. 模型轻量化技术实践: 熟练运用模型量化(PTQ/QAT)、剪枝、蒸馏等技术,在满足业务精度要求的前提下,最大化提升模型推理速度、降低资源消耗 4. 自动化部署与MLOps流程建设: 建立并完善模型部署、监控和迭代的自动化流程(CI/CD、MLOps),确保模型稳定、高效地服务内外部客户 5. 前沿技术跟进与引入: 持续跟进行业前沿的AI推理加速技术,探索并引入新的优化方案、工具及硬件(如LLM推理优化库、新型AI芯片等),持续提升业务模型的部署效率和运行性能
我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 工作职责: 1、参与/负责研发面向大语言模型(LLM)/多模态大模型(MLLM)等类型模型的推理服务框架; 2、参与/负责KV Router、PD分离/EPD分离、KVCache管理、动态PD调整等分布式推理能力建设; 3、通过并行计算优化、分布式架构优化、异构调度等多种框架技术,打造高效、易用、领先的AI推理框架; 4、参与/负责构建推理框架的系统容错能力,包括但不限于请求迁移、优雅退出、故障检测、自愈等能力建设; 5、深度参与周边深度学习系统多个子方向的工作,包括但不限于模型管理、推理部署、日志/监控、工作流编排等; 6、与全公司各业务算法部门深度合作,为重点项目进行算法与系统的联合优化,支撑业务目标达成。
团队介绍:字节跳动豆包大模型团队(Seed)成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限,并探索新的交互。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 豆包大模型团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、负责机器学习系统存储相关组件的设计和开发,服务于大模型推理的各业务场景(LLM/S2S/VLM/多模态等),包括模型分发加载、KV Cache存储和优化,数据IO性能优化,提高推理TTFT、TBT等核心性能指标; 2、负责设计和实现面向大模型推理的多层级存储系统,综合利用显存、本地内存、分布式内存/磁盘、远端大容量存储系统(HDFS/对象存储)等多种介质进行数据的存储和迁移管理,实现「近计算缓存+远端大容量存储」的一体化分级系统; 3、负责优化大模型KV Cache命中率,从推理框架,流量调度,多级缓存等多个系统纬度入手定制化优化策略;优化数据的读取性能,充分利用近计算侧的NVLink、RDMA高速网络、GPU Direct技术实现数据的高效传输;优化数据副本的存放策略,实现负载流量和存储数据的合理化分布; 4、负责设计和实现高效、易用的数据访问接口,实现和推理框架、引擎的无缝对接,管理KV Cache的生命周期; 5、负责Kubernetes场景下多级存储系统的接入、管理、运维、监控,确保稳定性; 6、负责多机房、多地域、多云场景的系统搭建和容灾,优化跨集群的数据摆放。
1、负责云网络AI Infra业务研发,探索推理框架与云网络系统的深度集成,优化大模型推理性能; 2、推动云网络与大模型加速相关生态建设,设计和实施AI Infra中云网络的软硬结合解决方案; 3、持续跟进LLM前沿技术和开源方案,完成业务场景化分析,并落地云网络产品,提升产品竞争力。
团队介绍:字节跳动 Seed 团队成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 Seed 团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、负责字节跳动机器学习平台的开发,支撑公司相关业务的算法生产与高效迭代; 2、设计和实现机器学习相关的基础设施、框架、工具链等,并推动落地到业务中; 3、探索业界前沿的机器学习相关技术,持续提升平台能力、降低算法使用成本。