logo of kuaishou

快手大模型推理/训练优化工程师

校招全职J1020地点:杭州 | 深圳 | 北京状态:招聘

任职要求


1、硕士及以上学历,计算机、电子、自动化等专业优先;
2、熟悉python/C++,熟悉linux使用,有扎实的算法数据结构基础;
3、有较强的自驱力和学习力,有严谨的科研思维,沟通良好擅长与人合作;
4、了解AI infra 整体技术栈,有大模型相关训练或推理优化实战经验;有vLLMTensorRT-LLM、MLC-LLMTensorflowPyTorch等框架之一的实践经验。

加分项:
1、熟悉CUDA 或 ROCM,熟悉Nsight System/ Nsight Compute 工具的使用,有 GPU 或 ASIC 高性能算子开发经验;
2、熟悉深度学习编译优化或异构硬件,有 XLA/ TVM /MLIR 开发、优化经验,熟悉pass编写或代码生成原理和实践;或有传统编译器开发经验,熟悉LLVM原理和使用;
3、有相关领域顶会paper发表;
4、有二次开发能力或开源社区贡献经历。

工作职责


1、参与大模型推理/训练优化。通过研发业界领先的AI Compiler 技术,支撑搜推场景在GPU上的训练计算性能优化;支持大模型推理优化技术在异构硬件上的落地;
2、参与各种大模型推理所需的功能性开发任务;相关编译优化功能开发,以图优化、算子融合、GPU高性能算子开发及自动Codegen等技术手段不断推高在不同卡型上的计算性能极限;
3、参与支持日常的大模型推理服务部署,参与内部日常提效工具的研发。
包括英文材料
学历+
Python+
C+++
Linux+
算法+
数据结构+
大模型+
vLLM+
TensorRT+
TensorFlow+
PyTorch+
CUDA+
Nsight+
深度学习+
LLVM+
相关职位

logo of bytedance
社招1年以上A221377

团队介绍:字节跳动豆包大模型团队成立于 2023 年,致力于开发业界最先进的 AI 大模型技术,成为世界一流的研究团队,为科技和社会发展作出贡献。 豆包大模型团队在AI领域拥有长期愿景与决心,研究方向涵盖NLP、CV、语音等,在中国、新加坡、美国等地设有实验室和研究岗位。团队依托平台充足的数据、计算等资源,在相关领域持续投入,已推出自研通用大模型,提供多模态能力,下游支持豆包、扣子、即梦等50+业务,并通过火山引擎开放给企业客户。目前,豆包APP已成为中国市场用户量最大的AIGC应用。 1、负责开发和优化公司级的AIGC推理框架,通过编译优化、并行计算优化、图融合、高效 CUDA 算子开发、低精度计算、高并发服务请求优化等高性能优化技术打造业界领先的 AIGC 推理引擎; 2、负责 AIGC训练优化算法研究和落地,通过数据并行、模型并行、Pipeline并行、通信优化等基于 CUDA 的分布式训练框架大幅提升模型的训练速度与效率; 3、与公司各算法部门深度合作,分析业务性能瓶颈,通过软硬结合的方式,高效部署与优化AIGC核心业务模型,落地到字节各产品线,投入AI工具链开发及技术生态的建设,支撑字节AI方向重要业务的发展;

更新于 2024-05-20
logo of kuaishou
社招J1020

1、参与大模型推理/训练优化。通过研发业界领先的AI Compiler 技术,支撑搜推场景在GPU上的训练计算性能优化;支持大模型推理优化技术在异构硬件上的落地; 2、参与各种大模型推理所需的功能性开发任务;相关编译优化功能开发,以图优化、算子融合、GPU高性能算子开发及自动Codegen等技术手段不断推高在不同卡型上的计算性能极限; 3、参与支持日常的大模型推理服务部署,参与内部日常提效工具的研发。

更新于 2025-05-26
logo of kuaishou
校招J1020

1、参与大模型推理/训练优化。通过研发业界领先的AI Compiler 技术,支撑搜推场景在GPU上的训练计算性能优化;支持大模型推理优化技术在异构硬件上的落地; 2、参与各种大模型推理所需的功能性开发任务;相关编译优化功能开发,以图优化、算子融合、GPU高性能算子开发及自动Codegen等技术手段不断推高在不同卡型上的计算性能极限; 3、参与支持日常的大模型推理服务部署,参与内部日常提效工具的研发。

更新于 2025-07-22
logo of kuaishou
实习J1020

1、参与大模型推理/训练优化。通过研发业界领先的AI Compiler 技术,支撑搜推场景在GPU上的训练计算性能优化;支持大模型推理优化技术在异构硬件上的落地; 2、参与各种大模型推理所需的功能性开发任务;相关编译优化功能开发,以图优化、算子融合、GPU高性能算子开发及自动Codegen等技术手段不断推高在不同卡型上的计算性能极限; 3、参与支持日常的大模型推理服务部署,参与内部日常提效工具的研发。

更新于 2025-06-04