logo of bytedance

字节跳动大模型推理调度编排工程师/专家-Seed

社招全职A49953A地点:北京状态:招聘

任职要求


1、熟练掌握Linux环境下的C++/Go/Python/Shell等1至2种以上语言;
2、熟悉Kubernetes架构和生态,熟悉Docker/Containerd/Kata/Podman等容器技术,有丰富的机器学习系统实践和开发经验;
3、掌握分布式系统原理,参与过大规模分布式系统的设计、开发和维护;
4、有优秀的逻辑分析能力,能够对业务逻辑进行合理的抽象和拆分;
5、有强烈的工作责任心,较好的学习能力、沟通能力和自驱力,能够快速的响应和行动;
6、有良好的工作文档习惯,及时按要求撰写更新工作流程及技术文档。

加分项:
1、熟悉至少一种主流的机器学习框架/推理引擎(例如vLLM/SGLang/PyTorch);
2、有大模型资源调度/服务编排的落地经验;
3、熟悉了解GPU系统/体系结构;
4、在计算机系统顶会(包括但不限于OSDI/NSDI/SOSP/FAST/Eurosys)上有文章发表经验。

工作职责


团队介绍:字节跳动豆包大模型团队(Seed)成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限,并探索新的交互。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 
豆包大模型团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。

1、负责海量大模型异构资源的调度编排、算力池化、弹性资源混布、潮汐资源拆借和Quota管理;
2、负责大模型推理服务的多角色、多阶段、PD分图/EP调度,KVCache centric调度,实现动态、及时、准确的扩缩容管理;
3、负责通过技术手段实现计算资源、RDMA高速网络资源、缓存/存储资源的最优编排,充分发挥大规模分布式集群算力;
4、负责大模型服务的稳定性,通过线上和线下的多系统联动,实现在多种异构资源(GPU、CPU、其他异构硬件)、多云环境、多种网络流量场景的问题定位、诊断、隔离和快速恢复;
5、负责多机房、多地域、多云场景的在离线任务/服务调度,实现负载的合理化分布。
包括英文材料
Linux+
C+++
Go+
Python+
Bash+
Kubernetes+
Docker+
Podman+
机器学习+
分布式系统+
推理引擎+
vLLM+
PyTorch+
大模型+
相关职位

logo of bytedance
社招A258048

团队介绍:字节跳动豆包大模型团队(Seed)成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限,并探索新的交互。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 豆包大模型团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、负责海量大模型异构资源的调度编排、算力池化、弹性资源混布、潮汐资源拆借和Quota管理; 2、负责大模型推理服务的多角色、多阶段、PD分图/EP调度,KVCache centric调度,实现动态、及时、准确的扩缩容管理; 3、负责通过技术手段实现计算资源、RDMA高速网络资源、缓存/存储资源的最优编排,充分发挥大规模分布式集群算力; 4、负责大模型服务的稳定性,通过线上和线下的多系统联动,实现在多种异构资源(GPU、CPU、其他异构硬件)、多云环境、多种网络流量场景的问题定位、诊断、隔离和快速恢复; 5、负责多机房、多地域、多云场景的在离线任务/服务调度,实现负载的合理化分布。

更新于 2024-12-25
logo of bytedance
社招A62820

团队介绍:字节跳动豆包大模型团队(Seed)成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限,并探索新的交互。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 豆包大模型团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、负责海量大模型异构资源的调度编排、算力池化、弹性资源混布、潮汐资源拆借和Quota管理; 2、负责大模型推理服务的多角色、多阶段、PD分图/EP调度,KVCache centric调度,实现动态、及时、准确的扩缩容管理; 3、负责通过技术手段实现计算资源、RDMA高速网络资源、缓存/存储资源的最优编排,充分发挥大规模分布式集群算力; 4、负责大模型服务的稳定性,通过线上和线下的多系统联动,实现在多种异构资源(GPU、CPU、其他异构硬件)、多云环境、多种网络流量场景的问题定位、诊断、隔离和快速恢复; 5、负责多机房、多地域、多云场景的在离线任务/服务调度,实现负载的合理化分布。

更新于 2024-12-25
logo of bytedance
社招A16273

团队介绍:字节跳动豆包大模型团队(Seed)成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限,并探索新的交互。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 豆包大模型团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、负责机器学习系统资源调度的设计和开发,服务于各方向场景(NLP/CV/Speech等)的模型训练、模型评估和模型推理; 2、负责多种异构资源(GPU、CPU、其他异构硬件)的最优化编排,实现稳定资源、潮汐资源、混布资源、多云资源的合理化使用; 3、负责通过技术手段实现计算资源、RDMA高速网络资源、存储资源的最优调度,充分发挥大规模分布式集群的计算能力; 4、负责多机房、多地域、多云场景的在离线任务/服务调度,实现全球负载的合理化分布。

更新于 2024-05-08
logo of bytedance
社招A37812

团队介绍:字节跳动豆包大模型团队(Seed)成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限,并探索新的交互。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 豆包大模型团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、以自研推理引擎为中心的在线推理服务和近离线批式推理任务框架,负责超大规模机器学习系统架构的设计开发,解决系统高并发、高可靠性、高可扩展性等技术难关,为搜索、推荐、审核等业务提供深度模型推理全场景端到端解决方案; 2、针对PyTorch、TensorFlow等框架提供高自动化、极致性能的模型优化方案,技术方案不限于子图匹配、编译优化、模型量化、异构硬件等; 3、面向全球多地域超大规模GPU算力集群,通过弹性调度、GPU超卖、任务编排等方式不断提升算力利用率; 4、与算法部门深度合作,进行算法与系统的联合优化。

更新于 2024-05-08