快手大模型存储工程师/专家
任职要求
1、本科及以上学历,计算机相关专业,存储领域 3 年以上工作经验; 2、熟练掌握 Java/Go 至少一种,具备优秀的编码能力,对工程质量有很高的自我要求; 3、熟悉 Fuse 用户态文件系统、分布式缓存系统(如 Alluxio/JuiceFS/GooseFS/JindoFS)等; 4、有强烈的责任心,较好的学习能力、沟通能力和自驱力,能够快速的响应和行动; 5、有优秀的逻辑分析能力,能够对业务逻辑进行合理的抽象与拆分。 具有以下条件者优先: 1、熟悉主流的机器学习框架/推理引擎(如 vLLM/PyTorch); 2、有大模型推理相关的技术落地经验(如 KVCache 相关优化)。
工作职责
团队介绍: 7 亿快手用户每天都在生产百 PB 级的数据,需要被长期地记录下来,这些数据包括媒体数据、用户及业务的画像与行为数据、大模型的样本与训练数据等,这些都属于快手的高价值数字资产。存储团队的职责,就是以极高的性价比为快手和用户保障数据的稳固。 随着 AGI 时代的临近,存储的边界也在被重新定义,目前我们正处于存储发展的关键时期,这是一个充满技术挑战与行业影响力的机会,如果你对分布式存储系统、分布式缓存系统或性能优化充满热情,欢迎加入我们,一起应对高复杂业务场景,驱动技术发展,创造行业价值。 1、负责存储相关组件的设计与开发,服务于大模型训练及推理场景,包括模型分发、KV Cache、并行 IO 优化等,提高核心性能指标; 2、负责设计和实现面向海量数据的分布式缓存,综合利用本地内存、本地 SSD 以及远端存储系统(对象存储/HDFS)等进行数据的存储和迁移管理,实现「近计算端缓存+远端大容量存储」的一体化分级系统; 3、负责设计和实现高效、易用的数据访问接口,实现和推理框架、引擎的无缝对接; 4、负责存储与缓存的接入、管理、运维、监控,确保稳定性。
团队介绍:字节跳动豆包大模型团队(Seed)成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限,并探索新的交互。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 豆包大模型团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、负责机器学习系统存储相关组件的设计和开发,服务于大模型推理的各业务场景(LLM/S2S/VLM/多模态等),包括模型分发加载、KV Cache存储和优化,数据IO性能优化,提高推理TTFT、TBT等核心性能指标; 2、负责设计和实现面向大模型推理的多层级存储系统,综合利用显存、本地内存、分布式内存/磁盘、远端大容量存储系统(HDFS/对象存储)等多种介质进行数据的存储和迁移管理,实现「近计算缓存+远端大容量存储」的一体化分级系统; 3、负责优化大模型KV Cache命中率,从推理框架,流量调度,多级缓存等多个系统纬度入手定制化优化策略;优化数据的读取性能,充分利用近计算侧的NVLink、RDMA高速网络、GPU Direct技术实现数据的高效传输;优化数据副本的存放策略,实现负载流量和存储数据的合理化分布; 4、负责设计和实现高效、易用的数据访问接口,实现和推理框架、引擎的无缝对接,管理KV Cache的生命周期; 5、负责Kubernetes场景下多级存储系统的接入、管理、运维、监控,确保稳定性; 6、负责多机房、多地域、多云场景的系统搭建和容灾,优化跨集群的数据摆放。
团队介绍:字节跳动豆包大模型团队成立于 2023 年,致力于开发业界最先进的 AI 大模型技术,成为世界一流的研究团队,为科技和社会发展作出贡献。 豆包大模型团队在AI领域拥有长期愿景与决心,研究方向涵盖NLP、CV、语音等,在中国、新加坡、美国等地设有实验室和研究岗位。团队依托平台充足的数据、计算等资源,在相关领域持续投入,已推出自研通用大模型,提供多模态能力,下游支持豆包、扣子、即梦等50+业务,并通过火山引擎开放给企业客户。目前,豆包APP已成为中国市场用户量最大的AIGC应用。 1、负责机器学习系统存储相关组件的设计和开发,服务于各方向场景(LLM/CV/Speech等)的数据加载模块和模型状态持久化,从而优化任务IO性能,提升有效训练时间; 2、负责设计和实现面向机器学习场景的文件系统,使用内存、SSD、HDD以及云端对象存储等介质进行数据的持久化存储和管理,均衡的优化存储性能与成本; 3、负责Kubernetes场景下各类存储系统的接入、管理、治理、监控; 4、负责多机房、多地域、多云场景的在任务数据联合调度,优化跨区域数据传输,实现负载的合理化分布。
团队介绍:字节跳动豆包大模型团队成立于 2023 年,致力于开发业界最先进的 AI 大模型技术,成为世界一流的研究团队,为科技和社会发展作出贡献。 豆包大模型团队在AI领域拥有长期愿景与决心,研究方向涵盖NLP、CV、语音等,在中国、新加坡、美国等地设有实验室和研究岗位。团队依托平台充足的数据、计算等资源,在相关领域持续投入,已推出自研通用大模型,提供多模态能力,下游支持豆包、扣子、即梦等50+业务,并通过火山引擎开放给企业客户。目前,豆包APP已成为中国市场用户量最大的AIGC应用。 1、负责机器学习系统存储相关组件的设计和开发,服务于各方向场景(LLM/CV/Speech等)的数据加载模块和模型状态持久化,从而优化任务IO性能,提升有效训练时间; 2、负责设计和实现面向机器学习场景的文件系统,使用内存、SSD、HDD以及云端对象存储等介质进行数据的持久化存储和管理,均衡的优化存储性能与成本; 3、负责Kubernetes场景下各类存储系统的接入、管理、治理、监控; 4、负责多机房、多地域、多云场景的在任务数据联合调度,优化跨区域数据传输,实现负载的合理化分布。
团队介绍:字节跳动豆包大模型团队成立于 2023 年,致力于开发业界最先进的 AI 大模型技术,成为世界一流的研究团队,为科技和社会发展作出贡献。 豆包大模型团队在AI领域拥有长期愿景与决心,研究方向涵盖NLP、CV、语音等,在中国、新加坡、美国等地设有实验室和研究岗位。团队依托平台充足的数据、计算等资源,在相关领域持续投入,已推出自研通用大模型,提供多模态能力,下游支持豆包、扣子、即梦等50+业务,并通过火山引擎开放给企业客户。目前,豆包APP已成为中国市场用户量最大的AIGC应用。 1、负责机器学习系统存储相关组件的设计和开发,服务于各方向场景(LLM/CV/Speech等)的数据加载模块和模型状态持久化,从而优化任务IO性能,提升有效训练时间; 2、负责设计和实现面向机器学习场景的文件系统,使用内存、SSD、HDD以及云端对象存储等介质进行数据的持久化存储和管理,均衡的优化存储性能与成本; 3、负责Kubernetes场景下各类存储系统的接入、管理、治理、监控; 4、负责多机房、多地域、多云场景的在任务数据联合调度,优化跨区域数据传输,实现负载的合理化分布。