小红书大模型高性能计算实习生-infra&Redstar
任职要求
任职资格: 1. 掌握Linux环境下的 C/C++、Python、cuda 编程等语言; 2. 具备扎实的计算机科学功底和编程能力,熟悉常见算法和数据结构,具有良好的编程习惯; 3. 能够熟练使用至少一种主流的机器学习框架(TensorFl…
工作职责
工作职责: 1. 参与大模型推理服务的研究与开发,不限于 CUDA 优化、通信优化等技术,努力打造高性能的推理服务平台; 2. 构建 Roofline 性能模型,参与 LLM 系统性能建模,分析模型潜在性能瓶颈;
ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:字节跳动豆包大模型团队(Seed)成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限,并探索新的交互。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 豆包大模型团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、调研各类行业问题在AI-Based和经典方法上的软硬件技术栈,洞察模拟和计算的瓶颈; 2、从异构硬件、机器学习、分布式系统等角度入手,加速不同学科的核心软件及其数值计算库; 3、探索科学计算落地云原生设施的最佳实践,开发弹性资源、高通量编排等算力产品。
日常实习:面向全体在校生,为符合岗位要求的同学提供为期3个月及以上的项目实践机会。 团队介绍:字节跳动豆包大模型团队(Seed)成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限,并探索新的交互。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 豆包大模型团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、调研各类行业问题在AI-Based和经典方法上的软硬件技术栈,洞察模拟和计算的瓶颈; 2、从异构硬件、机器学习、分布式系统等角度入手,加速不同学科的核心软件及其数值计算库; 3、探索科学计算落地云原生设施的最佳实践,开发弹性资源、高通量编排等算力产品。
日常实习:面向全体在校生,为符合岗位要求的同学提供为期3个月及以上的项目实践机会。 团队介绍:字节跳动豆包大模型团队(Seed)成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限,并探索新的交互。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 豆包大模型团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、调研各类行业问题在AI-Based和经典方法上的软硬件技术栈,洞察模拟和计算的瓶颈; 2、从异构硬件、机器学习、分布式系统等角度入手,加速不同学科的核心软件及其数值计算库; 3、探索科学计算落地云原生设施的最佳实践,开发弹性资源、高通量编排等算力产品。
ByteIntern:面向2026届毕业生(2025年9月-2026年8月期间毕业),为符合岗位要求的同学提供转正机会。 团队介绍:字节跳动豆包大模型团队(Seed)成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限,并探索新的交互。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 豆包大模型团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、调研各类行业问题在AI-Based和经典方法上的软硬件技术栈,洞察模拟和计算的瓶颈; 2、从异构硬件、机器学习、分布式系统等角度入手,加速不同学科的核心软件及其数值计算库; 3、探索科学计算落地云原生设施的最佳实践,开发弹性资源、高通量编排等算力产品。