logo of mi

小米训练平台性能优化工程师实习生

实习兼职地点:北京状态:招聘

任职要求


1.精通深度学习训练加速技术,熟悉分布式训练框架设计
2.掌握CUDA编程及GPU性能分析工具(Nsight/Profiler)
3.熟练使用PyTorch框架,具备训练流程优化实战经验
4.熟悉常见模型压缩技术(量化/剪枝/…
登录查看完整任职要求
微信扫码,1秒登录

工作职责


深度优化训练流程
    主导模型训练全链路性能分析与优化,设计GPU资源弹性调度策略
    开发自动化训练加速工具链,构建可扩展的云端训练框架
    研发混合精度训练、梯度压缩等前沿技术,突破训练吞吐瓶颈
构建训练优化体系
    制定标准化训练效能评估体系,建立成本-效率量化模型
    设计可复用的训练加速组件库,沉淀最佳实践方法论
    开发训练过程性能分析平台,实现性能问题智能诊断
赋能业务研发
    优化多任务资源调度策略,提升GPU集群整体利用率
    为算法团队提供训练加速解决方案,缩短模型迭代周期
包括英文材料
深度学习+
CUDA+
还有更多 •••
相关职位

logo of xiaohongshu
实习前端开发

1、参与小红书内部AI平台QuickSilver的前端开发工作,高质量完成前端功能开发和组件建设; 2、与产品、后端、算法紧密合作,完成数据管理、模型管理、模型训练、压缩、推理、部署、资源调度等功能; 3、设计和实现前端交互界面,优化页面性能与交互体验,提升平台的易用性和美观性; 4、参与前端技术预研,关注大模型开发平台产品现状,了解业界领先的产品和交互设计;

更新于 2025-11-04北京
logo of didi
实习技术类

更新于 2025-07-04北京
logo of meituan
实习核心本地商业-业

1. 参与餐流量运营项目的AI算法研发工作,负责模型的设计、实现和优化,包括但不限于模型架构设计、算法实现、性能优化等核心工作。 2. 负责AI算法模型的训练、调优和部署工作,包括特征工程、模型调参等,确保模型在生产环境中的准确性、稳定性和可靠性。 3. 设计并实现模型评测方案,构建科学的评估体系,进行模型效果评估、性能分析和优劣比较,持续提升模型的预测准确率和业务价值。 4. 深入研究AI技术发展趋势,关注算法创新和行业动态,持续优化模型训练流程,探索新算法、新模型,推动技术革新和业务创新。

更新于 2025-08-26北京
logo of aliyun
实习阿里云研究型实习

【我们是谁?】 阿里云智能是阿里巴巴集团的技术基石,致力于以在线公共服务的方式,提供安全、可靠的计算和数据处理能力。我们的团队专注于机器学习系统(MLSys)的前沿研究与工程实践,特别是为“通义”系列大规模语言模型(LLM)的训练、推理提供坚实的系统支撑。在这里,你将有机会参与构建和优化支撑万亿参数级别模型的超级工程,直接影响亿万用户的AI体验。 【为什么这个机会不容错过?——来自工业界的真实挑战与机遇】 大规模语言模型的研发是一项复杂的端到端系统工程。从海量数据的高效处理、万卡集群的分布式训练、精细化的后训练调优,到低延迟高吞吐的推理服务和云上弹性部署,每一个环节都充满了挑战,也孕育着巨大的创新机会。我们认为,虽然算法创新是驱动力,但在LLM的整个生命周期中,系统扮演着至关重要的角色。 以下是我们正在“通义”大模型及相关场景下积极探索并期待与你共同攻克的挑战: 1.超大规模预训练系统优化:追求极致效率与稳定性 ·系统行为的深度洞察:在万卡集群并行训练的极致规模下,如何设计高效、低侵扰的追踪系统(Tracing System)以精准理解系统真实运行状态,本身就是一个难题。例如,仅网络层追踪就面临数据量爆炸性增长的挑战,如何在海量数据中高效提取关键信息,指导性能优化。 ·并行策略的自动化与智能化:随着模型结构的快速迭代,如何针对新型架构自动设计并调整最优的并行策略(张量并行、流水线并行、数据并行、序列并行及其混合),在复杂的内存、计算、通信约束下取得最佳平衡,减少人工调优的巨大成本。 ·大规模集群的韧性与容错:尽管我们拥有先进的异步、跨多级存储的Checkpointing机制,但GPU集群的故障(硬件、软件、网络等)仍会导致训练中断和时间浪费。如何进一步提升系统的容错恢复能力,最大限度减少故障影响,保障训练任务的连续性和效率。 2.后训练(RLHF等)中的算法-系统协同设计:提升“智能”的性价比 ·复杂工作流的高效资源调度:后训练阶段(如RLHF)涉及采样、训练、评估等多个计算特点各异的任务。如何设计智能调度系统,自动、高效地为这些任务分配和管理计算、存储、网络资源,以最小化总体资源消耗,或最大化单位资源投入下模型效果的提升“斜率”。 ·算法与系统协同进化:后训练的算法仍在快速演进,如何设计灵活、可扩展的系统架构,以适应算法的不断变化,并反过来通过系统创新启发新的算法可能性。 3.云原生推理服务:敏捷、高效、经济地赋能万千应用 ·多样化业务负载与SLA保障:云上推理业务场景丰富,客户对吞吐量、延迟、成本等有着不同的服务等级协议(SLA)要求。如何设计统一而灵活的推理服务系统,满足从离线批量推理到在线实时服务的各种需求。 ·推理优化技术的敏捷集成与工程化:学术界和开源社区的推理优化技术(如量化、剪枝、FlashAttention、PagedAttention、投机采样、模型编译等)日新月异。如何构建一套敏捷的工程体系,快速评估、吸收、融合这些前沿技术,并将其稳定部署到在线服务中,持续提升推理效率。 ·极致的资源弹性与成本效益:在云环境中,如何通过精细化的资源调度、高效的多租户管理以及智能的流量预测,应对业务负载的剧烈波动,最大限度地减少空闲资源浪费,为用户提供最具成本效益的LLM服务。

更新于 2025-06-03杭州|上海