阿里云研究型实习生 - 超大模型下游任务迁移技术在泛内容安全以及智能体安全方向的应用研究
任职要求
1、硕士及以上学历,博士优先; 2、扎实的工程能力,有Python/C++开发经验,具备系统设计开发调试能力; 3、优良的沟通能力、团队合作意识和经验; 4、具备快速学习的能力,并能够持续深入钻研技术问题; 5、熟悉计算机体系结构基础知识,深度学习算…
工作职责
专注超大模型下游任务迁移技术的研究、探索和开发,具体职责包括: 1、深入研究超大模型精调算法与优化适配技术,研究基于任务特性的模型精调策略; 2、研究分析现有AI模型的精调算法与流程在跨领域任务迁移场景中的通用性问题,设计并实现可落地的技术; 3、结合阿里云PAI平台,通过精调多维度安全专家模型,提供可靠高效的领域安全检测服务,支持客户安全可靠地快速落地业务;
随着模型尺寸和数据规模的持续扩大,预训练任务已成为AI研究和发展中最为资源密集的环节之一。本项目旨在深入的理解预训练任务的workload特点,定位性能瓶颈,并进行优化从而降低预训练任务的成本开销。例如从显存,通信,计算优化等方面优化MoE大规模训练任务的吞吐,支持包括通义实验室等领域方向。
专注于超大规模分布式LLM推理系统的研究、探索和开发,具体职责包括: 1、探索高性能的、可扩展的分布式LLM推理引擎,支持超大规模LLM的高效部署; 2、深入优化高性能算子、运行时、分布式策略等,打造业界领先的LLM推理引擎; 3、分析现有引擎和典型负载的性能瓶颈,提出并实现创新的优化技术; 4、结合阿里云PAI平台产品服务,提供可靠高效的引擎技术方案,支持客户加速模型推理; 5、针对LLM重点场景构建业界领先的优化解决方案。
我们正在寻找对大模型系统优化充满热情的优秀在读学生,参与大模型后训练阶段(Post-Training)关键系统与架构的前沿研究。你将深度参与千亿级大模型在强化学习训练、推理效率、训推分离架构、智能体(Agent)系统等方面的系统级优化工作,探索高MFU、低延迟、高吞吐的下一代AI基础设施。 如果你热爱系统与AI的交叉领域,希望在真实超大规模场景中打磨技术,欢迎加入我们,与顶尖研究者和工程师共同推动大模型系统的技术边界! 研究方向与实习内容: 你将从以下四个核心方向中选择1-2个深入参与,开展系统性研究与工程实现: 1. 后训练 MFU(Model FLOPs Utilization)优化 研究SFT、RLHF、DPO等后训练任务中的计算效率瓶颈; 设计高MFU的训练策略与系统支持,优化计算密度(如序列填充、混合批次、梯度累积等); 探索算力利用率提升路径,结合通信、显存、计算进行端到端建模与优化。 2. 强化学习推理框架优化 针对RLHF中大量采样推理的需求,优化推理延迟与吞吐(如Speculative Decoding、KV Cache复用、动态批处理); 设计轻量、高效的推理引擎,支持多轮对话、长上下文、流式生成等复杂场景; 探索训练-采样协同优化,降低推理端对训练整体效率的制约。 3. 强化学习训推分离架构优化 构建解耦的“训练-采样”系统架构,支持高并发采样与异步训练更新; 研究采样集群与训练集群之间的资源调度、数据同步与负载均衡机制; 实现弹性扩缩容、故障恢复、版本管理等系统能力,提升整体稳定性与可扩展性。 4. Agent 框架优化与系统支撑 研究面向复杂任务的Agent执行框架,优化工具调用、状态管理、多步规划的系统性能; 构建低延迟、高并发的Agent运行时环境,支持大规模仿真与自动评估; 探索Agent工作流的可复现性、可观测性与调试支持,提升研发效率。
超大规模图计算在大数据场景中发挥着越来越重要的作用。图计算的经典问题如可达性、社区检测、链路预测和模式匹配等已经在搜索推荐、金融风控等场景的实践中被验证效果显著;同时,图计算也越来越作为下一代机器学习和推荐系统的基础,成为GNN/GCN端到端解决方案的重要一环。然而,图计算在大规模应用的过程中,还有很多未决问题。如何复用已有的诸多图算法来处理超大规模图数据?如何兼顾超大规模环境下图计算的性能和用户易用性?图计算如何与TensorFlow/pyTorch等机器学习平台共同工作来完成一个端到端分析型计算?这一系列问题都十分具有挑战。 本项目包含以下研究方向: - 针对现有超大规模图计算系统中存在的海量规模计算和需要持久化存储的问题,需要设计和实现高效的存储结构和缓存机制; - 针对现有一站式图系统中存在的多范式计算问题,需要在新设计的高效存储结构中均衡在TP和AP场景下的性能表现; - 针对现实场景中图数据的高频动态变化,新设计的高效存储和缓存需要满足动态图变化的需求,并让系统具有优秀的弹性性能。