logo of tongyi

通义通义实验室-多模态模型引擎专家-通义百聆

社招全职3年以上技术类-开发地点:北京 | 杭州状态:招聘

任职要求


1. 计算机科学、人工智能、软件工程或相关领域硕士及以上学历。 至少5年的AI平台开发经验。
2. 熟悉多种机器学习框架和工具(如 TensorFlowPyTorch、Hugging Face等),具备扎实的编程能力,精通 PythonJavaC++ 或其他相关编程语言。 
3. 熟悉引擎推理技术,熟悉 PyTorchvLLM等相关的训练与推理工具,有CPU、GPU性能调优、定点量化等经验者优先。
4. 良好的沟通能力,能够有效地与团队成员和跨部门合作伙伴协作。

工作职责


通义实验室语音工程团队主要负责通义系列模型在语音及其他更广泛的多模态交互、理解场景下的优化、落地和应用。我们在阿里云上提供业界领先、开箱即用的模型服务API,支持全世界的开发者,以及阿里集团内如钉钉、淘天、夸克等30+业务线。我们同时也在和算法科学家们共同探索最前沿模型的能力边界,构建以多模态大模型为核心的新产品,向外展示通义的技术先进性和影响力。

1. 探索多模态理解与生成大模型的技术边界,支持多模态模型的功能迭代和推理性能优化。
2. 构建极致性能的实时流式输入/输出系统,提供百毫秒级别的端到端延迟体验。
3. 建设超低延迟、高可用、可扩展的分布式模型服务系统,通过提升模型吞吐和并发,提供最普惠的AI模型服务。
4. 分析和解决复杂的软硬件技术问题,跟踪行业最新的多模态大模型和应用开发工具和技术,将最佳实践和创新集成到平台中。
包括英文材料
学历+
机器学习+
TensorFlow+
PyTorch+
Python+
Java+
C+++
vLLM+
性能调优+
相关职位

logo of tongyi
社招3年以上技术类-开发

1、多模态模型的推理功能开发和性能优化,包括对Qwen-VL、Qwen-Audio、Qwen-Omni等多模态输入/输出模型的功能支持和推理性能优化; 2、分布式推理架构的研发,包括多机推理架构设计,P/D分离、A/F分离、VL模型分离架构的落地; 3、KVCache服务的研发和落地,包括KVCache的存储和传输、与推理引擎、存储等系统的集成,以及端到端的性能优化; 4、推理引擎服务化,包括推理引擎如何接入线上服务平台,自动扩缩容和可观测性的适配,以及提升线上服务稳定性。

更新于 2025-08-14
logo of tongyi
社招3年以上技术类-开发

1、设计并实现高性能AI原生网关。构建低延迟、高并发的API网关系统,支持多模态、多协议接入,为国内及全球客户提供灵活、安全、可扩展的流量接入方案,提供完整的数据面控制与可观测能力; 2、打造智能推理调度与资源管理系统。设计并实现面向复杂分布式推理场景的请求调度和资源调度系统,结合动态负载特征与异构硬件资源,持续优化请求分发策略;建设Serverless化资源调度架构,实现资源的弹性伸缩与极致利用率提升; 3、构建先进的MLOps平台能力。深度优化模型服务的CI/CD流程,推动算法研发到生产部署的自动化与标准化;实现模型版本管理、灰度发布、监控告警、性能分析等全生命周期管理能力,提升迭代效率与系统稳定性。

更新于 2025-09-15
logo of tongyi
校招通义2026届秋

我们正在寻找业界顶尖的系统专家,加入我们的AI基础架构团队,共同设计和构建下一代生成式AI的“在线服务操作系统”。您的使命是解决将前沿AI能力(大模型、AI Agent、多模态等)转化为大规模、高效率、高可用在线服务时所面临的系统性、全栈性挑战。您将负责端到端的服务性能与架构演进,从顶层应用到底层硬件,全面提升AI服务的竞争力。 具体职责包括(若你对以下一个或者多个方向感兴趣均欢迎投递): 1. 大规模模型服务平台与智能调度系统设计: (1)负责承载大规模在线模型服务(Serving)平台的核心架构设计与演进,通过对底层推理引擎(如PAI平台提供)的深度适配与协同优化,实现极致的推理吞吐与资源利用率。 (2)设计并实现面向复杂混合负载(长/短序列长度、多Lora、多模型、异构资源、多租户、高/低优先级)的上层智能请求调度与资源管理系统,通过与推理引擎的深度协同,动态调整调度策略,保障服务质量(SLA)并最大化云上服务的性价比。 2. 分布式基础设施与底层硬件优化: (1)负责面向大规模模型服务的分布式推理拓扑管理与通信计算协同优化,针对张量并行、流水线并行等场景,优化跨节点通信(InfiniBand/RoCE, NVLink),降低端到端延迟。 (2)深入理解GPU、NPU等异构硬件架构与特性,负责从服务层面对底层计算、编译优化(由PAI等引擎团队提供)进行性能评测、分析与反馈,驱动端到端的硬件效能提升。 3. AI应用层运行时与算法协同优化: (1)深入AI Agent、检索增强生成(RAG)、多模态理解等复杂应用场景,设计并优化其专用的高效运行时(Runtime),解决长链条、多依赖、异步任务流的性能瓶颈。 (2)负责高性能向量检索(Vector Search)与图计算(Graph Computing)引擎的服务化与集成,优化其在RAG和复杂推理场景下的数据访问与计算效率,实现数据层与模型层的无缝高效协同。

更新于 2025-08-07
logo of alibaba
实习阿里国际2026

关于我们: AI Business 成立于2023年4月,是阿里国际数字商业集团设立的一层业务组织,专注于大模型技术能力建设和 AI 原生应用和产品的打造,旨在用最先进的 AI 技术重塑平台竞争力,为商家和用户带来极致电商体验。 作为跨境电商领域的 AI 先锋,我们坚定地相信人工智能对塑造未来电商的关键作用,并坚持对 AI 领域人才的培养和发展。我们已经汇聚了业内顶尖的 AI 算法专家、AI 工程师和AI产品团队,并诚挚邀请有共同使命感、追求创新与卓越的 AI 人才加入我们的团队,共同用AI技术书写数字商业领域的新篇章。 职位描述: 1、负责多语言大语言模型(LLM)的预训练、微调及优化,探索高效训练策略(如低资源语种能力迁移、任务调度优化等),提升模型性能与跨文化场景适应性; 2、构建多模态大模型技术体系,包括图文生成、视频内容生成、多模态检索与信息抽取,支持商品虚拟试穿、智能客服等业务场景。 3、推动大模型与业务深度融合,开发基于LLM的对话系统、Agent产品及RAG系统,优化电商文本生成、跨语言信息匹配、时间序列预测等场景的智能决策能力; 4、设计强化学习对齐算法(如RLHF/DPO),提升模型在垂直领域(如商品推荐、用户交互)的精准度与可控性。 4、实现大模型的高效推理部署,包括模型压缩量化、GPU并行计算优化(如CUDA加速),确保高并发场景下的服务稳定性; 5、探索生成式AI与电商场景结合的前沿技术(如AIGC内容生成、多模态商品检索),推动技术规模化落地。

更新于 2025-03-21