logo of mi

小米顶尖应届-软硬件协同开发工程师(AI)-芯片

校招全职地点:上海状态:招聘

任职要求


1. 具备电子工程、计算机体系结构、集成电路设计、人工智能芯片等相关专业博士学位;
2. 有扎实的计算机体系结构、数字电路与SoC设计基础,具备端侧AI芯片或NPU相关研究背景者优先;
3. 具备良好的科研背景与工程实践能力,有国际一流会议或期刊论文发表者优先(如ISCA、HPCA、MICRO、DAC等);
4. 能将AI模型映射到硬件架构中,有模型压缩、量化、算子优化经验者优先。

工作职责


1、创新应用和模型结构分析和建模:对新MoE模型,Transformer优化模型,非Transformer模型,语音模型,视觉模型进行计算特征,访存特征,通信特征分析建模;
2、推理系统优化技术:基于应用特征,自顶向下分析推理软件栈可优化手段,从推理调度,KV Cache管理,推理引擎,算子,并行切进行协同优化;
3、模型压缩:探索低精度损失的低比特量化(如INT4/INT2量化)或稀疏化等算法,缓解大模型推理计算与内存开销;
4、长序列优化:通过序列压缩、序列并行等算法,在有限的部署资源上(如单机)实现1M甚至10M长序列高效推理;
5、提供高性能轻量级AI推理引擎:分析当前CPU执行AI推理的性能瓶颈,通过先进AI算法技术(比如Sparsicity等)和编译优化技术(auto-tiling等),结合BW芯片众核、大带宽、高矢量的架构特征,挑战性能天花板,推动AI4Compiler技术切实落地。

【课题名称】
大模型负载分析和推理系统优化。
【课题内容】
结合端侧设备的功耗、面积和实时性限制,探索自动优化方法研究,沉淀算子、模型及应用级优化方法,识别加速最优解决方案,并能够实施自动化化优化技术研究&应用。实现计算过程中的高效协同,发挥各类计算单元的有效算力;在算力墙、内存墙、通信墙等各维度平衡取舍发挥系统综合最优性能。
包括英文材料
学历+
SOC+
相关职位

logo of mi
校招

1.参与SoC智能调度引擎开发,突破多核异构SoC能效瓶颈,实现设备续航提升20%-30%+; 2.研发基于AI预测模型的动态调度框架,完成CPU/NPU/GPU/DSP混合计算单元毫秒级资源切换与三维能效评估; 3.设计指令级功耗建模工具与自适应DVFS算法,提升典型用户场景10%+的能效提升; 4.深度协同澎湃芯片及小米全栈技术生态,覆盖手机/汽车/机器人等亿级设备,技术成果直通国际顶会转化通道。 【课题名称】 端侧高效整机性能&能效优化技术研究 【课题内容】 小米玄戒芯片能效优化与智能调度体系研究课题背景: 面对手机/汽车/机器人等多场景的极端能效需求,玄戒SoC芯片需突破多核异构的能效瓶颈,通过智能调度引擎与AI驱动的功耗建模技术,构建"芯片+系统+生态"的三维能效优化体系。结合澎湃系列芯片低功耗研发经验(硬件利润率≤5%原则)及AI实验室全栈技术积累,实现续航提升20%-30%+的行业领先能效比,技术成果直通国际顶会转化通道。 挑战: 1. SoC异构计算单元智能调度引擎开发 - 构建基于AI预测模型的动态调度框架,实现CPU/NPU/GPU/DSP混合计算单元的毫秒级资源切换与负载均衡。 - 设计多目标优化算法,在典型用户场景(如多模态交互、自动驾驶感知)中达成计算资源利用率与能效比的协同提升。 2. 指令级功耗建模与自适应能效调控 - 开发面向玄戒O1架构特征的指令级功耗建模工具链,建立微架构-指令-场景的三维能效评估体系。 - 研发自适应DVFS算法与异构缓存协同机制,确保在影像处理、边缘推理等典型场景下实现10%+能效增益。 3. 全栈技术生态协同优化 - 深度整合澎湃芯片家族(C1/G1/S1)的异构调度能力,构建覆盖MIUI系统、车载OS、机器人OS的统一能效优化方案。 - 设计可扩展的调度框架,支持手机/汽车/机器人等设备的差异化能效需求,推动技术方案在IEEE/ACM等顶会的成果转化。

更新于 2025-07-23
logo of mi
校招

概括 想象一下您在这里能做什么! 在小米,新想法可以很快变成非凡的产品、服务和客户体验。 对工作充满真诚热爱,您将取得的成就前所未有。 充满活力、勤奋的员工和鼓舞人心的创新技术是这里的常态。 在这里工作的人通过小米的硬件和软件产品影响整个行业。 加入我们,帮助推出下一个突破性的小米产品。 本团队正在开展小米AI领域的硬件/软件协同设计创新,以实现高效AI推理 我们正在寻找一位积极主动的研究工程师加入我们的团队,他/她应具有强大的AI系统背景和软件开发实践经验。 该职位的理想人选是一位研究人员和工程师,他/她将不断突破现有界限,并以影响小米内部外部合作伙伴和更广泛的研究社区来实现设想。 描述 1. 构造与竞争对手的量化比较的测试模型和制定合理合理的KPI; 2. 量化度量AI算法流程中的负载、瓶颈点,并且可视化的呈现结果; 3. 研究和开发 关键业务的AI算法、推理速度优化方法,实现高效的端侧AI,包括但不限于 Vision、NLP、OCR、LLM; 4. 与算法开发团队、AI芯片团队合作,将工作成果产品化; 5. 逐步优化改进最终实现端侧AI领域的技术领先。 【课题名称】 端侧AI算法分析研究 【课题内容】 1. 从用户场景出发,分析手机上用户需求,设计和开发合理的AI特性来满足用户诉求; 2. 对流程、架构、算法进行优化,达到本芯片最优化,并且优化iOS等竞争对手。

更新于 2025-06-26
logo of mi
校招

1、探索,设计,开发,交付图形栈在各关键用户场景的降负载方案; 2、Android平台UI图形渲染框架优化及优化特性开发; 3、游戏渲染管线、渲染算法性能功耗优化特性功能开发。 【课题名称】 Android图形渲染优化研究。 【课题内容】 渲染GPU芯片体系结构及软硬协同设计,研究领域覆盖:高阶图形渲染、云渲染/AR/VR、多模态AI模型。

更新于 2025-07-23
logo of mi
校招

1.研究构建架构自适应编译系统:基于llvm开发SIMT自动向量化框架与ML驱动的循环优化模块; 2.设计指令集-编译器协同方案:制定SIMT混合指令编码规范,开发编译器性能优化策略; 3.建立全栈验证体系:构建从语言级并行模式→中间表示优化→指令流水线映射的三层性能分析平台,实施软硬件协同调优; 4.分析业界领先的编程语言、指令集架构、编译器架构。 【课题名称】 面向通用计算架构与AI专用领域的智能编译优化技术研究 【课题内容】 研发面向异构计算的编译技术体系,构建""语言设计-编译优化-指令集""垂直协同架构: 1. 设计类CUDA编程语言,融合多级并行原语与显式内存管理,实现从高阶语义到LLVM IR的映射框架; 2. 开发智能编译引擎,创新指令调度与SIMT向量化策略,集成ML驱动的参数自适应机制; 3. 定义可扩展指令集架构,支持VLIW/SIMT混合执行模式与定制化运算指令,构建编译器-芯片联合优化体系。 通过编程语言抽象表达并行模式、编译中间层实施架构感知优化、指令集层实现硬件特性映射的三层联动,形成软硬件深度协同的高性能计算架构。

更新于 2025-06-26