小米顶尖应届-AI智能软件开发系统研究工程师-手机
任职要求
1. 计算机科学、软件工程、人工智能等相关领域博士学位; 2. 研究方向与代码大模型、程序分析、AI软件工程强相关,并发表过相关论文; 3. 熟练掌握Transformer架构及大模型训练技术(预训练/微调/RLHF),有实际参与LLM的研发经验; 4. 精通Python/C++,具备大型代码库的工程实践或分析经验; 5. 深入理解软件开发生命周期(需求分析→架构设计→测试部署); 6. 具备独立设计实验、量化评估模型性能的科研方法论; 7. 对AI前沿技术有浓厚兴趣,具备优秀的快速学习能力和创新性思维; 8. 熟悉程序分析(静态分析/符号执行)、编译器原理等基础理论; 9. 对代码检索、知识图谱、Agent协作等至少一个方向有深入研究。
工作职责
1. 研发下一代AI驱动的软件工程范式 - 构建面向移动端及嵌入式OS的智能编程系统,探索LLM在代码生成、架构设计、静态分析及测试用例生成等全流程的自治能力; - 研发智能编程辅助系统,实现需求文档→技术方案→代码实现→测试验证的端到端闭环开发。 2. 构建软件工程Agent体系架构 - 设计具有记忆、规划与工具调用能力的多智能体框架,实现复杂功能开发的自主决策与执行; - 开发基于强化学习的Agent协作机制,优化代码质量、构建成功率等核心指标。 3. 研发超大规模代码检索增强生成系统 - 设计高效的多粒度代码索引结构与语义检索框架,实现亿级代码片段的高精准召回与排序; - 研发代码知识库与LLM深度融合的混合检索技术,提升复杂项目上下文理解与跨文件依赖分析能力。 4. 微调和评估软件工程领域专用模型 - 针对IDE补全、对话等场景微调专用小参数大模型,提升代码生成率; - 评估大模型在特定软件工程领域的能力,针对具体研发场景选择适合的模型。 5. 前沿技术探索与专利布局 - 跟踪代码大模型、程序分析、AI软件工程等领域国际顶会(ICSE/PLDI/NeurIPS等)最新进展; - 主导技术创新点的专利撰写与学术论文产出。 【课题名称】 AI智能软件开发系统研究 【课题内容】 构建下一代AI驱动的智能软件开发系统 1. 面向移动端OS的智能编程系统; 2. 构建软件工程Agent系统; 3. 研发超大规模代码检索增强生成系统。
前沿技术研究 1. 跟踪全球手机领域的前沿软件技术动态(如操作系统优化、基础软件优化、硬件协同创新、端侧AI系统优化等),分析技术趋势并输出研究报告; 2. 深入研究学术界顶会论文(如OSDI/SOSP/FAST/NSDI/SIGCOMM/ASPLOS/CGO/ICSE等),提炼可落地的技术方案,推动技术预研与创新。 竞争洞察与行业分析 1. 监测友商技术动态,评估其技术路线、专利布局及产品实现,为小米技术战略提供决策支持。 PoC概念验证开发 1. 对于高价值关键技术点的原型开发,完成算法优化、性能测试及可行性验证,推动创新成果向实际产品转化。 跨领域协同 1. 与OS、硬件、AI、自动驾驶等团队合作,探索手机与智能生态(IoT、汽车、机器人)的软件技术融合方案。 技术成果输出 1. 撰写高质量学术论文,申请技术专利,参与行业技术标准制定,提升小米在学术界和产业界的影响力。 【课题名称】 下一代操作系统研究 【课题内容】 1.前沿技术探索 a. 研究基础软件领域,如操作系统轻量化内核架构(如Unikernel混合部署模型)、编译器与AI融合优化(MLIR动态代码生成)、低损耗容错中间件等关键技术; b. 研究系统关键模块(调度系统/内存管理/驱动框架/协议栈)的创新机会,如形式化验证驱动的确定性高稳定协议栈。 2. PoC验证与落地转化 a. 针对高潜力方向(如编译时-运行时联合优化、异构资源池化调度),在原型系统完成技术可行性验证。
1.参与SoC智能调度引擎开发,突破多核异构SoC能效瓶颈,实现设备续航提升20%-30%+; 2.研发基于AI预测模型的动态调度框架,完成CPU/NPU/GPU/DSP混合计算单元毫秒级资源切换与三维能效评估; 3.设计指令级功耗建模工具与自适应DVFS算法,提升典型用户场景10%+的能效提升; 4.深度协同澎湃芯片及小米全栈技术生态,覆盖手机/汽车/机器人等亿级设备,技术成果直通国际顶会转化通道。 【课题名称】 端侧高效整机性能&能效优化技术研究 【课题内容】 小米玄戒芯片能效优化与智能调度体系研究课题背景: 面对手机/汽车/机器人等多场景的极端能效需求,玄戒SoC芯片需突破多核异构的能效瓶颈,通过智能调度引擎与AI驱动的功耗建模技术,构建"芯片+系统+生态"的三维能效优化体系。结合澎湃系列芯片低功耗研发经验(硬件利润率≤5%原则)及AI实验室全栈技术积累,实现续航提升20%-30%+的行业领先能效比,技术成果直通国际顶会转化通道。 挑战: 1. SoC异构计算单元智能调度引擎开发 - 构建基于AI预测模型的动态调度框架,实现CPU/NPU/GPU/DSP混合计算单元的毫秒级资源切换与负载均衡。 - 设计多目标优化算法,在典型用户场景(如多模态交互、自动驾驶感知)中达成计算资源利用率与能效比的协同提升。 2. 指令级功耗建模与自适应能效调控 - 开发面向玄戒O1架构特征的指令级功耗建模工具链,建立微架构-指令-场景的三维能效评估体系。 - 研发自适应DVFS算法与异构缓存协同机制,确保在影像处理、边缘推理等典型场景下实现10%+能效增益。 3. 全栈技术生态协同优化 - 深度整合澎湃芯片家族(C1/G1/S1)的异构调度能力,构建覆盖MIUI系统、车载OS、机器人OS的统一能效优化方案。 - 设计可扩展的调度框架,支持手机/汽车/机器人等设备的差异化能效需求,推动技术方案在IEEE/ACM等顶会的成果转化。
岗位描述: 1. 负责开发和维护新一代Kaldi开源生态(https://github.com/k2-fsa); 2. 基于新一代Kaldi,参与新型语音技术研究,与Daniel Povey合作发表论文; 3. 与小米语音团队合作,结合新一代Kaldi,为小米全平台设备(包括但不限于汽车、手机、智能音箱、智能穿戴等AIoT设备)打造智能语音算法。 【课题名称】 大模型背景下前沿语音技术研究 【课题内容】 1. 探索语音预训练技术; 2. 大模型背景下语音识别技术的升级与突破; 3. 语音生成技术。
1、创新应用和模型结构分析和建模:对新MoE模型,Transformer优化模型,非Transformer模型,语音模型,视觉模型进行计算特征,访存特征,通信特征分析建模; 2、推理系统优化技术:基于应用特征,自顶向下分析推理软件栈可优化手段,从推理调度,KV Cache管理,推理引擎,算子,并行切进行协同优化; 3、模型压缩:探索低精度损失的低比特量化(如INT4/INT2量化)或稀疏化等算法,缓解大模型推理计算与内存开销; 4、长序列优化:通过序列压缩、序列并行等算法,在有限的部署资源上(如单机)实现1M甚至10M长序列高效推理; 5、提供高性能轻量级AI推理引擎:分析当前CPU执行AI推理的性能瓶颈,通过先进AI算法技术(比如Sparsicity等)和编译优化技术(auto-tiling等),结合BW芯片众核、大带宽、高矢量的架构特征,挑战性能天花板,推动AI4Compiler技术切实落地。 【课题名称】 大模型负载分析和推理系统优化。 【课题内容】 结合端侧设备的功耗、面积和实时性限制,探索自动优化方法研究,沉淀算子、模型及应用级优化方法,识别加速最优解决方案,并能够实施自动化化优化技术研究&应用。实现计算过程中的高效协同,发挥各类计算单元的有效算力;在算力墙、内存墙、通信墙等各维度平衡取舍发挥系统综合最优性能。