
智能互联AI创新事业部-大模型蒸馏及推理加速专家/高级专家-未来生活实验室
任职要求
1. 背景:计算机、数学等相关专业硕博学历,3 年以上模型压缩或推理加速经验。 2. 核心能力(具备其一即可): ○ 蒸馏方向:精通知识蒸馏、模型训练策略及轻量化网络设计。 ○ 加速方向:精通模型量化、剪枝技术,熟悉硬件架构及其加速原理。 3. 技术栈: ○ 熟练掌握 PyTorch/TensorFlow,熟悉主…
工作职责
1. 算法研发:负责模型蒸馏、量化、剪枝及稀疏化技术的研究与实现,提升大模型在推理端的效率。 2. 知识迁移:设计高效蒸馏方案,将千亿级模型能力迁移至轻量化模型,确保精度损失最小化。 3. 性能优化:针对 GPU、NPU进行全栈推理加速,优化算子执行逻辑,降低延迟并提升吞吐量。 4. 工具链开发:参与开发模型转换、自动压缩及加速工具链。
1、针对具体任务场景(如语音识别、机器翻译、图像理解、文本生成等),开展深度学习模型的算法设计与创新,探索新型神经网络架构(如Transformer、MoE、扩散模型等),提升模型在复杂环境下的准确性、鲁棒性与泛化能力。负责端到端建模优化,结合上下文理解、对话状态追踪或多模态融合技术,增强系统在连续交互场景中的语义理解与响应能力。构建高质量训练数据体系,设计自动化语料清洗、标注与增强方案,覆盖多语言、多方言、噪声或小样本等挑战性场景,支撑模型持续迭代。 2、参与大规模预训练模型(LLM、VL模型等)的研发与微调,包括指令微调、对齐优化、提示工程及推理加速,提升模型在下游任务中的表现。探索大模型在跨模态理解(图文、音视频)、实时生成、知识推理等场景的应用路径,推动AIGC、智能摘要、自动字幕、翻译等业务的技术升级。研发高效微调技术(LoRA、Adapter等)与模型服务架构,实现大模型在资源受限环境下的灵活部署。 3、推动模型轻量化与推理加速,应用模型压缩、量化、蒸馏、剪枝等技术,提升模型在移动端、边缘设备或云端的运行效率。协同工程团队完成算法模块的高性能集成,优化分布式训练与推理框架,保障系统低时延、高并发与稳定性。支持多平台部署(移动端、PC端、Web端、云服务),参与全链路性能调优与监控体系建设。 4、跟踪人工智能领域最新研究进展(CV/NLP/ASR/TTS/MT等),结合业务需求进行技术预研与原型验证。与产品、数据、工程团队紧密协作,深入理解用户场景,推动AI能力在实际产品中的创新应用。

• 负责AIGC应用Web 前端开发工作,从需求评审、原型评估到前端实现和上线的完整闭环。 • 与产品经理、设计师紧密合作,理解业务目标和交互方案,保障 AI 交互场景有流畅、直观的用户体验。 • 关注前端与 AI 相关的新技术、新体验形式,探索并实现前沿的AI技术,将其与产品结合,创造富有价值的产品 • 应用系统性能调优,优化产品体验,稳定性能力建设,构建鲁棒的AI应用 • 参与前端自动化测试、E2E 测试和可观测性建设,提升整体稳定性。

1. 负责AIGC应用研发,参与产品的设计和改进 2. 负责应用性能和体验优化,技术创新,通用能力的建设 3. 打造智能,极致体验的AIGC创新产品 4. 协调内外部资源,积极驱动及协同设计、测试等相关人员,有效推进并解决问题、保证项目高质量落地 5. 通过技术驱动为业务赋能,完成技术研究工作并成功落地

深入研究AI应用算法,探索LLM在深度推理、深度研究(Deep Research)、Code Agent、多模态Agent等领域的技术研究,包括 AI搜索,Plan、Tool Usage、Memory、Agent Reasoning、多模态理解等技术,推动AI技术在智能体产品应用中的突破。 探索工业级的Agent算法架构方案,提升Agent系统的执行效率和结果对齐准确度。在创新应用场景中,优化长上下文场景的Agent推理算法架构,提升Agent解决任务复杂度,探索System2技术边界。 针对重点方向如Agentic Search,Memory,进行端到端优化,包括系统算法框架设计、模型训练等,解决实际应用相关问题。 跟进大模型智能体前沿技术趋势,结合实际业务需求,将技术应用到实际业务场景;