
商汤研究院-模型压缩算法实习生
任职要求
任职要求 1.熟悉模型压缩算法、包括模型量化、剪枝等,熟练掌握Python或C++,git、pytorch等工具。 2.熟悉目前主流的AIGC模型及结构,熟悉常见的模型量化技术,并能够进行模型的实际场景和硬件平台进行针对性的量化优化 3.了解TensorRT-LLM、VLLM等LLM推理框架,有相关模型压缩部署的经验优先 4.了解模型部署相关流程,如有ONNX、TensorRT、OpenVINO、QNN等工具使用经验,熟悉其中量化相关算法与功能 5.具备较强的团队合作和沟通能力,能够与团队成员、业务部门紧密协作,完成项目交付和技术创新。
工作职责
工作职责 1.负责模型压缩算法的研发和实现,包括但不限于模型量化、剪枝、蒸馏等 2.负责业务模型在多种场景及对应各异的芯片上的压缩精度提升和保持,包括AIGC(LLM/Stable Diffusion)模型,自动驾驶模型、手机端侧模型等 3.负责开发和维护LLM量化部署工具链,调研、复现业界最新的算法,集成工具,并在实际业务中落地,助力大模型在各个产品线中的应用 4.通过分析模型与部署硬件特点,使用软硬结合的优化方案提升模型的速度与精度表现,提升模型压缩能力上限

1. 通过分析模型与部署硬件特点,使用软硬结合的优化方案提升模型的速度与精度表现。 2. 针对AIGC模型(Stable Diffusion / LLM),使用SOTA算法提升模型压缩性能,助力大模型在各个产品线中的应用。 3. 负责自动驾驶、手机等多种场景及对应各异的芯片上,提升深度学习模型部署量化表现。 4. 负责开发和维护模型量化部署工具链,对齐硬件单元的量化部署细节。 5. 调研、复现业界最新的算法,集成工具,并在实际业务中落地;算法设计,论文发表。

1. 负责模型压缩算法的研发和实现,包括但不限于模型量化、剪枝、蒸馏等; 2. 负责业务模型在多种场景及对应各异的芯片上的压缩精度提升和保持,包括AIGC(LLM / Stable Diffusion)模型,自动驾驶模型、手机端侧模型等; 3. 负责开发和维护LLM量化部署工具链,调研、复现业界最新的算法,集成工具,并在实际业务中落地, 助力大模型在各个产品线中的应用; 4. 通过分析模型与部署硬件特点,使用软硬结合的优化方案提升模型的速度与精度表现,提升模型压缩能力上限。
vivo AI研究院致力于研发业界领先的人工智能技术,通过AI技术创新持续为全球5亿+vivo用户带来无处不在的惊喜和激动人心的智慧体验。 1、围绕多模态大模型的前沿研究,聚焦跨模态融合、知识推理与表达等核心问题,推动视觉、语音、文本等多模态智能体的理论和算法创新; 2、主导大模型端侧化与高效部署技术攻关,聚焦模型轻量化算法:量化、压缩、剪枝、蒸馏,以及模型推理加速、端侧模型训练等前沿课题,推动大模型在移动终端和边缘设备的实际落地; 3、深入探索强化学习与奖励模型的新范式,致力于提升泛化性和自学习能力,推动基于自博弈(Self-Play)的下一代智能体训练方法; 4、推动生成-理解统一建模、多模态世界模型构建等创新方向,实现虚拟与现实环境中的多模态交互与理解; 5、参与国际顶级学术会议/期刊论文发表,推动前沿技术在实际产品中的转化,提升公司在AI领域的学术与产业影响力。