菜鸟模型优化算法工程师
实习兼职菜鸟集团2026届实习生招聘地点:杭州状态:招聘
任职要求
1、计算机、数学、通信等相关专业背景; 2、熟悉深度学习、模型推理优化、决策算法,路径规划算法、三维重建与绘制、游戏开发等相关领域技术和应用,有大量实践经验者优先; 3、极佳的工程实现能力,熟练掌握C/C++、Java、Python等至少一门语言,熟悉libtorch、…
登录查看完整任职要求
微信扫码,1秒登录
工作职责
1、负责动态图优化、算子优化,Auto-Tuning、量化训练、模型推理部署、大模型训练等,提升训练的性能,降低算法的在线时延; 2、研发自动驾驶的高性能推理系统框架,支持GPU/CPU的异构推理; 3、追踪自动驾驶行业和深度学习技术的最新进展,力争打造菜鸟无人驾驶系统,开创未来无人物流的新格局。
包括英文材料
深度学习+
https://d2l.ai/
Interactive deep learning book with code, math, and discussions.
算法+
https://roadmap.sh/datastructures-and-algorithms
Step by step guide to learn Data Structures and Algorithms in 2025
https://www.hellointerview.com/learn/code
A visual guide to the most important patterns and approaches for the coding interview.
https://www.w3schools.com/dsa/
C+
https://www.freecodecamp.org/chinese/news/the-c-beginners-handbook/
本手册遵循二八定律。你将在 20% 的时间内学习 80% 的 C 编程语言。
https://www.youtube.com/watch?v=87SH2Cn0s9A
https://www.youtube.com/watch?v=KJgsSFOSQv0
This course will give you a full introduction into all of the core concepts in the C programming language.
https://www.youtube.com/watch?v=PaPN51Mm5qQ
In this complete C programming course, Dr. Charles Severance (aka Dr. Chuck) will help you understand computer architecture and low-level programming with the help of the classic C Programming language book written by Brian Kernighan and Dennis Ritchie.
还有更多 •••
相关职位
社招3-5年IDG
-负责设计和研发自动驾驶模型MLOps能力,提升自动驾驶车端/云端模型的迭代效率 -负责设计和研发自动驾驶模型托管能力,提升自动驾驶模型生产的自动化程度 -负责设计和研发AutoML算法,提升自动驾驶模型生产的自动化程度 -负责设计和研发模型蒸馏和量化算法,保障自动驾驶模型自动生产的效果
更新于 2024-06-20北京
社招3-5年D11722
1、负责快手可灵/可图大模型的实时化加速需求, 包括但不限于推理步数优化, 稀疏attn, 超分等; 2、负责大模型的无损压缩微调训练, 包括但不限于实现 低精度QAT训练, LoRA/DPO微调等 ; 3、负责快手内部文本及多模态大模型的优化需求, 包括但不限于: LLM吞吐/延时优化, 长文本 KV-cache 优化, LLM 显存优化。
更新于 2025-09-23北京
校招J1007
1、diffusion步数压缩:探索diffusion模型的one-step / few-steps的无损蒸馏算法,跟进学术界最前沿的few-steps diffusion算法,包括但不限于consistency modeling、shortcut、score distillation等方案,打造实时化的极致高效可灵/可图大模型; 2、高效attention设计:探索新一代注意力实现机制,包括但不限于sparse/quant-attention、linear-attention、mamba等,打破attention计算平方复杂度限制,解决长序列视频/图像引起的推理挑战,推进可灵/可图大模型的长序列场景下的推理极限; 3、强化反馈优化:应用DPO/GRPO/PPO等强化学习的手段调优模型效果,在模型压缩的前置条件下探索强化学习与压缩算法的化学反应,推动可灵/可图大模型的效果-效率帕雷托前沿新SOTA。
更新于 2025-08-08上海|北京
