
地平线【地瓜机器人】大模型技术专家
社招全职算法序列地点:北京状态:招聘
任职要求
1. 大模型端侧推理加速方向深厚的功底和经验,熟悉kv cache、低比特量化、flash-attention、投机采样、稀疏化等 2. 熟悉常见开源大模型推理框架,如vllm、tensorrt-llm、mcl、l…
登录查看完整任职要求
微信扫码,1秒登录
工作职责
负责机器人领域端侧大模型的研发和应用,研判大模型未来发展趋势为后续芯片NPU规划提供输入。主要工作方向包括: 1. 探索LLM、VLM、VLA大模型在端侧性能与精度极限 2. 跟进与判断大模型发展趋势为后续芯片NPU规划提供输入
包括英文材料
大模型+
https://www.youtube.com/watch?v=xZDB1naRUlk
You will build projects with LLMs that will enable you to create dynamic interfaces, interact with vast amounts of text data, and even empower LLMs with the capability to browse the internet for research papers.
https://www.youtube.com/watch?v=zjkBMFhNj_g
缓存+
https://hackernoon.com/the-system-design-cheat-sheet-cache
The cache is a layer that stores a subset of data, typically the most frequently accessed or essential information, in a location quicker to access than its primary storage location.
https://www.youtube.com/watch?v=bP4BeUjNkXc
Caching strategies, Distributed Caching, Eviction Policies, Write-Through Cache and Least Recently Used (LRU) cache are all important terms when it comes to designing an efficient system with a caching layer.
https://www.youtube.com/watch?v=dGAgxozNWFE
vLLM+
https://www.newline.co/@zaoyang/ultimate-guide-to-vllm--aad8b65d
vLLM is a framework designed to make large language models faster, more efficient, and better suited for production environments.
https://www.youtube.com/watch?v=Ju2FrqIrdx0
vLLM is a cutting-edge serving engine designed for large language models (LLMs), offering unparalleled performance and efficiency for AI-driven applications.
还有更多 •••
相关职位

实习芯片序列
1、参与撰写、整理和维护公司芯片产品的中英文技术文档; 2、将复杂的系统、芯片设计方案转化为清晰、易懂的技术说明文档、方案说明和开发者指南; 3、参与文档的版本管理、内容审核与格式优化,确保文档的准确性和一致性; 4、使用 Markdown 等轻量级标记语言进行文档编写,配合 Git 工作流参与 Docs as Code 实践; 5、探索并应用 AI 大模型等前沿技术辅助文档生成、翻译、摘要和内容优化,提升写作效率; 6、与芯片研发、AI云平台、项目质量、产品和测试团队紧密协作,及时获取技术信息并反馈文档问题。
更新于 2026-02-04北京

实习软件序列
1、负责大模型应用开发范式及一站式研发平台的设计、开发及应用,支持司内外部业务及研发流程在大模型应用领域的快速落地; 2、负责大模型产品的整体技术解决方案,并支持技术研发和效果优化等工作,推动产品持续增长; 3、保障大模型应用系统架构的稳定、高效运行,帮助业务优化性能和改善系统稳定; 4、与Agent平台及算法团队紧密协作,推动LLM、RAG等技术与工程系统的深度集成。
更新于 2026-03-18北京