
地平线模型推理平台实习生
任职要求
岗位要求 - 计算机、人工智能或相关方向 博士在读 - 在以下领域具备扎实基础之一:分布式系统、GPU / 高性能计算、大模型训练或推理系统 - 熟练使用 Python / C++ / CUDA / Go 等至少一门语言 - 对 AI Infra / MLSys / …
工作职责
岗位介绍 我们正在构建下一代 大模型推理平台(LLM Inference Platform),面向 AI Coding、研发效率提升与生产业务智能化等核心场景,提供高性能、可扩展的大模型推理能力。 团队正在结合开源模型与推理生态,在 大规模 GPU 集群上持续优化推理系统的 吞吐 以及单位 Token 推理成本($/Million Tokens)。 岗位职责 - 参与 大模型推理平台的系统研发与架构优化 - 在大规模 GPU 集群环境中优化推理系统的 Throughput、TTFT 和 GPU Utilization - 设计和实现高效推理架构,例如:Prefill / Decode 分离式推理、Continuous / Dynamic Batching、异构推理资源调度 - 构建 分布式 KV Cache 与推理缓存体系,减少重复计算并提升 token generation efficiency 优化推理系统的 单位 Token 计算成本($/Million Tokens) 与集群资源效率

岗位介绍 我们正在构建下一代 大模型推理平台(LLM Inference Platform),面向 AI Coding、研发效率提升与生产业务智能化等核心场景,提供高性能、可扩展的大模型推理能力。 团队正在结合开源模型与推理生态,在 大规模 GPU 集群上持续优化推理系统的 吞吐 以及单位 Token 推理成本($/Million Tokens)。 岗位职责 - 参与 大模型推理平台的系统研发与架构优化 - 在大规模 GPU 集群环境中优化推理系统的 Throughput、TTFT 和 GPU Utilization - 设计和实现高效推理架构,例如:Prefill / Decode 分离式推理、Continuous / Dynamic Batching、异构推理资源调度 - 构建 分布式 KV Cache 与推理缓存体系,减少重复计算并提升 token generation efficiency 优化推理系统的 单位 Token 计算成本($/Million Tokens) 与集群资源效率
公司介绍 滴滴于 2016 年组建自动驾驶技术研发部门,致力于打造世界领先的 L4 级自动驾驶技术,通过科技让出行更安全、更高效。我们相信,将自动驾驶技术部署在共享出行车队中,将创造最大的社会价值。依托滴滴在出行领域的 先进技术、海量数据、丰富经验和完整的出行平台生态,我们正在打造并运营世界领先的自动驾驶 Robotaxi 车队,推动自动驾驶在城市复杂交通场景中的规模化落地。 职位描述 作为感知团队的一员,你将与国内外顶尖人才一起,研究和开发自动驾驶领域的前沿算法,直接赋能 L4 Robotaxi 的大规模部署。 你将面向真实城市道路场景中的多样化挑战,利用多模态传感器(LiDAR、Camera、Radar 等)设计、开发并优化感知算法,解决物体识别、障碍物检测、场景理解、意图预测与大模型赋能等核心问题。 在这里,你将有机会: 与中美两地的优秀工程师和科学家合作,参与世界级的技术竞争; 深入研究并推动最前沿的学术成果在产业中的落地; 在全球最大出行平台之一的业务场景中,实现科研成果的规模化应用。 主要方向与职责: 你将在以下方向中选定一个或多个方向深入负责,并承担从研发到落地、从算法到系统的端到端职责: (一)物体识别与跟踪 设计并实现基于 LiDAR / Camera / Radar 的多模态检测模型,识别车辆、行人、自行车、静态障碍物、交通标志等 提升精度、召回率与抗扰性(抗遮挡、夜间、恶劣天气、长尾类别) (二)通用障碍物识别 识别未知类别 /未训练类别的障碍物 基于异常检测 /开放类别识别的算法研究与工程实现 在非结构化环境(施工区域、道路损坏、落物等)中提升鲁棒性 (三)场景和意图理解 语义分割、实例分割、道路 /车道/交通标志/交通灯等结构物识别 场景理解,例如施工区域识别、可通行区域识别等 意图理解,例如行人动作识别、起步意图识别等 交互和事件识别,例如多方交互、交通规则冲突、非规范驾驶行为等 (四)感知大模型 /多模态 探索或应用预训练多模态大模型,将视觉、语言、地图/文本信息融合以增强感知能力 零样本 / 少样本 / 跨域泛化的策略研发 将大模型成果迁移到真实车队感知系统中,提升复杂场景下的鲁棒性 (五)模型评估、验证 构建完整的评估管道,包括离线评估 + 真实道路 + 模拟环境测试,支持回归检测与性能监控 指标体系设计 (Precision, Recall, IoU, latency, false positives rate 等)
1. 研发面向代码开发&风险的大模型,包括但不限于代码大模型、NLP、全模态、时序分析等领域相关的大模型的应用算法研发; 2. 基于强化学习,研发全模态(代码/运维/工具调用/操作界面图像等)的推理模型 3. 搭建深度搜索/工具调用/自动操作网页和手机/各种运维平台的agent 4.系统化的风险发现和应急算法搭建
随着大型语言模型(LLMs)的快速发展,其在复杂任务中的推理效率问题日益凸显。本课题聚焦于LLMs的推理加速,旨在研究高效的Chain-of-Thought(CoT)压缩算法,以优化模型的推理过程,减少计算开销并提高响应速度,同时保持推理的准确性;同时,课题将深入分析现有LLMs的推理机制,探索如何通过算法创新来实现CoT的高效压缩。 具体研究内容包括但不限于:基于模型结构进行优化、基于推理过程进行优化、基于Prompt进行优化、以及基于数据驱动的压缩策略等。通过本课题的研究,期望能够为LLMs的高效推理提供新的理论和技术支持,推动其在更多实际场景中的广泛应用。