logo of horizon

地平线计算机视觉感知算法实习生

实习兼职算法序列地点:北京 | 南京 | 上海状态:招聘

任职要求


1、计算机视觉、自动化、数学等相关领域专业,硕士及以上在读,实习期6个月以上;
2、具备良好的工程能力,精通Pytorch深度学习框架,熟练使用Python/C++; 
3、精通机器学习深度学习; OCC、WorldModel、Depth估计、光流、3D 检测一种或者多种, 并在相关领域具有相关经验,对算法有深刻的理解和洞察力; 
4、良好的英文文献阅读能力;
5、良好的团队合作精神、 …
登录查看完整任职要求
微信扫码,1秒登录

工作职责


3D视觉方向【base地:上海/北京/南京】 
1、负责面向端到端驾驶环境感知前沿算法的研发工作,包括不限于目标检测、语义分割、目标跟踪,深度估计,重建、世界模型等; 
2、负责面向端到端自动驾驶多传感器(包括不限于视觉/Lidar/Radar)融合感知算法的探索与研发;
3、负责研究自动驾驶场景中端到端感知任务的模型的优化; 
4、负责计算机视觉领域前沿技术中网络模型分析和研究工作;
包括英文材料
OpenCV+
PyTorch+
深度学习+
Python+
C+++
机器学习+
算法+
还有更多 •••
相关职位

logo of didi
社招技术

公司介绍 滴滴于 2016 年组建自动驾驶技术研发部门,致力于打造世界领先的 L4 级自动驾驶技术,通过科技让出行更安全、更高效。我们相信,将自动驾驶技术部署在共享出行车队中,将创造最大的社会价值。依托滴滴在出行领域的 先进技术、海量数据、丰富经验和完整的出行平台生态,我们正在打造并运营世界领先的自动驾驶 Robotaxi 车队,推动自动驾驶在城市复杂交通场景中的规模化落地。 职位描述 作为感知团队的一员,你将与国内外顶尖人才一起,研究和开发自动驾驶领域的前沿算法,直接赋能 L4 Robotaxi 的大规模部署。 你将面向真实城市道路场景中的多样化挑战,利用多模态传感器(LiDAR、Camera、Radar 等)设计、开发并优化感知算法,解决物体识别、障碍物检测、场景理解、意图预测与大模型赋能等核心问题。 在这里,你将有机会: 与中美两地的优秀工程师和科学家合作,参与世界级的技术竞争; 深入研究并推动最前沿的学术成果在产业中的落地; 在全球最大出行平台之一的业务场景中,实现科研成果的规模化应用。 主要方向与职责: 你将在以下方向中选定一个或多个方向深入负责,并承担从研发到落地、从算法到系统的端到端职责: (一)物体识别与跟踪 设计并实现基于 LiDAR / Camera / Radar 的多模态检测模型,识别车辆、行人、自行车、静态障碍物、交通标志等 提升精度、召回率与抗扰性(抗遮挡、夜间、恶劣天气、长尾类别) (二)通用障碍物识别 识别未知类别 /未训练类别的障碍物 基于异常检测 /开放类别识别的算法研究与工程实现 在非结构化环境(施工区域、道路损坏、落物等)中提升鲁棒性 (三)场景和意图理解 语义分割、实例分割、道路 /车道/交通标志/交通灯等结构物识别 场景理解,例如施工区域识别、可通行区域识别等 意图理解,例如行人动作识别、起步意图识别等 交互和事件识别,例如多方交互、交通规则冲突、非规范驾驶行为等 (四)感知大模型 /多模态 探索或应用预训练多模态大模型,将视觉、语言、地图/文本信息融合以增强感知能力 零样本 / 少样本 / 跨域泛化的策略研发 将大模型成果迁移到真实车队感知系统中,提升复杂场景下的鲁棒性 (五)模型评估、验证 构建完整的评估管道,包括离线评估 + 真实道路 + 模拟环境测试,支持回归检测与性能监控 指标体系设计 (Precision, Recall, IoU, latency, false positives rate 等)

更新于 2026-01-06北京
logo of xiaohongshu
实习大模型

本课题的研究目标是优化AI与人类的多模态交互体验,通过研发能够融合文本、视觉和语音等多种模态的自然交互机制,使AI系统能够通过理解图像内容、语音语调和情感等非文本信息增强交互效果。 研究将探索情境感知与个性化适应技术、多轮多模态交互中的意图理解与记忆保持能力,以及跨模态信息的整合与表达方式,使AI系统能够更好地理解用户通过不同感知通道传达的需求,提供视觉和语音层面的情感共鸣,并在长期多模态交互中不断适应用户偏好,实现更加流畅、高效且人性化的人机协作。

更新于 2025-08-22上海|北京|杭州
logo of xiaohongshu
校招大模型

尽管当前的多模态大模型(融合视觉、语音、文本)已展现出强大的感知与理解潜力,但是在实时交互场景中,由于模型设计导致的高延迟、生硬的轮次状态、频繁的打断或被打断严重影响信息传递效率。同时多个模态无法实时融合也限制了多模态模型在语音交互场景下的深度应用。生成的交互内容有时显得冗长、缺乏提炼或智能不足,这些问题限制了用户与大模型实时交流的体验。 本课题的目标是设计并验证一种全模态实时交互的大模型架构,将视觉模态、语音流模态、思考模态信息以及 SOTA LLM 进行实时融合。从而使得大模型可以与人进行即时、流畅、且深入浅出、富有智慧的多模态自然语音对话。

更新于 2026-03-28上海|北京|杭州
logo of baidu
实习IDG

-负责激光雷达点云的目标检测、识别、跟踪算法研发 -负责激光雷达点云的场景语义理解、建模等相关算法研发 -负责camera、lidar、radar等多传感器融合算法研发 -负责障碍物场景语义、行为意图算法研发

更新于 2024-04-28北京