logo of quark

夸克算法实习生-多模态推理与agent(研究型)

实习兼职日常实习生地点:北京 | 广州状态:招聘

任职要求


1. 自然语言处理机器学习数据挖掘、人工智能、计算机等相关专业的硕士生/博士生;
2. 熟练掌握TensorflowPytorch深度学习框架,扎实的编程基础,具备独立的算法实现能力…
登录查看完整任职要求
微信扫码,1秒登录

工作职责


夸克学习算法团队通过持续创新突破,提供更智能的产品体验,支撑了夸克拍照搜题、AI解题大师、批改、教育搜索等多个核心产品体验。
1. 负责大模型后训练阶段强化学习应用过程中关键问题的探索研究,持续追踪和应用领域最新技术进展;
2. 负责大模型在教育垂域的应用的解决范式和关键技术的探索研究,包括DeepReaserch,Agentic Reasoning,奖励模型建模等;
3. 负责多模态大模型预训练、跨模态对齐、推理等领域的关键问题的探索和研究,包括视觉编码器、视觉推理等、多模态语料构建方法等;
4. 基于研究成果撰写高质量学术论文,积极参与业界交流活动,建立和维护学术界与产业界的合作关系。


你将与行业顶尖算法工程师一对一组队,共同挑战前沿问题。你的工作成果将服务千万级用户,影响大模型应用在教育垂域的发展走向。
在推动相关技术落地业务的同时,鼓励其深耕兼具原创性与实用性的算法创新,共同完成高水平论文发表。
包括英文材料
NLP+
机器学习+
数据挖掘+
TensorFlow+
PyTorch+
深度学习+
算法+
CVPR+
还有更多 •••
相关职位

logo of amap
实习高德研究型实习生

团队介绍:团队聚焦多模态模型、大语言模型、扩散模型的基础研究和前沿探索,可提供充足显卡资源和专业技术指导。 岗位描述: 1. 多模态模型和扩散模型的研究,包含但不限于文本、图像的跨模态对齐和AIGC内容生成; 2. 大语言模型的前沿探索,包括但不限于SFT和RLHF算法、CoT、Hallucination、Agent等领域的探索与研究; 3. 大模型的效率研究,包括但不限于大模型的量化、蒸馏、训练与推理加速。

更新于 2025-03-27北京
logo of amap
实习高德研究型实习生

多模态大模型算法实习生 深度参与亿级用户产品的AI核心能力建设,有机会将研究成果落地于高德,影响亿万用户; 岗位职责 ꔷ 参与多模态表征学习与全模态交互模型的研究与开发,探索文本、图像、语音、地理信息等多源异构数据的深度融合方法; ꔷ 聚焦用户多模态指令理解(如“找附近有露营氛围的咖啡馆”)、商铺及内容的多模态理解(图文、视频、评论、POI属性等),构建面向高德搜索、推荐与智能交互场景的AI Agent能力; ꔷ 设计并实现创新性算法,在真实业务场景中验证效果,提升用户获取信息的有效性、趣味性与沉浸感; ꔷ 推动技术前沿探索,目标在顶会发表高质量学术论文,打造业界领先的多模态AI系统。

更新于 2025-11-21北京
logo of amap
实习高德研究型实习生

团队介绍: 高德语音技术部,是负责高德全栈语音技术的综合性团队。团队核心技术能力包括:自研TTS基座大模型、端侧模型、多语种、RTC流式语音、语音内容生成、语音识别、多模态模型、模型服务与推理。业务支撑面向高德全部核心场景,包括语音导航、AI领航员、IP语音定制、国际化、AI语音助手、智能外呼、内容生成等。 团队定位是通过前沿语音技术的研究和落地,赋能下一代AI产品创新。近期部分技术(https://arxiv.org/abs/2507.12197)和产品进展介绍(https://mp.weixin.qq.com/s/cCeHbNW0jbC_LNVPZlGeHg) 具体职责: 1. 协助语音大模型的数据构建,搭建高效高质的语音数据生产Pipeline 和数据标准,优化Pipeline算子,用高质量数据提升技术预研和业务落地的效果; 2. 参与语音大模型的端到端评测,搭建科学敏捷的评测Pipeline和评测标准,用全面真实的评测推动模型效果优化提升; 3. 深度理解对话交互、音视频创作的技术和产品趋势,设计与业务目标贴合的数据与评测方案;与团队协同,积极探索自动化数据生产/模型评估、数据合成等方法,提高数据标注/评测效率;

更新于 2025-12-09北京
logo of antgroup
实习研究型实习生

研究领域: 人工智能 项目简介: 内生安全是近年来大语言模型研发中的一个关键研究方向。随着模型能力的快速增长,特别是推理模型,通过慢思考LongCoT的方式极大的提升了能力达到专家水平,然而强大能力也带来了潜在的安全风险。内生安全的目标是通过设计模型架构、推理机制或训练流程,使得模型在底层逻辑中具备一致性、自我审查和误差控制的能力,从本质上降低安全隐患,而不是简单依赖筛查和围栏过滤。 对于推理模型的内生安全而言,其主要难点在于 1. 可解释性不足,缺乏启发式策略和理论的结合。没有对推理模型有专门的内生安全性质的定义,形成数学的框架 2. 对抗能力缺失。由于模型较新且运行成本大,目前已有的jailbreak方法依赖大量试错的尝试,很难形成有效的攻防相互促进 3. 动态推理过程的监督。由于推理模型将思考过程进行展示,以往工作只关注在最后模型回复阶段,忽略了推理过程可能包含的风险 因此,可以再一下方向进行相关研究 1. 安全高效评估框架:针对推理模型研发专门的red team方法进行内生安全评估 2. 对抗训练:提出高效的对抗方法,通过posttrain方式提升内生安全 3. 内生安全奖励:在GRPO过程中,除了回复的helpful,也考虑harmless 4. 多模态场景下的推理安全:对图文视频音频等多模态输入,均在思考过程中进行安全检查等

上海|杭州