logo of xiaohongshu

小红书语音大模型算法研究员

社招全职3-5年多媒体算法地点:北京 | 上海状态:招聘

任职要求


1.AI、EE、CS相关专业; 
2.在语音识别/理解、语音合成/编辑等泛语音方向均有一定经验; 
3.对工业级大规模数据有实际处理经验,有使用海量数据优化实际业务模型的动手经验; 
4.良好的团队沟通…
登录查看完整任职要求
微信扫码,1秒登录

工作职责


1.自研语音大模型算法在小红书丰富业务场景的落地,并持续优化语音大模型预训练、后训练效果,保持业内SOTA水平。 
2.跟进最领先的大模型语音技术,包括但不限于提出新的语音大模型算法框架、改进现有的算法、持续提升相关技术及业务指标,鼓励撰写论文及申请专利。
包括英文材料
语音识别+
语音合成+
相关职位

logo of mi
校招

1. 大规模语音模态预训练 研究如何用千万小时级别语音数据在百亿级别参数模型上进行高效预训练,有效提取与利用通用声学与语义特征,提升语言理解及语音生成的一致性和自然度; 2. 多语言语音理解与生成 研究跨语言语音数据的共享表示方法,提升语音模型对多语言、方言的适配能力; 3. 噪声环境及复杂声学场景下的处理能力 研究语音大模型在嘈杂、混响、远场等典型场景下的泛化性; 4. 探索高效语音信息压缩方法 研究语音模态压缩方法,以实现长时理解,并适配不同类型的设备(云侧和端侧)的部署需求。 【课题名称】 语音理解和生成大模型 【课题内容】 本课题拟围绕先进的语音理解与生成大模型,研发面向复杂场景的通用语音技术。项目将通过大规模语音数据预训练与强化学习方法,探索高鲁棒性、高自然度的语音理解与生成能力。

更新于 2025-06-06北京
logo of meituan
校招核心本地商业-基

视觉方向 1.探索大规模/超大规模多模态视觉大模型,并进行极致系统优化,数据建设、指令微调、偏好对齐、模型优化。 2.探索统一的多模态大模型架构,打通理解与生成之间的壁垒,研究如何在单一模型框架下实现对多模态信息的深度理解与高质量生成。 3.探索多模态推理模型(Reasoning)架构、提升多模态在学科、通用视觉任务上的思考和推理能力。 4.探索视觉GUI Agent模型构建,提升GUI场景下的理解、规划和决策能力,进而提升人机交互的性能。 5.探索具身智能大模型的构建,提升机器人在物理场景中的模仿学习和强化学习算法,提升具身智能的多模态处理能力以及与开放世界的物理交互能力。 6.探索多模态视觉大模型后训练方法,探索指令微调、强化学习等后训练策略,提升模型的性能。 语音方向 1.语音表征学习:探索同时适用于理解和生成任务、兼顾学习效率和效果的语音表征。 2.模型结构与预训练方法:研究可大规模扩展的模型结构,高效学习语音和文本知识,提升模型的理解和生成能力。 3.音频理解:在语音(Speech)之外,探索更广泛的音频(Audio,如音乐、环境声)理解能力。 4.音频生成:探索高质量音频生成能力,具备强表现力、多风格、多语种、多音色等。 5.后训练方法:探索基于 SFT 和 RL 的后训练策略,进一步提升模型能力上限,。 6.智能交互技术研究,探索高效的智能交互技术,增强系统交互过程中的智能能力、拟人度、自然度和主动性。 全模态融合 大语言模型最近取得的突破,加速了多模态大模型的发展。全模态大模型(Omni-MLLM)通过融入如视觉、语音等模态,拓展了多模态大语言模型的能力,有助于更全面、多维度地理解与生成各种模态,提供更强的智能以及更智能的交互模式。 1.多模态表征对齐:研究在统一模型架构下提取并共享视觉、语音、语言等模态的特征;基于对比学习、自监督学习,优化多模态对齐过程;针对视频、音频等数据,研究时间序列信息的对齐技巧。 2.多模态统一模型架构:探索统一全模态大模型架构,研究高效全模态预训练技术,使之能够高效处理文本、图像、视频和语音数据,并生成涵盖文本、音频和图像等多种模态的输出 3.多模态知识迁移与能力增强:研究在不同模态间的能力迁移,激发模型在跨模态任务中的涌现能力。

更新于 2025-05-23北京|上海|深圳
logo of sensetime
社招算法研究

1. 负责大语言模型、多模态大模型(文本、图像、语音等)的核心算法研发,包括模型 SFT微调、强化学习后训练、推理优化等关键环节,持续提升模型的效果、效率与稳定性。 2. 跟踪国内外大模型领域的前沿技术(如 Transformer 架构改进、多模态融合技术等),并结合业务场景进行技术调研与创新落地。 3. 针对具体业务需求(如智能客服、内容生成、代码辅助等),设计训练数据处理与清洗、大模型微调、强化学习后训练方案,解决实际业务问题。 4. 通用智能体框架设计与开发,智能体虚拟环境搭建,智能体基座模型的SFT后训练和强化学习后训练。 5. 与工程开发、产品设计等团队紧密协作,推动大模型技术从研发到产品化的全流程落地,输出技术文档与方案说明。

更新于 2025-09-24北京|深圳
logo of bytedance
社招A168184

团队介绍:字节跳动 Seed 团队成立于 2023 年,致力于寻找通用智能的新方法,追求智能上限。团队研究方向涵盖 LLM、语音、视觉、世界模型、基础架构、AI Infra、下一代 AI 交互等,在中国、新加坡、美国等地设有实验室和岗位。 Seed 团队在 AI 领域拥有长期愿景与决心,坚持深耕基础,期望成为世界一流的 AI 研究团队,为科技和社会发展作出贡献。目前团队已推出业界领先的通用大模型以及前沿的多模态能力,支持豆包、扣子、即梦等超过 50 个应用场景。 1、LLM推理和规划;在整个开发过程中增强LLM推理和规划,包括数据采集、模型评估、预训练、SFT、奖励建模和强化学习,以提高LLM的整体性能; 2、通过重写、扩充和生成等方法合成大规模、高质量的数据;如指令调优、偏好对齐、模型优化以提高LLM在各个阶段(预训练、SFT、RLHF)的能力; 3、通过RLHF/RLAIF进行偏好对齐,探索全新的训练范式,优化大模型在文本、图像、语音等多模态上的表现; 4、研究和实施稳健的评估方法,以评估LLM在各个阶段的表现,揭示其能力的潜在机制和来源,并利用这种理解来推动模型改进; 5、探索和优化有效的LLM训练方法(如主动学习、课程学习)和目标,以完善缩放规律,实现卓越的模型性能; 6、相关应用落地,包括内容创作、逻辑推理、代码生成等,深入研究和探索大模型在未来生活中的更多使用场景。

更新于 2024-04-19北京