腾讯视觉多模态理解与生成大模型算法研究员
任职要求
1.计算机科学、人工智能、计算机视觉、机器学习或相关领域的硕士或博士学位; 2.具备相关领域研究经验,熟悉主流技术,如在顶级会议或期刊发表过相关论文; 3.熟悉有关领域主流开源工具和框架,有匹配研究需要的工程能力; 4.具备良好的跨研究领域团队合作精神、沟通能力、好奇心以及目标驱动、解决问题的能力。
工作职责
1.作为视觉领域的专家,与其它模态研究者共同参与创新的原生多模态大模型研究,包括创新模型架构、“2D+时间”和“3D+时间”大模型建模等; 2.探索对真实物理世界进行理解和生成、多模态推理及自进化持续学习的大模型; 3.关注学术界和行业最新研究动态,参与国际会议、研讨会,与全球顶级团队交流合作; 4.将研究成果向社区发布或技术转移至内部产品部门。
1.作为视觉领域的专家,与其它模态研究者共同参与创新的原生多模态大模型研究,包括创新模型架构、“2D+时间”和“3D+时间”大模型建模等; 2.探索对真实物理世界进行理解和生成、多模态推理及自进化持续学习的大模型; 3.关注学术界和行业最新研究动态,参与国际会议、研讨会,与全球顶级团队交流合作; 4.将研究成果向社区发布或技术转移至内部产品部门。
通义千问(Qwen)是由通义实验室自主研发的超大规模语言模型,具备多模态、多语言、跨任务的理解与生成能力。Qwen系列模型,涵盖参数量从亿级到万亿级的基座大语言模型,并相继推出Qwen-VL、Qwen-Audio、Qwen-Omni、Qwen-Coder、Qwen-Image等系列模型。从多轮对话到代码生成,从逻辑推理到内容创作,从单一多模态到全模态统一理解生成,Qwen 正在打造全球领先的全模态模型技术体系,推动AI在企业服务、开发者生态、个人用户等领域的深度应用,引领下一代人工智能的发展。 若你对以下一个或者多个方向感兴趣均欢迎投递: 1)多模态基础模型的研发,包括融合视觉语言的跨模态理解模型设计,提升视觉基础模型在图像/视频中的视觉知识、空间感知、Omni Parsing 等核心能力,并同时优化多模态大模型的AI infra。 2)通过强化学习(RL)持续提升多模态模型推理能力和执行任务能力,构建支持网络世界(PC/Mobile/Web/游戏)交互的通用智能体,将相关能力拓展到GUI agent,VLA,以及具身智能场景中。 3)研究理解与生成统一的模型架构,实现跨模态生成与推理的协同优化。 工作职责: 1. 多模态 pre-training:开展研究及进行实验,研究内容包括:数据清洗筛选、数据配比优化、课程学习、视觉语言模型结构设计与优化、训练策略优化、预训练数据合成、scaling law 预测、词表优化、模型蒸馏与压缩、长上下文能力优化等。 2. 多模态 post-training:迭代 post-training 训练策略(SFT/RLHF),专项能力数据迭代,参与模型能力评测及评测数据和评估标准的迭代。 3. 多模态推理和通用 agent:通过强化学习(RL)持续提升多模态模型推理能力和执行任务能力,打造多模态的 test scaling laws,并推动模型对网络和虚拟世界的交互和任务完成能力。 4. 统一理解生成:构建视觉统一理解生成大模型,推进多模态统一生成与理解的推理和交互新范式。
1. 参与视觉生成与编辑相关的大模型算法研发,探索领域前沿,持续创新,打造有影响力的高水平技术,并解决算法应用遇到的挑战问题,包括主体一致性、语义一致性、画质效果、重点场景效果优化、性能与效果平衡、可控生成等 2. 探索多模态理解与生成统一的大模型技术 【课题名称】 视觉生成大模型研究与应用 【课题内容】 研究图像或视频生成与编辑大模型相关技术,优化生成效果及可控性,平衡效率与效果,探索前沿的视觉生成技术方案等。