阿里巴巴阿里妈妈-视频生成大模型研究型实习生
任职要求
1. 掌握C/C++, Python 等至少一门编程语言,有深度学习开发经验,具备独立实现算法的能力; 2. 在计算机视觉、自然语言处理、多模态等方向有研发经验; 3. 良好的逻辑分析能力和数理基础,在复杂业务场景下能够分…
工作职责
1. 跟进和研发扩散模型、视频生成基座模型等先进生成算法和模型; 2. 跟进和研发视频生成应用大模型、多条件可控生成等先进的生成算法、模型和策略; 3. 研发基于视频生成大模型的视频AIGC工具应用; 4. 结合以上方向的探索和研究,撰写发表论文,和业界、学术界保持良好的交流。
参与生成式大模型核心算法的研发与实验,包括 Diffusion、Autoregressive(AR)、VAE、Transformer 等架构。 协助设计并实现大模型的训练与优化流程,从预训练到后训练(SFT、RLHF)。 探索时空视频编码、压缩与生成算法,提升生成任务的时序质量与性能表现。 跟踪行业与学术前沿研究,参与创新技术的实验与评估,并推动成果转化为学术论文或技术报告。
随着数字化和信息技术的迅猛发展,音视频内容的生成和理解成为了研究的热点。传统的音视频处理方法往往依赖于特定领域的知识,难以实现跨领域的统一理解。近年来,深度学习和大模型技术的崛起为解决这一问题提供了新的思路。 尤其是如GPT-4o这样的先进语言模型,展现了在文本理解和生成上的强大能力。通过构建音视频数据的多模态大模型,可以实现对音视频内容的深入理解与高效生成。这样的模型不仅能够提升音视频内容的质量,还能增强用户体验,应用于娱乐、教育、医疗等多个领域。 此外,提升模型在音视频场景中的推理能力和交互性,能够实现更为智能的内容推荐与创作辅助。综上所述,围绕音视频统一理解生成大模型的研究,具有重要的理论意义和广泛的应用前景,为未来的数字内容创作奠定了坚实基础。 为实现音视频数据的多模态大模型,存在的挑战包括但不限于: 1、生成模型的可扩展性: 如何构建可扩展的生成模型,能够处理不同类型的音频和视频数据?例如,如何让模型适应不同的编码格式、采样率和分辨率? 2、噪声鲁棒性: 如何提升模型对音频和视频噪声的鲁棒性?特别是在实际应用环境中,常常会遇到不同类型的噪声干扰。 3、跨模态的语义理解: 如何提高模型对跨模态内容的语义理解能力?包括如何在生成过程中保持音频与视频内容的一致性,以及如何避免模态间的误解。 4、实时处理能力: 如何优化模型以达到实时处理的能力,尤其是在需同时处理音频和视频流的应用场景中,如视频会议、直播等?
3D数字人的感知、重建与生成技术是多模态交互数字人、全息通讯、虚拟主播、情感陪伴等前沿应用的核心支撑。本项目旨在推动如下课题的技术攻关: 1、3D数字人感知研究: 聚焦于利用多模态视觉语言模型、视频生成等先进方法,从单张图像或视频中高效、精准地提取数字人的表情与人体参数,提升数字人感知系统的准确度与鲁棒性。 2、3D数字人重建与生成研究: 致力于结合文本、图像、视频等多模态数据与生成式大模型技术,推动从单图或多视角图像中重建并生成高质量3D数字人(如高斯泼溅、三维网格等)技术的发展,增强模型的写实性与表现力。同时探索实时多模态驱动与渲染技术,构建低延迟、高真实感的沉浸式交互体验,为多模态交互数字人、全息通讯、虚拟主播、情感陪伴等场景提供核心能力。