字节跳动Android高级开发工程师-抖音中长视频(杭州)
任职要求
1、本科学历及以上,计算机及相关专业,具有一定的 Android 开发经验; 2、具备扎实的Java / kotlin 语言基础,熟悉常用的数据结构和算法,熟悉Android框架及各种特性,熟悉面向对象编程,理解设计模式; 3、精通 Android 的开发框架,熟悉 Android 系…
工作职责
1、负责抖音中视频业务的功能研发和体验优化,深入参与产品需求讨论,功能定义等; 2、负责抖音中视频业务的架构设计、基础组件开发、性能优化等工作,持续提高开发效率; 3、关注客户端新技术发展,探索及实践,推动团队的技术研究和创新; 4、根据团队整体目标与规划,参与重大项目研发,进行技术难题攻关。
1、负责抖音中长视频业务全流程质量保障工作,能从质量、效率、安全、体验等多个角度提升业务质量;2、负责跟产品、研发团队建立高效协作流程; 3、负责或者参与业务质量体系的规划。
团队介绍:智能创作团队是字节跳动的创作场景业务中台,以AI赋能创造,致力于通过AI技术降低创作门槛,赋能视觉内容生产与创作的智能化升级。团队深度支持抖音、剪映、即梦、豆包、商业化等多个业务线,持续深耕图片与视频生成、智能剪辑、数字人、特效等多个业务场景,通过由AI驱动的智能化工具与算法,为用户提供了更智能、更便捷、更丰富的创作体验,助力普通用户轻松实现高质量内容创作,同时为专业创作者提供强大的技术支持,推动内容生态的繁荣与创新。 课题背景: 视频创作是内容平台生态的最关键环节。随着AGI大模型技术的发展,行业内AI视频创作Workflow不断革新,传统的视频剪辑工具面临严峻行业挑战。AI Native视频创作大模型技术,旨在研发一套基于大模型的视频创作系统,来改善用户创作过程中灵感匮乏、创作提质提效及降低门槛使人人都是优质创作者等难点问题。应用上,可落地支持抖音、剪映Capcut、Flow等业务场景的图片与视频创作及AI工具,形成公司关键业务场景的核心生态壁垒。 课题挑战: 1、中长视频多模态理解能力:创作场景需要对用户素材充分理解,因此大模型需要对输入视频的画面、声音及语音等能充分理解,具备素材剪辑处理的通用理解能力; 2、创作领域专业Agent能力:大模型需要具备创作领域AGI的潜力,对于营销、UGC、PGC等不同创作场景,模型需要具备优质视频创作知识储备,能基于原子能力Tools规划合理的Action Sequence完成创作; 3、多模态输出能力:在视频创作领域,需要进行视频效果包装,因此模型需要具备输出音效/声音/文字贴纸/转场特效等能力; 4、高效率模型推理:由于输入视频时长较长,任务复杂,考虑应用落地成本,模型在处理长Context的推理效率与实际效果的Trade-off依赖技术突破; 5、视觉可控生成与编辑:通过大规模数据的训练,由文本、图片、音频、视频等多模态信息输入引导,生成高质量图像与视频;重点突破保留ID/IP/Style等特征信息的一致性控制技术以及数字人视频生成技术,探索更轻量、更高速、可实时、交互性强的生成技术。
如果你,期望在阿里巴巴生态的广阔场景中,借助海量用户数据和先进的技术能力,打造千人千面的个性化数字人形象生产系统,为亿级用户提供高度定制化的虚拟形象服务; 如果你,期望攻克高保真语音驱动(Speech-to-Video)的核心难题,研发业界领先的唇形同步、情绪化面部表情及肢体动作生成算法,实现从音频到视频的端到端极致还原,赋予数字人如同真人般的自然表达力与情感共鸣; 如果你,期望挑战实时流式生成的技术难题,探索扩散模型与自回归模型的极速推理优化,实现低延迟、高吞吐的视频流实时产出,打破离线渲染的局限,支撑起百万级并发的实时交互直播场景; 如果你,期望突破数字人与物理世界的边界,深耕复杂物体交互(Human-Object Interaction)技术,解决数字人在手持商品、展示道具等动态交互过程中的物理规律约束、空间一致性及遮挡还原难题,让数字人在导购、演播等场景中具备真实的物体操控能力; 如果你,期望深入探索多模态统一大模型的应用,将视觉、语音、文本与动作序列深度融合,构建具备精细环境感知与逻辑理解能力的数字人系统,在复杂的电商实景中实现人-物-场的高度协同与自然对答。 加入我们,你的成果将直接应用于电商领域的核心场景——AI实时直播、智能客服、交互式数字导购,影响数以亿计的用户。在这里,你不仅是在写代码,更是在通过流式架构与交互算法,重新定义未来数字人的无限可能! 研究背景:在 AIGC 浪潮下,数字人已从早期的录像进化为动态实时生成。然而,业界仍面临三大核心挑战: 交互的自然度: 如何让数字人的肢体、表情与复杂的语音情感高度对齐,消除“恐怖谷”效应。 物理规律的缺失: 在电商直播等场景中,数字人需要手持商品、展示道具,如何解决手部交互(HOI)中的遮挡、形变及空间一致性是当前的技术深水区。 实时性的瓶颈: 扩散模型效果虽好但推理慢,如何实现低延迟的流式视频生成,是数字人从视频工具走向实时互动的必经之路。 研究课题: 基于扩散模型的高保真流式视频生成架构研究; 复杂场景下的人与物体交互(HOI)视频生成; 多模态情感驱动的全身动作与表情协同生成; 成长资源: 1、算力自由: 远离“算力焦虑”,专注于算法创新。 2、海量高质数据: 拥有业界独有的、极其丰富的多模态商业场景数据,未视频生成,HOI等前沿课题提供土壤。 3、鼓励顶会产出: 团队在保持业务领先的同时,高度重视学术沉淀。鼓励将研究成果总结并发表至CVPR、SIGGRAP、HNeurIPS 等顶会,支持参加国际学术会议,提升行业影响力。 4、工业界顶级专家的 1v1 指导: 团队由来自国内外顶尖院校的博士和工业界资深专家组成,实行“师兄制”,从学术论文投稿到工程落地全过程深度带教。
近期,随着OpenAI发布第一个文生视频大模型Sora,其能够生成包含复杂场景、生动角色表情及复杂镜头运动的长视频,进一步引起了业界的广泛关注。目前,现有的视频转音频技术[9-11] 通常采用联合训练方式,利用预训练的跨模态基础模型[12-13] 或扩散模型来解决这一问题。然而,这些方法未能全面挖掘音视频多模态信息之间的精确对应关系(比如: 时间、节奏、远近、材质、内容、方向、速度、等等),仅能得到宽泛的音视频对应关系, 离实际应用(比如真正的短视频以及电影配音)尚有很大差距。并且后续精确的配音可以向全景声以及立体环绕声方向发展,和VR以及 AR 以及娱乐产业结合。 本研究题目拟解决基于内容理解的视频到音频的精确生成问题。