小红书【Ace顶尖实习生】基于Diffusion LLM的基座大模型研究
任职要求
1、不限年级,本科及以上在读,计算机/人工智能/软件工程等相关专业优先; 2、扎实的编程能力和算法功底,熟练掌握Python/C++/Java等至少一种编程语言; 3、扎实的机器学习/深度学习理论基础,有大规模推荐系统、计算广告、搜索引擎等核心算法项目经验; 3、有LLM/MLLM等多模态理解技术背景,…
工作职责
在搜索等实际线上业务中,推理速度限定了线上可用的模型大小以及可达效果,当前的基于transformer架构的大模型基座在推理速度上存在系统性瓶颈。本课题探索基于创新框架,如diffusion LLM和linear attention model的大模型基座范式,从数据、模型预训练、后训练、AI Infra、评测等方向探索模型效果极限。
在搜索等实际线上业务中,推理速度限定了线上可用的模型大小以及可达效果,当前的基于transformer架构的大模型基座在推理速度上存在系统性瓶颈。本课题探索基于创新框架,如diffusion LLM和linear attention model的大模型基座范式,从数据、模型预训练、后训练、AI Infra、评测等方向探索模型效果极限。
传统的AI搜索依然基于RAG框架,少有的几个Agent框架也只涉及QueryPlanning,距离真实解决搜索中的实际问题还相距很远,例如做旅游攻略、做行业研究报告等等。我们判断,虽然当下LLM已经大范围的用于搜索领域,但是下一代的搜索技术变革一定是基于Agent的。本课题旨在研究基于Agent框架的基座模型。
传统审核大模型通常采用SFT的方式逼近人审对审核规则的识别精度,此时人工执行质量和规则合理性则成为机审体系性能上限。 本课题通过RLVR和Multi-Agent的方式,构造机审判别Agent与规则生成Agent的博弈学习,以对抗上升的方式不断提升审核规则的完备性以及相应机审识别的准召,使得机审可以突破人工上限,实现大模型智能在审核象限的涌现和“Aha moment”。
目前主流的素材混剪能力主要依赖于素材的端内容理解、表征匹配、高光检测等能力帮助一键完成整个视频剪辑过程,偏模板化,且预定义较为死板,无法支持更丰富的信息量注入,以及用户自主输入剪辑要求。 本课题希望通过大语言模型的语义指令解析能力,开放基于可自定义prompt的视频编辑能力,通过指令分解、协同主题文案生成的方式,帮助完成带有故事感文案生成能力的视频剪辑功能。主要的技术难点包括: 1、多模态理解与表征:需要模型能够深入理解不同模态内容(视频片段、图像、音频)的语义和上下文; 2、时序理解与编辑:视频混剪需要理解时序信息,包括情节发展、节奏感、转场点等; 3、文案生成和改写:可自定义主题、风格的素材文案生成能力。