咪咕AI算法工程师(解说大模型方向)
任职要求
学历与专业:硕士研究生及以上学历,计算机科学、人工智能、自然语言处理、机器学习等相关专业。 技术背景:扎实的自然语言处理与深度学习理论基础,熟练掌握Python和主流深度学习框架(如PyTorch/TensorFlow)。 深刻理解大语言模型(LLM)的原理,具备丰富的模型微调(如LoRA, P-Tuning)和推理优化经验。 熟悉Prompt Engineering、思维链(CoT)等LLM相关技术,有成功的大语言模型应用项目经验。 核心经验:具备大语言模型(LLM)的研发…
工作职责
作为AI智慧观赛产品团队的核心算法成员,负责驱动AI解说大语言模型的研发与创新。目标是将实时的视频理解结果与丰富的体育知识深度融合,生成具有逻辑性、深度和情感感染力的智能解说,最终打造业界领先的AI观赛体验。 核心模型研发与调优:负责体育解说大语言模型的构建、微调与优化。重点研究长上下文记忆、拟人化思维链、多风格可控生成等关键技术,确保赛事叙事的逻辑闭环与自然流畅。 多模态信息融合:设计与实现“视觉画面特征+文本解说词+结构化赛事数据”的多模态信息融合框架,让大模型能“看懂”比赛,实现画面到语言的智能转换与深度解读。 知识增强与实时推理:结合知识图谱与RAG(检索增强生成)技术,使模型能够实时调用球员数据、历史对阵、战术知识等信息,生成具备专业深度的解说内容,如战术分析和球员对位解读。 可控生成与风格化:研发可控生成技术,使AI解说能够根据用户偏好或赛事节奏,在激情澎湃、专业沉稳、幽默风趣等多种风格间自然切换,提升解说的个性化和吸引力。 端到端链路协同:与视频理解、语音合成、数字人驱动等环节紧密协作,共同优化从视频流到最终解说呈现的全链路性能与实时性,确保用户体验的流畅与
作为AI智慧观赛产品团队的核心算法成员,负责驱动体育赛事视频内容理解技术的研发与创新。目标是让系统精准、实时地识别赛事中的核心元素与关键事件,为AI智能解说、多维赛场智瞰等核心功能提供高质量底层数据支撑,最终打造业界领先的AI观赛体验。 1. 核心视觉模型研发:负责体育赛事视频理解核心模型的构建、训练与优化,重点研究实时目标检测与跟踪(球员、球、裁判、场地标识等)、行为动作识别(射门、传球、运球、击球等)、关键事件检测(进球、犯规、得分、暂停等)技术,确保赛事核心信息捕获的准确性与实时性。 2. 多场景适配与鲁棒性优化:针对足、篮、乒等不同赛事的运动特性、场地规则差异,以及光照变化、遮挡、快速运动模糊等复杂场景,优化模型的泛化能力与鲁棒性,保障跨赛事、跨场景的稳定识别效果。 3. 视频语义信息提取:设计并实现赛事结构化数据生成方案,从视频流中提取球员轨迹、攻防转换节奏、战术阵型变化等语义信息,将原始视频数据转化为可被大模型理解的结构化特征与事件标签。 4. 实时性与工程化落地:优化模型推理速度与资源占用,结合TensorRT等推理加速框架,实现视频理解算法的端到端高效部署,满足赛事直播
1、在人工智能与游戏元宇宙的交叉领域中进行创新研究,探索新的游戏设计、交互与运营方式; 2、在互联网三大收入支柱(游戏、电商、广告)中的“游戏”进行创新研究,探索新的游戏设计、交互与运营方式; 3、深度参与游戏中玩家流失、战斗机器人、游戏精彩片段分析和解说、游戏外玩家匹配推荐等核心业务,从原因分析、组合优化、画像推荐匹配等角度解决高价值业务问题,以研究推动落地; 4、深入研究可解释、因果推断、回报分解、大模型提示词调优、匹配推荐、强化学习、异常检测等前沿AI领域; 5、借助游戏平台及数据迭代发展人工智能技术,深入高价值业务研究课题,在相关领域发表高质量论文或撰写专利。
业务场景: 在开放世界游戏环境中,进行游戏内容理解与动态解说,驱动智能体完成指定任务、实现自主探索,并支持多智能体复杂交互等前沿AI应用场景。 岗位职责: 研究与开发: 负责开放世界游戏场景下基于大语言模型(LLM)及视觉语言模型(VLM)的智能体(Agent)技术研究与开发,涵盖Prompt工程、上下文学习(ICL)、检索增强生成(RAG)、监督微调(SFT)、强化微调(RFT)等关键技术。 框架与工具链构建: 主导游戏智能体核心框架的设计与实现,推动训练数据合成、自动化评测体系及相关算法的研发。 工业化落地: 推动游戏智能体技术在游戏内容生产与玩家消费场景的工业化部署与产品化落地,实现技术价值转化。