安克创新AI算法评测工程师
任职要求
1. 教育背景:人工智能、计算机科学、电子工程、自动化、机器人学或相关专业本科及以上学历; 2. 经验要求:有实际视觉项目/竞赛经验,了解大模型推理/微调相关理论者优先; 3. 技能要求:熟练掌握使用python、linux命令,熟悉计算机视觉(CV)或机器人感知(如SLAM、Sensor Fusion)模型的性能评价指标及理论; 4. 具备良好的逻辑思维能力、解决问题能力和自我驱动力。
工作职责
1. 与算法、产品密切配合,共同制定视觉AI算法评测标准,设计测试方案与用例,包含感知、运动控制、决策等算法; 2. 熟悉智能硬件产品,专注视觉算法模块测试,构建贴近真实的测试环境,验证AI模型性能与边界能力,协同算法/嵌入式工程师迭代优化; 3. 数据驱动优化,面对不同类型产品,构建对应基于场景的标准化评测数据集,输出算法模型关键性能指标,进行badcase深度分析; 4. 评测体系搭建,建立标准化、可复用的AI模型评测流程与自动化工具链,提升测试覆盖率和效率; 5. 竞品分析:横向竞品AI能力评测,输出差异化分析报告,指导产品技术决策与卖点打造。
1. 与算法、产品密切配合,共同制定视觉AI算法评测标准,设计测试方案与用例,包含感知、运动控制、决策等算法; 2. 熟悉智能硬件产品,专注视觉算法模块测试,构建贴近真实的测试环境,验证AI模型性能与边界能力,协同算法/嵌入式工程师迭代优化; 3. 数据驱动优化,面对不同类型产品,构建对应基于场景的标准化评测数据集,输出算法模型关键性能指标,进行badcase深度分析; 4. 评测体系搭建,建立标准化、可复用的AI模型评测流程与自动化工具链,提升测试覆盖率和效率; 5. 竞品分析:横向竞品AI能力评测,输出差异化分析报告,指导产品技术决策与卖点打造。
1. 按照产品架构和业务要求,设计覆盖功能及非功能需求的质量保障策略,主要负责AI/算法类产品质量(如智能引擎、大模型应用); 2. 参与产品系统架构建设和规划,针对AI系统特性进行专项测试方案设计,保障系统稳定性; 3. 解决测试复杂技术问题,开发适配算法服务的测试工具(评测数据集构造、模型效果评估等),提升效能与品质; 4. 研究测试新技术方法,重点推进AI算法评测、AI原生应用测试能力升级等创新方向,攻克算法领域特有质量难题; 5. 能结合AI行业发展趋势,制定合适的质量技术发展规划,提升团队技术视野和技术影响力。
1、负责飞书AI产品相关的评测工作,包含AI算法的评测体系建设、评测集构建、以及相关评测工程化建设等; 2、负责ASR、MT、NLP等相关领域产品的交付品质,制定合理的验收机制,来评估模型品质,指导模型优化方向; 3、负责AI算法的评测标准和评测流程制定,构建评测集,并推进评测执行,分析评测结果,对模型质量给予充分评估; 4、建设相关评测工具/平台,推动评测工程化和无人化。
团队介绍:语音团队致力于语音、音频、音乐等大模型AIGC技术的研发和产品创新,我们的使命是通过多模态AIGC音频技术赋能内容创作与语音交互,让内容生产、消费与互动变得简单、沉浸、多元化。当前团队已有成熟的语音生成、声音克隆、音频理解与处理、音乐理解和生成等领域的技术,一方面以中台形式服务于公司众多业务线,另一方面,通过火山引擎开放平台-AI中台-音频技术、商用音乐平台-易颂等,向众多企业开放技术成熟稳定的能力和服务。 1、负责字节跳动语音相关产品的TTS、ASR、多模态交互模型等场景的效果评估,站在用户视角构建端到端的算法效果评测体系; 2、深入业务结合业务需求痛点,设计完备的算法效果质量保障、评测方案;构建合理且置信的标准化评测体系,解决业务评测效率和效果问题; 3、推动通用人工智能评测方案的升级迭代,逐步推广至公司内的商业化平台。