
智能互联阿里云智能-终端智能创新业务 Agent测试开发专家-杭州/上海/北京/深圳
任职要求
1. 深入理解AI Agent测试方法论,熟悉针对LLM/Agent非确定性输出的评估框架;具备 Agent 质量保证体系的架构设计能力; 2. 本科及以上学历,计算机/软件/人工智能相关专业,5年以上软件测试或研发经验; 3. 深刻理解AI Agent的核心测试挑战,能够设计专项评估测试方案;具备构建Agent评测数据集的完整实践经验; 4. 具备AI产品(LLM/AI Agent/RAG系统)测试开发或评测实践经验优先,熟悉LLM-as…
工作职责
1. 负责无影AI Agent产品全链路质量保证,针对Agent产品的各种功能与质量挑战,制定专项测试策略与评估体系,确保Agent产品的高质量、快节奏持续迭代交付; 2. 主导Agent产品需求与架构设计的质量评审,推动质量左移,在设计阶段识别并规避不可测风险;主导测试评估数据集的构建与迭代,建立Agent产品质量门禁与发布准出标准; 3. 探索AI Native测试新范式,将AI能力融入到日常测试中,持续提升测试效能与覆盖率; 4. 构建Agent评估能力的服务化平台,赋能研发团队在开发阶段自助完成Agent能力验证,将质量验证嵌入CI/CD 流程,实现 Agent 变更的自动化质量卡点; 5. 建设Agent线上质量监控与告警体系,持续追踪驱动质量问题根因分析与持续改进闭环。
1. 负责新一代AI驱动的PC产品质量保证工作与团队建设,主导质量团队的组织架构设计、人才梯队培养及绩效管理,打造一支具备系统底层、应用上层及 AI 评测能力的复合型质量团队,对最终产品交付质量与用户体验负责; 2. 构建覆盖“安卓系统-上层应用-AI Agent"的全链路质量保证体系。主导跨域质量架构设计,解决终端稳定性兼容性、云边端协同、分布式系统一致性、AI非确定性输出等复杂质量挑战,制定统一的质量门禁与发布准出标准,确保端到端交付质量; 3. 引领测试技术的智能化转型,探索"AI for Testing"与"Testing for AI"双轮驱动模式。一方面将 AI 能力融入自动化测试、用例生成、缺陷分析等环节提升效能;另一方面建立针对 AI Agent/LLM 产品的专项评估体系(如准确性、安全性、幻觉检测),解决非确定性输出的质量挑战,保持行业技术领先性; 4. 主导测试能力平台化与服务化建设,构建系统级、应用级、服务端及 AI 评估的自动化用例库。推动质量能力与 CI/CD 流水线深度集成,实现代码变更的自动化质量卡点。打造自助式质量验证平台,赋能研发、运维及合作伙伴,降低质量验证门槛,提升整体交付效率; 5. 建立多维度的质量度量体系,结合线上监控、灰度发布数据及用户反馈,驱动质量问题的根因分析与持续改进闭环,对线上重大质量事故负责,建立快速响应与防御机制,保障业务连续性。

1. 负责新一代AI驱动的PC产品质量保证工作与团队建设,主导质量团队的组织架构设计、人才梯队培养及绩效管理,打造一支具备系统底层、应用上层及 AI 评测能力的复合型质量团队,对最终产品交付质量与用户体验负责; 2. 构建覆盖“安卓系统-上层应用-AI Agent"的全链路质量保证体系。主导跨域质量架构设计,解决终端稳定性兼容性、云边端协同、分布式系统一致性、AI非确定性输出等复杂质量挑战,制定统一的质量门禁与发布准出标准,确保端到端交付质量; 3. 引领测试技术的智能化转型,探索"AI for Testing"与"Testing for AI"双轮驱动模式。一方面将 AI 能力融入自动化测试、用例生成、缺陷分析等环节提升效能;另一方面建立针对 AI Agent/LLM 产品的专项评估体系(如准确性、安全性、幻觉检测),解决非确定性输出的质量挑战,保持行业技术领先性; 4. 主导测试能力平台化与服务化建设,构建系统级、应用级、服务端及 AI 评估的自动化用例库。推动质量能力与 CI/CD 流水线深度集成,实现代码变更的自动化质量卡点。打造自助式质量验证平台,赋能研发、运维及合作伙伴,降低质量验证门槛,提升整体交付效率; 5. 建立多维度的质量度量体系,结合线上监控、灰度发布数据及用户反馈,驱动质量问题的根因分析与持续改进闭环,对线上重大质量事故负责,建立快速响应与防御机制,保障业务连续性。
1. 根据产品需求完成Android平台上的软件设计、编码及单元测试; 2. 与跨职能团队成员(如UI/UX设计师)协作,实现最佳用户体验; 3. 开发AI驱动的系统级应用(相机、相册等),定制System UI,实现任务栏、全局搜索、桌面手势,保障平板/桌面模式体验一致性; 4. 优化现有应用性能,并修复已知问题; 5. 负责智能体(Agent)应用的架构设计、开发和维护。