影石测试开发工程师(算法测试A)
任职要求
1、教育背景: - 本科及以上学历,计算机科学、电子工程、自动化、通信工程、应用数学、物理、仪器科学与技术等相关专业。 2、核心技能与经验: - 软件测试或算法测试经验,至少1年专注于传统信号处理/图像处理/模式识别算法的测试验证; - 深入理解传统算法: 对常见传统检测算法的原理和应用有深入理解; - 测试设计与执行能力: 精通测试用例设计方法(等价类、边界值、场景法等),具备独立设计复杂算法测试方案的能力; - 数据分析能力: 精通使用Python进行数据处理、分析和可视化,熟悉常用性能…
工作职责
1、测试需求分析与计划: - 深入理解算法设计文档、规格说明书及核心数学模型,明确算法的功能边界、性能指标(如检测率、误报率、精度、召回率等); - 根据需求,设计全面、高效的测试策略、测试方案和测试计划,覆盖功能、性能、边界、异常、鲁棒性、回归等测试类型; - 开发自动化测试脚本和搭建测试框架,提升测试效率和重复性; 2、测试执行与缺陷管理: - 执行测试用例,利用信号分析工具、数据分析工具(如Python的NumPy/SciPy/Pandas)等对算法输出进行详细分析; - 精确记录测试结果、性能指标数据、日志; - 准确定位、分析、报告算法缺陷(Bug),清晰描述问题现象、复现步骤、影响范围,协助开发工程师排查问题根源; - 追踪缺陷生命周期,直至有效解决; 3、测试报告与质量评估: - 编写清晰、详实的测试报告,总结测试结果,量化分析算法性能(如ROC曲线、混淆矩阵、精度/召回率曲线、F1值等),评估其是否满足产品需求; - 提供客观、数据驱动的算法质量评估,为算法是否进入下一阶段(如集成测试、发布)提供决策依据;
有⼴告技术(AdTech)、营销科技(MarTech)或 To B SaaS 平台测试经验者优先; 熟悉程序化⼴告⽣态(DSP/SSP/Ad Exchange)或 RTB 协议者加分; ⼴告投放全链路验证,重点测试⼴告请求、竞价逻辑、素材渲染及⽤户⾏为追踪(如点击、安装、转化)的端到端流程,确保⼴告主预算消耗与开发者收益数据的精准匹配,同时验证防作弊机制(如点击劫持检测)的有效性; 跨平台 SDK/API 兼容性及稳定性测试,针对 Android、iOS、Unity 等不同开发环境,深度验证 SDK 集成后的⼴告加载性能、内存占⽤及崩溃率,同步测试⼴告 API 在⾼并发场景下的响应稳定性与数据回传延迟,确保开发者集成后⽤户体验⽆损; 实时竞价(RTB)压⼒测试与算法验证,通过模拟全球多区域百万级QPS 的竞价请求,评估 DSP 系统在流量洪峰下的响应延迟与容错能⼒,同时运⽤ A/B 测试框架验证机器学习模型(如 CTR 预测、⼴告排序)的迭代效果,确保⼴告主 ROI 与平台收⼊的双向优化。
有⼴告技术(AdTech)、营销科技(MarTech)或 To B SaaS 平台测试经验者优先; 熟悉程序化⼴告⽣态(DSP/SSP/Ad Exchange)或 RTB 协议者加分; ⼴告投放全链路验证,重点测试⼴告请求、竞价逻辑、素材渲染及⽤户⾏为追踪(如点击、安装、转化)的端到端流程,确保⼴告主预算消耗与开发者收益数据的精准匹配,同时验证防作弊机制(如点击劫持检测)的有效性; 跨平台 SDK/API 兼容性及稳定性测试,针对 Android、iOS、Unity 等不同开发环境,深度验证 SDK 集成后的⼴告加载性能、内存占⽤及崩溃率,同步测试⼴告 API 在⾼并发场景下的响应稳定性与数据回传延迟,确保开发者集成后⽤户体验⽆损; 实时竞价(RTB)压⼒测试与算法验证,通过模拟全球多区域百万级QPS 的竞价请求,评估 DSP 系统在流量洪峰下的响应延迟与容错能⼒,同时运⽤ A/B 测试框架验证机器学习模型(如 CTR 预测、⼴告排序)的迭代效果,确保⼴告主 ROI 与平台收⼊的双向优化。
1. AI产品评测体系构建 独立负责AI产品(NLP/CV/多模态等)的评测方案设计、指标制定与实施,覆盖准确性、鲁棒性、公平性、用户体验等维度 开发自动化评测工具链,构建可复用的评测框架与基线数据集 2. 全生命周期质量保障 主导从模型研发到上线的全流程评测,包括但不限于:数据质量评估、模型版本对比、A/B测试、线上效果监控 针对大语言模型(LLM等)、生成式AI等前沿方向设计专项评测方案 3. 技术赋能与团队成长 主导技术难点攻关(如幻觉检测、提示词对抗测试等),沉淀方法论并培训团队成员 搭建团队知识库,定期组织技术分享,提升整体AI评测能力 4. 跨团队协同 与算法、产品、研发团队深度协作,推动评测结果驱动产品迭代
1. AI产品评测体系构建:独立负责AI产品(NLP/CV/多模态等)的评测方案设计、指标制定与实施,覆盖准确性、鲁棒性、公平性、用户体验等维度,开发自动化评测工具链,构建可复用的评测框架与基线数据集; 2. 全生命周期质量保障:主导从模型研发到上线的全流程评测,包括但不限于:数据质量评估、模型版本对比、A/B测试、线上效果监控,针对大语言模型(LLM等)、生成式AI等前沿方向设计专项评测方案; 3. 技术赋能与团队成长:主导技术难点攻关(如幻觉检测、提示词对抗测试等),沉淀方法论并培训团队成员,搭建团队知识库,定期组织技术分享,提升整体AI评测能力; 4. 跨团队协同:与算法、产品、研发团队深度协作,推动评测结果驱动产品迭代。