
智能互联达摩院-模型框架测试开发工程师-计算技术
任职要求
1. 计算机科学或者数学专业硕士学历。至少3年以上模型测试开发经验。 2. 精通计算机体系结构,精通C/C++/Python编程能力, 熟悉linux系统、Jenkins、Git等,能熟练开发自动化测试工具。 3. 具备模型框架…
工作职责
1. 开发模型框架测试代码,负责大模型框架功能、性能、稳定性等自动化测试,对编译器质量进行看护。 2. 负责项目测试集代码开发以及项目自动化测试工作,如前期需求分析、制定测试策略、设计和开发测试集和自动化测试脚本开发。 3. 和开发团队合作定位问题,分析错误原因以及协助验证问题修复。

1. 开发模型框架测试代码,负责大模型框架功能、性能、稳定性等自动化测试,对编译器质量进行看护。 2. 负责项目测试集代码开发以及项目自动化测试工作,如前期需求分析、制定测试策略、设计和开发测试集和自动化测试脚本开发。 3. 和开发团队合作定位问题,分析错误原因以及协助验证问题修复。

1. 负责AI全栈测试,涵盖大语言模型(LLM)、视觉模型(CNN/Transformer等)的精度验证、性能测试。 2. 负责AI工具链测试,包括模型编译优化、量化部署及NPU相关固件、算子、多芯片互联等功能与性能验证; 3. 负责RISC-V工具链测试,包括调试工具(GDB扩展/Trace)及编译器(LLVM/GCC定制)的测试; 4. 设计和执行测试方案,覆盖单元测试、集成测试、系统测试全流程,开发自动化测试用例; 5. 负责AI推理服务全流程测试,包括模型加载、动态批处理、精度验证、资源监控等; 6. 开展AI推理性能基准测试,分析硬件加速效率与瓶颈,提出优化建议;构建高并发压力测试框架,评估服务在QPS、P99延迟、错误率等指标下的稳定性;

1. 跟踪大模型的国际前沿算法技术动态,定期输出技术调研报告并试点验证,评估其在业务中的应用价值; 2. 负责大模型在端侧/边缘场景的优化与落地,包括模型压缩、推理加速、多模态输入处理与上下文管理; 3. 负责数据计算、运动控制、图像处理算法的研发与优化; 4. 跨团队参与产品的需求评审,制定算法验收标准,配合测试团队完成算法在各应用场景下的效果验证与版本迭代; 5. 主导算法在 RISC-V 架构硬件上的移植、量化与性能优化,确保算法运行的稳定性和实时性; 6. 负责撰写设计方案、接口规范等技术文档,参与专利布局及相关学术论文的撰写;