
智能互联达摩院-测试开发工程师 (模型框架方向)-计算技术
任职要求
1. 计算机科学或者数学专业硕士学历。至少3年以上模型测试开发经验。 2. 精通计算机体系结构,精通C/C++/Python编程能力, 熟悉linux系统、Jenkins、Git等,能熟练开发自动化测试工具。 3. 具备模型框架…
工作职责
1. 开发模型框架测试代码,负责大模型框架功能、性能、稳定性等自动化测试,对编译器质量进行看护。 2. 负责项目测试集代码开发以及项目自动化测试工作,如前期需求分析、制定测试策略、设计和开发测试集和自动化测试脚本开发。 3. 和开发团队合作定位问题,分析错误原因以及协助验证问题修复。

1. 跟踪大模型的国际前沿算法技术动态,定期输出技术调研报告并试点验证,评估其在业务中的应用价值; 2. 负责大模型在端侧/边缘场景的优化与落地,包括模型压缩、推理加速、多模态输入处理与上下文管理; 3. 负责数据计算、运动控制、图像处理算法的研发与优化; 4. 跨团队参与产品的需求评审,制定算法验收标准,配合测试团队完成算法在各应用场景下的效果验证与版本迭代; 5. 主导算法在 RISC-V 架构硬件上的移植、量化与性能优化,确保算法运行的稳定性和实时性; 6. 负责撰写设计方案、接口规范等技术文档,参与专利布局及相关学术论文的撰写;

1. 开发模型框架测试代码,负责大模型框架功能、性能、稳定性等自动化测试,对编译器质量进行看护。 2. 负责项目测试集代码开发以及项目自动化测试工作,如前期需求分析、制定测试策略、设计和开发测试集和自动化测试脚本开发。 3. 和开发团队合作定位问题,分析错误原因以及协助验证问题修复。

1. 负责AI全栈测试,涵盖大语言模型(LLM)、视觉模型(CNN/Transformer等)的精度验证、性能测试。 2. 负责AI工具链测试,包括模型编译优化、量化部署及NPU相关固件、算子、多芯片互联等功能与性能验证; 3. 负责RISC-V工具链测试,包括调试工具(GDB扩展/Trace)及编译器(LLVM/GCC定制)的测试; 4. 设计和执行测试方案,覆盖单元测试、集成测试、系统测试全流程,开发自动化测试用例; 5. 负责AI推理服务全流程测试,包括模型加载、动态批处理、精度验证、资源监控等; 6. 开展AI推理性能基准测试,分析硬件加速效率与瓶颈,提出优化建议;构建高并发压力测试框架,评估服务在QPS、P99延迟、错误率等指标下的稳定性;

1. 复杂系统级建模与集成 (Complex System-Level Modeling and Integration): -- 主导新型异构并行计算架构的系统级功能模型 (System-Level Functional Model) 设计与实现。 -- 负责集成各个IP模块的功能行为模型 (Behavioral Model),构建完整的片上系统 (SoC) 虚拟平台 (Virtual Platform),并确保模型在功能上的高保真度 (High Fidelity)。 -- 该模型将作为固件 (Firmware)、驱动程序 (Driver) 以及上层应用软件 (Application Software) 开发、预集成和早期验证的基础平台。 2. 关键IP的精确级建模 (Precise-Level Modeling for Key IP): -- 对自研或定制的关键计算IP(如NPU/DSP/专用加速器等)执行事务级 (Transaction-Level) 的比特精确功能建模 (Bit-Accurate Functional Modeling)。 -- 确保模型和设计Spec的准确性, IP级模型将作为Golden Model 用于RTL功能验证,支持算法验证和早期性能瓶颈分析。 3. 建模方法学研究与性能优化 (Modeling Methodology Research and Performance Optimization): -- 研究并引入先进的功能建模方法学和仿真技术(如**TLM 2.0/SystemC/C++**等)。 -- 专注于提升模型仿真速度 (Simulation Speed) 和吞吐量 (Throughput),以满足大规模软件回归测试和快速迭代的需求。 -- 持续优化虚拟平台的效率 (Efficiency) 和可扩展性 (Scalability)。