小红书大模型研发工程师(质量研效)
任职要求
1、计算机相关专业本科及以上学历(含应届博士),有扎实的计算机基础知识和编程功底,良好的数据结构基础; 2、熟悉大语言模型(LLM)架构,有大语言模型应用开发经验,在智能问答、代码review、代码续写、测试用例生成等方向有成功经验; 3、至少掌握一门高级语言, 包括Java、Golang、C/C++、Python; 4、精通多线程编程,熟悉常见的开源分布式中间件、缓存、消息队列、数据库等; 5、有强烈的好奇心,对前沿技术保持敏感。具有良好的沟通能力、学习能力和团队合作精神; 6、深刻理解研发流程和实践,良好的工程师思维,准确把握需求; 7、有较强的技术视野,学习能力强,有较好的沟通与表达; 8、拥有项目管理及协作、代码托管、CI/CD、DevOps、客户端UI自动化生成、测试用例生成等效能工具开发经验者优先;
工作职责
1、参与大模型在公司质效领域的应用落地,包括使用开源模型或者API搭建大模型应用架构、评测体系建设、智能体建设、智能CR、智能问答、UI自动化、测试用例生成等; 2、学习跟踪业界大模型在效能领域的最新进展,并探索大模型在公司效能方向的机会点和提升改进落地效果;
1、构建以 AI 驱动的研发效能与质量保障工具链,提升研发体系的智能化水平; 2、参与大模型能力在质量及研效工具中的探索与落地,包括但不限于智能代码补全、智能代码CR、测试流量生成、UI自动化生成等; 3、深入理解公司多元业务场景(社区/电商/多媒体/搜推广),通过创新技术手段解决研发效能与质量痛点; 4、与前沿技术同行(如 AI Coding、AI Testing),共创高效、高质量的研发交付体系。 加入我们,参与构建下一代智能研发体系! 你将有机会站在 AI 技术最前沿,推动大模型在研发效能与质量保障领域的应用,打造面向未来的智能研发工具链。 你将获得深度参与 AI+质效的实际落地,参与顶级工程问题的探索与解决;与一群志同道合、极具技术热情的伙伴共事;Mentor带教机制与成长支持体系,助你从学生快速成长为具备行业影响力的工程师。 #后端 #客户端 #开发 #测开 #测试 #测试开发 #研效 #研发效能 #质量 #大模型 #LLM #引擎架构 #自动化
我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 1、探索研发针对大语言模型、多模态大模型、StableDiffusion模型等模型的压缩技术,包括但不限于量化、蒸馏、剪枝、稀疏化等; 2、参与/负责多个业务场景中的模型压缩技术实现,对模型进行轻量化压缩,提高训练/推理效率,支持业务降本增效; 3、参与/负责针对英伟达GPU、华为昇腾NPU等不同的计算硬件,制定不同的模型压缩方案并在业务落地;
我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 1、负责大模型平台的架构设计和核心功能研发,构建云原生架构,设计高可用、高性能的微服务体系; 2、负责构建面向大模型全流程的DevOps,与下游云原生平台深度融合,支撑大模型在公司内各业务生产链路稳定高效地落地; 3、负责万卡规模GPU集群效能分析及优化,通过调度策略优化、在离线混部、GPU虚拟化、存储&网络加速等手段,提升GPU集群使用效率; 4、将平台和框架结合,通过任务调度、弹性容灾、性能优化等措施端到端提升AI生产效率,涉及k8s/kubeflow、网络通信、分布式训练等; 5、优化各AI平台性能,提升系统稳定性和可扩展性,保障大规模并发场景下的服务质量与用户体验; 6、持续研究分析业内创新AI平台产品,优化技术方案,改进产品功能,提升创新能力与产品体验。