logo of nio

蔚来实习-AI应用研发后端工程师

实习兼职软件研发地点:上海状态:招聘

任职要求


1. LLM相关经验:
熟悉大语言模型(LLM)原理及工程化实践,对以下技术有认知或实践经验:
RAG(检索增强生成):能够结合外部知识库优化模型输出质量;
Planning(规划模块):参与过基于LLM的规划逻辑设计(如任务分解、路径规划等);
Tooluse(工具调用):熟悉工具链集成(如API调用、数据库交互、外部系统对接);
Memory(记忆模块):了解对话上下文管理或长期记忆存储的设计与实现;
MCP(模型上下文协议):熟悉MCP协议,有模型协作、MCPService集成和多路调用经验;
2. 编程语言:
Java:熟悉Spring Boot/Spring Cloud生态,了解微服务架构及分布式系统开发;
Python:精通Python编程,熟悉Flask/DjangoWeb框架,有AI后端开发经验。
3. 通用技能:
熟悉数据库(MySQL/Redis/Elasticsearch等)及消息中间件Kafka/RabbitMQ等);
了解云原生技术(Docker/Kubernetes)及CI/CD流程;
具备良好的代码规范意识,熟悉单元测试与性能调优。
4. 有LLM应用开发项目经验(如ChatBot、智能助手、RAG系统等)优先;
5. 熟悉Prompt Engineering或AI工程化落地方法论(如MLOps/LLMOps)优先;
6. 具备多线程/异步编程经验,或对高并发系统设计有理解优先。

工作职责


1. 参与基于大语言模型(LLM)的AI应用后端开发,包括核心逻辑设计、API接口开发及系统集成;
2. 研究并实践LLM相关技术(如RAG、Planning、Tooluse、Memory、MCP等),优化模型推理效率与业务适配性;
3. 设计并实现AI应用的后端架构,保障系统的高性能、高可用性及可扩展性;
4. 参与AI服务的部署、测试与性能优化,编写技术文档及维护代码;
5. 与算法团队协作,推动LLM模型在实际业务场景中的落地与迭代。
包括英文材料
大模型+
RAG+
MCP+
Java+
Spring Boot+
Spring Cloud+
微服务+
分布式系统+
Python+
Flask+
Django+
Web+
后端开发+
MySQL+
Redis+
ElasticSearch+
中间件+
Kafka+
RabbitMQ+
Docker+
Kubernetes+
CI+
CD+
性能调优+
Prompt+
多线程+
高并发+
系统设计+
相关职位

logo of sohu
实习技术

团队介绍: 作为搜狐媒体内容中心产品技术团队,我们聚焦AI与媒体融合创新,持续探索AI技术在内容生产、传播、商业化全链路的创新性实践。目前团队主要业务方向: 1、主攻品牌营销领域AI互动产品研发(线上H5/小程序+线下智能装置),通过创新交互模式助力客户品牌价值提升; 2、打造媒体内容AI智能化生产体系,研发媒体采编工具链与多模态内容引擎,持续提升内容生产效能; 3、建立新闻垂直领域AI能力评价标准,通过构建行业评测基准、专业数据集及领域适配模型,夯实AI技术在传媒场景的深度应用。 1、作为核⼼成员参与AI项目的设计与开发,构建⾯向媒体业务的AI应⽤和⼯具链; 2、负责全栈开发⼯作,涵盖AI服务的前端研发、后端研发、API设计及交互体验优化等; 3、参与AI模型的集成、部署和质量评测,提升媒体内容生产、运营、营销等环节的智能化⽔平; 4、团队项目⽬前处于快速演进阶段,⿎励创新和⼤胆尝试。

logo of antgroup
社招3年以上技术类-开发

1、开发大模型应用智能体相关后端服务和平台,包括不限于模型部署平台、Agent平台、大模型交互平台和应用等; 2、推动大模型在DevOps提效、安全风险合规、内外部智能体业务应用、爆款AI原生应用等场景的业务落地; 3、高级后端研发工程师,精通Java技术栈,拥有丰富的平台开发经验、分布式事务处理能力、有产品端到端落地经验优先。

更新于 2025-09-10
logo of xiaohongshu
校招后端开发

1、负责小红书AI创新应用的后端技术研发和产品迭代; 2、针对用户需求,结合AI模型的能力,打造市场上优秀的用户体验; 3、与客户端、前端、产品、设计、测试等团队紧密合作,完成项目推进和功能交付; 4、负责和多个大模型服务的调度模块,不断优化模型的调用链路。

更新于 2025-10-11
logo of 4paradigm
校招技术类

1、面向企业智能化升级,参与大模型应用方案、AI 技术中台、智能化业务等产品的研发工作 2、参与承载亿级日活的系统架构设计和实现 3、参与行业领先的企业级大模型应用方案的设计和开发。

更新于 2025-04-03