传音IT-前端开发工程师-AI创新(J18541)
任职要求
1、计算机及相关专业,熟悉常用数据结构和算法。 2、JS/HTML/CSS 基础扎实,熟悉组件化开发,熟悉VUE。 3、 熟悉前端构建工具,熟悉webpac…
工作职责
1、参与AI创新和AI创新探索项目,为各业务产品线提供核心的AI支撑能力; 2、负责与相关业务线进行集成与研发。
1、负责开发IT统一运维平台、监控报警体系和Devops自动化平台的构建、设计、开发、部署、升级与维护,包括不限于监控告警系统、日志系统、容量管理、CMDB资源管理、配置中心、调度系统、流程系统、IM服务平台等系统开发 2、运维自动化工具开发:基于SRE运维工作,理解需求背景和业务发展,开发自动化工具和平台提升效率; 3、SRE高可用保障:参与故障应急、稳定性优化等工作,并设计系统助力运维能力提升; 4、负责IT成本管理,稳定性建设,日志分析、挖掘问题隐患、配合制作相关预案,项目跟进 5、负责日常应用运维oncall,SRE,包括配置、优化、备份、故障处理等工作 6、关注行业趋势变化和竞品动态,持续完善产品功能; 7、撰写详细的产品需求文档(PRD)、原型设计(Wireframe/Mockup),清晰地向团队梳理需求,推进落地。
关于我们: 阿里云 CIO 线致力于打造 AI 时代业界领先的企业 IT 系统,以 RaaS(Result as a Service)模式,通过 IT 系统的构建和应用向客户直接交付成果,帮助客户在 AI 时代获得长期优势。我们视 AI 为新的生产力,并采用全新的软件开发范式来构建产品。生产关系匹配生产力,故我们设计了新的产研组织形式,不同于传统产研团队按岗位分工(PD、设计、前端、后端、测试),在新组织下我们设置了AI产品设计前端工程师(PDFE)。 作为AI产品设计前端工程师(Product Design Frontend Engineer,PDFE),你将构建支持众多客户业务发展的客户端应用。该角色集成了传统产研团队中 PD、UED、前端的职责,基于 AI 软件开发新范式将三者合一,负责产品设计、界面实现和用户体验。从客户需求到产品界面,你将体验效率成倍提升,产品开发从未如此高效。 你将拥有难得的机会,深入了解阿里云的业务及阿里云客户的业务,直接与一线用户合作,了解他们所面临的棘手问题和紧迫挑战,并使用最新的 AI 技术和关键业务数据来解决。无论是“精准分析需求,提升客户体验”,还是“分析业务痛点,让运营更高效”,你都将运用你的技术专长、创造力和解决问题的能力,赋能客户取得业务成果。 ● 我们是一支以成果为核心的企业 IT 产研团队,聚焦将最新的 AI 技术落地到真实业务场景中,服务企业级客户。 ● 我们期待这样的你加入:人聪明,有品味,敢担当,有冲劲,有韧性。 ● 我们希望你有这样的能力:数学思维--抽象能力强;语文表达--写出好的 Prompt;业务升维--对业务的高维认知;系统架构--能设计复杂系统;销售服务--与客户建立信任和影响。 ● 我们想让每位同学都取得最佳成果,成为更好的自己。因此我们重视个人的基模、能力和意愿,而非传统职场资历。 岗位职责: 1. 用户洞察与需求设计:深入客户业务场景,建立对用户痛点的高维认知,通过定性方法和定量指标洞见需求背后的本质问题,对于包括功能性需求、非功能性需求、业务流程和规则,用需求工程规范化地前置厘清需求; 2. 产品设计与原型构建:设计符合业务逻辑的产品架构和交互流程,产出高保真原型,使用结构化描述和智能工具,迭代验证设计方案,确保与需求精准对齐; 3. 前端工程和实现:制定前端开发任务,使用各类 AI IDE 进行高质量的编码施工,与后端以 API First 原则协同,推动高效开发,完成功能验收和上线; 4. 持续优化与创新:基于用户反馈和数据指标持续优化产品体验,探索 AI 技术在产品中的创新应用,沉淀方法论和工具,赋能团队效率提升,对外分享实践,建立个人技术影响力。
-负责部门智能IT服务台的后端系统设计、开发和维护 -参与需求分析、系统设计、编码实现、测试上线等全生命周期的开发流程 -与客户端/前端工程师紧密合作,确保项目高效、稳定交互 -持续优化系统架构和代码质量,提升系统的可扩展性和可维护性 -关注行业技术发展动态,引入新技术解决业务痛点,提升产品竞争力
特斯拉信息技术部门(工作地点:特斯拉上海超级工厂)正在招聘一名全职IT AI Platform 开发工程师,专注于构建和扩展下一代 AIOps与MLOps平台。随着人工智能技术在企业核心系统(尤其是GenAI平台)中的深入应用,亟需一位能够打通AI研发与生产部署之间壁垒的工程专家。该岗位将负责从模型训练、版本管理、自动化部署到高性能推理服务的完整MLOps体系建设,并主导构建支持本地GPU与云端LLM API融合的混合式推理网关平台,以实现低延迟、高吞吐的企业级AI服务能力。推动GenAI平台及未来AI服务落地的关键力量,将显著提升AI功能的交付效率与稳定性。 岗位职责: • 设计、构建和维护可扩展的 MLOps平台,实现AI模型从训练、版本控制、部署到监控的全生命周期管理。 • 基于 vLLM、TensorRT-LLM 、TGI 等框架,在大规模GPU集群上开发并优化大语言模型(LLM)推理流水线。 • 构建融合本地GPU模型与云上LLM API 的混合推理网关平台,实现智能路由、负载均衡与成本性能的优化。 • 搭建自动化 LLM微调(Fine-Tuning)流水线,支持LoRA、QLoRA等参数高效训练方法,涵盖数据预处理、分布式训练与检查点管理。 • 推动 RAG(检索增强生成)能力服务化(RAG-as-a-Service),集成并运维主流向量数据库(如 Pinecone、Milvus、Weaviate)。 • 通过 Prometheus、Grafana、OpenTelemetry 及自研监控方案,保障AI系统的可观测性与稳定性。 • 与AI科学家和应用工程师协作进行模型优化(量化、剪枝、蒸馏),提升推理效率与资源利用率。 • 支持 GenAI CN平台的高性能模型服务需求,确保低延迟、高并发的服务能力。 • 制定AI模型服务的关键性能指标(KPI)与服务等级协议(SLA),量化业务价值与系统表现。 • 使用 GitLab CI、Jenkins、ArgoCD 等工具实现AI工作流的CI/CD自动化,确保可复现性与可审计性。