特斯拉2026届-电机质量工程师(机械)
任职要求
2026应届毕业生,毕业时间在2025年11月至2026年10月毕业的海内外学生,统招本科及以上学历;
毕业于机械类、电气自动化类等专业:如机电一体化,焊接技术与自动化,材料成型及制造,电气自动化(电机控制)等;
英语可作为工作语言,满足国际化协同工作要求;
承压能力强,乐于接受挑战,对智能制造/质量管控抱有浓厚兴趣和独到见解;
具有极强的自驱力/学习能力/适应能力,致力于投入到快节奏变革中。
工作在特斯拉:
富有竞争力的基本薪酬:在特斯拉,所有岗位的薪酬都会从多重维度对标行业内外的顶尖公司,通过制定科学合理的薪酬方案以确保薪酬的竞争力。
全员持股:每位加入特斯拉的伙伴都会被股票激励政策所覆盖,成为特斯拉的股东;同时,员工还可以参与员工股票购买计划(ESPP),以优惠的折扣价购买特斯拉股票,与公司实现财富的共同成长。
补充住房公积金:特斯拉为每位员工缴纳高标准的住房公积金,缴纳标准为12%,当城市最高缴纳标准低于12%时,公司将通过现金的方式补齐。
补充商业医疗保险:特斯拉…工作职责
THE ROLE 作为DU质量工程师,你将主要负责特斯拉电驱产品的制造质量管理,保障产线生产制造质量稳定及交付可靠的产品。你能够掌握全世界最先进、最全面的产品质量工艺及标准规范;获取行业顶尖的培训资源,助力你成为制造技术专家;扁平化结构,多样化职业发展通道助你快速成长。 RESPONSIBILITIES职责描述: 遵守公司规章制度,严格按照作业指导书工作,积极查找安全隐患,及时汇报安全隐患和事故,提出安全合理化建议,通过不断改进,创造安全健康的工作环境 ; 质量文件管理:编制并参与维护产线PFMEA、PF及CP等工艺质量文件,并负责文件变更,评审管理; 产品质量标准的编制与修订:根据产品实际生产情况及产品工程spec标准,持续性的维护产品质量标准,并负责定义与更新CP 要求; 生产线问题解决:快速响应生产线问题,从质量问题解决的方法和流程上支持DU车间解决生产线因为人、机、料、法、环、测等各方面原因造成的问题;并根据风险评估流程做好风险件管理和风险评估; 新项目SOP开阀:根据新项目需求,跟踪新项目各项目节点各功能模块项目导入阶段的开阀材料评审和放行。监督并实时反馈新项目各阶段验收工作的实际状态和风险,持续跟踪问题点的关闭并监控产品爬坡直至达产时的质量表现; 生产线FTT监控:监控各条产线量产阶段的FTT表现,并寻求FTT 上可改善的空间。持续提升FTT表现; 持续改善:持续性的在质量、成本、效率以及安全等方向上发现问题并进行改善,持续性的关注产品质量表现并进行改善; 合作性:需要与全球工厂进行协作,解决复杂问题,参与工艺过程标准的制定。能够运用质量大数据高效分析和解决质量问题。 REQUIREMENTS
我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 1、参与设计实现支持RLHF/DPO等对齐技术的高效训练框架,优化强化学习阶段的Rollout、Reward Model集成、多阶段训练 Pipline; 2、研发支持多机多卡 RL 的分布式训练框架,开发TP/PP/ZeRO-3与RL流程的动态协同机制,解决 RL 算法在超长时序下的显存/通信瓶刭 3、构建端到端后训练工具链,主导框架与 MLOps 平台集成,提供训练可视化、自动超参搜索等生产级能力 4、与公司各算法部门深度合作,参与大语言模型LLM、多模态大模型 MLLM等业务在 SFT/RL领域的算法探索和引擎迭代; 5、参与分析各业务 GPU 利用率与饱和度等指标,结合业务场景持续优化训练框架能力,提升框架领先性。
【业务介绍】 作为公司统一的机器学习平台团队,负责调度公司所有模型训练与推理资源;基于自建的训推引擎,构建公司统一的机器学习平台,为公司所有算法同学(稀疏 & 稠密,含 LLM) 模型迭代提供端到端的一站式服务;包括 数据生产,模型训练,模型上线,特征管理,模型测试,资源管控等一系列能力。 【岗位职责】 1、负责机器学习链路,离在线数据相关的开发工作,包括样本数据、特征数据等的数据链路搭建、任务运维和调优、性能优化等 2、负责小红书大规模机器学习平台的后台系统设计和开发工作;包括样本平台,特征平台,训练平台,推理平台等AI应用后台建设等; 3、研究分析业内AI平台产品,优化技术方案,改进产品功能,完善产品体验。
我们是小红书中台大模型 Infra 团队,专注打造领先易用的「AI 大模型全链路基础设施」!团队深耕大模型「数-训-压-推-评」技术闭环,在大模型训练加速、模型压缩、推理优化、部署提效等方向积累了深厚的技术优势,基于 RedAccel 训练引擎、RedSlim 压缩工具、RedServing 推理部署引擎、DirectLLM 大模型 API 服务、QuickSilver 大模型生产部署平台等核心产品,持续赋能社区、商业、交易、安全、数平、研效等多个核心业务,实现 AI 技术高效落地! 工作职责: 1、参与/负责研发面向大语言模型(LLM)/多模态大模型(MLLM)等类型模型的推理服务框架; 2、参与/负责KV Router、PD分离/EPD分离、KVCache管理、动态PD调整等分布式推理能力建设; 3、通过并行计算优化、分布式架构优化、异构调度等多种框架技术,打造高效、易用、领先的AI推理框架; 4、参与/负责构建推理框架的系统容错能力,包括但不限于请求迁移、优雅退出、故障检测、自愈等能力建设; 5、深度参与周边深度学习系统多个子方向的工作,包括但不限于模型管理、推理部署、日志/监控、工作流编排等; 6、与全公司各业务算法部门深度合作,为重点项目进行算法与系统的联合优化,支撑业务目标达成。
大模型具备很强的泛化及理解世界能力,在小红书内的众多生产场景遍地开花,大模型的训练和部署已成为许多算法工程师的日常。在多团队、多业务频繁使用的大规模GPU集群上,如何能够通过高效的GPU调度策略,使大家不仅能丝滑地完成训练及部署任务,同时也能充分激发大规模GPU集群的效能,是行业公认的关键挑战。在这里,你可以聚焦LLM场景,接触到超大规模GPU集群,并使用真实负载数据进行深入分析及技术探索。欢迎加入我们,一起探索领先技术改变世界! 工作职责: 1、负责万卡规模GPU集群效能分析及优化,通过调度策略优化、在离线混部、集群调度、GPU虚拟化、故障快速恢复、存储&网络加速等手段,提升大规模GPU集群的整体使用效率。 2、负责构建面向大模型训练、微调、推理、部署全流程LLMOps,与下游云原生平台深度融合,支撑大模型在公司内各业务生产链路稳定高效地落地。 3、持续关注业界最新的GPU资源调度相关技术动态,探索建设业界领先的资源调度策略及方法,构建下一代大规模AI资源调度系统。