logo of honor

荣耀先进热设计技术工程师

社招全职5年以上研发类地点:北京 | 深圳 | 西安状态:招聘

任职要求


1、具有热能与动力工程、制冷、流体机械、材料、机械等相关专业背景。有电子设备热设计、CFD仿真经验优先。
2、有两相散热部件设计、多物理场耦合设计、降噪设计、芯片封装散热设计等应用经验优先。
3、具备材料…
登录查看完整任职要求
微信扫码,1秒登录

工作职责


1、负责手机、PC、平板等产品系统热设计开发,构建有竞争力的整机散热解决方案,散热技术路标规划、需求分析、器件选型、架构设计、解决方案开发和验证;
2、负责先进散热新技术探索、预研及落地工作,在热功能材料、两相散热技术、主动散热创新技术、微尺度散热技术、柔性散热技术、器件封装散热技术等构建行业领先竞争力;
3、负责产品温控系统的方案设计和优化;达成极致的性能、噪音、发热的用户体验。
包括英文材料
学历+
相关职位

logo of mi
社招8年以上A129569

1. 对标行业先进热管理系统,制定能耗热管理技术路线,以及系统方案; 2. 对标竞品热管理功能与控制策略,指导热管理系统匹配和优化; 3. 负责热管理系统能耗目标制定,优化方案设计及方案落地。

更新于 2024-12-18北京
logo of mi
社招10年以上A135739

1.IPM模块设计与开发 ○负责智能功率模块(IPM)的架构设计,包括功率器件(IGBT/MOSFET)、驱动电路、保护电路、散热结构等关键部分的选型与优化。 ○主导从0到1的IPM模块开发,完成电路仿真(如热仿真、电气应力分析)、PCB布局、封装设计,确保高性能与高可靠性。 ○优化模块的电气特性(如开关损耗、导通电阻、短路耐受能力),提升能效与寿命。 ○针对家电(空调、冰箱、洗衣机)或新能源应用场景,定制化设计高性价比IPM方案。 ○研究新型封装技术(如DBC基板、烧结工艺、SiC集成),推动模块小型化与高功率密度设计。 2.量产与生产线建设 ○主导IPM模块的量产导入,制定生产工艺流程(如焊接、键合、灌胶、测试),建立质量控制点(CPK/SPC)。 ○搭建模块自动化测试线,设计老化、动态参数测试(如VCE(sat)、Esw)等关键工装设备。 ○解决量产中的良率问题(如焊接空洞、键合脱落),优化工艺窗口并形成标准化文件。 ○评估与选择封装代工厂,审核其技术能力与品控体系,确保供应链稳定性。 ○制定模块可靠性测试标准(如HTGB、H3TRB、功率循环),确保产品寿命符合行业要求。 3.技术突破与成本优化 ○主导二合一/三合一集成模块(如IPM+PFC)开发,减少系统体积与BOM成本。 ○推动国产化器件替代(如IGBT芯片、驱动IC),降低供应链风险与成本。 ○研究先进散热方案(如双面冷却、液态金属),提升模块过载能力。 ○建立模块设计规范与仿真模型库,缩短新产品开发周期。 ○跟踪行业技术趋势(如SiC/GaN应用),规划下一代模块技术路线。 4.团队协作与知识沉淀 ○指导硬件工程师完成系统级应用设计(如驱动电阻优化、EMC对策)。 ○编写模块设计指南、失效分析报告、工艺标准等技术文档。 ○培养封装与测试工程师团队,提升整体技术能力。 ○参与客户技术支持,解决模块应用中的疑难问题(如炸机分析)。

更新于 2025-04-16武汉
logo of bytedance
校招A21204

团队介绍:推荐架构团队支撑字节跳动旗下多款APP产品,如抖音、今日头条、番茄小说、西瓜视频、剪映等推荐系统架构的设计和开发,保障系统的稳定和高可用,致力于抽象系统通用组件和服务,建设推荐中台、数据中台;关于在线服务,在这里你有机会参与大规模机器学习在线预估框架的研发与优化,也有机会参与模型训练与调度等相关问题的研究与突破,解决系统瓶颈,降低成本开销;如你对大数据感兴趣,在这里也有机会参与通用实时计算系统的开发、构建统一的推荐特征中台,为推荐业务实现先进的消重、计数、特征服务等;我们期待热爱技术的你加入,一起创造更多可能。 课题介绍: 1、课题背景 在人工智能技术高速发展的背景下,推荐系统作为信息过滤与个性化服务的核心,面临多重挑战: (1)数据爆炸与模型复杂化 用户行为序列数据量呈指数级增长(百亿至千亿级/日),存储需求从单用户长序列扩展至多模态数据(文本、视频、Embedding等),传统存储架构面临读写性能瓶颈与成本压力;推荐大模型对数据质量敏感度提升,数据分布异常可能导致模型效果显著下降,亟需系统性数据质量评估与改进方法。 (2)异构计算与多模态处理需求 随着生成式AI(GenAI)的普及,多模态特征处理成为刚需,传统基于CPU的大数据框架(如Spark/Hadoop)难以高效处理非结构化数据,GPU/DPU等异构计算资源利用率不足;数据处理流程与模型训练脱节,ETL环节耗时长,CPU-GPU协同效率低下,导致算法迭代周期延长。 在此背景下,以数据为中心的人工智能(DCAI)与异构计算技术成为破局关键: -DCAI 强调通过数据质量优化与自动化处理链路提升模型性能,而非单纯依赖模型改进; -异构计算 通过统一调度CPU、GPU、DPU等资源,加速多模态数据处理与模型训练,实现降本增效。 2、课题目标 (1)构建支持多模态数据的低成本高性能存储引擎:支持百亿级用户行为序列与多模态数据混合存储,实现读写延时与存储量解耦,满足PB级数据天级回溯需求; (2)设计自适应数据演化的Schema管理机制:动态兼容特征增删改,确保训推一致性,降低模型迭代中的数据迁移成本; (3)研发多模态数据异构计算框架:实现CPU-GPU-DPU协同计算,加速ETL、特征处理与模型训练,提升资源利用率30%以上; (4)建立数据质量与模型性能的量化评估体系:开发自动化工具链,通过强化学习优化数据清洗、增强与异常检测流程; (5)打造以Python为核心的开发者生态:提供灵活API与可视化工具,支持快速接入多模态数据处理与DCAI优化链路。 3、研究内容 (1)多模态存储引擎与编码优化 - 混合存储架构 - 分层设计:行为序列采用时间分区+LSM-Tree存储,多模态数据(如图像/文本)采用对象存储+元数据索引,结合CXL内存池化技术降低访问延迟; - 编码优化:针对用户行为序列设计变长Delta编码,多模态数据采用深度学习压缩模型(如VAE),压缩比提升50%以上。 -Schema动态演化 - 开发基于Protobuf的版本化Schema语言,支持特征字段热更新,兼容历史数据回溯训练。 (2)异构计算框架与资源调度 - 计算引擎整合 - 基于Ray构建统一数据湖,实现Spark/GPU算子混合编排,数据从ETL到训练Tensor化零拷贝传输; - 设计DPU加速层,将哈希计算、特征编码等操作卸载至智能网卡,释放CPU/GPU算力。 - 多模态处理优化 - 文本/视频数据采用GPU流水线预处理,利用NVIDIA RAPIDS加速特征提取; - Embedding数据通过量化感知训练(QAT) 减少显存占用,支持FP16/INT8混合精度计算。 (3)数据质量与DCAI自动化链路 - 质量评估体系 - 定义多维度指标:时空一致性(行为时序异常检测)、模态对齐度(图文匹配校验)、噪声容忍阈值(基于模型鲁棒性反推)。 - 自动化优化工具 - 开发强化学习代理,根据模型反馈自动选择数据清洗策略(如GAN-based数据增强 vs. 规则过滤); - 构建因果推理模块,定位数据分布偏移对模型AUC下降的贡献度,生成根因分析报告。 (4)开发者生态与效能提升 - Python原生接口 - 提供声明式数据处理DSL,支持通过Python装饰器定义GPU加速算子(如@gpu_map); - 集成Jupyter可视化工具,实时展示数据质量热力图与模型性能关联分析。 - 效能监控体系 - 建立资源-质量-效果三维监控看板,跟踪存储成本、数据处理吞吐量、模型AUC等核心指标。

更新于 2025-05-19上海
logo of bytedance
校招A192513

团队介绍:推荐架构团队支撑字节跳动旗下多款APP产品,如抖音、今日头条、番茄小说、西瓜视频、剪映等推荐系统架构的设计和开发,保障系统的稳定和高可用,致力于抽象系统通用组件和服务,建设推荐中台、数据中台;关于在线服务,在这里你有机会参与大规模机器学习在线预估框架的研发与优化,也有机会参与模型训练与调度等相关问题的研究与突破,解决系统瓶颈,降低成本开销;如你对大数据感兴趣,在这里也有机会参与通用实时计算系统的开发、构建统一的推荐特征中台,为推荐业务实现先进的消重、计数、特征服务等;我们期待热爱技术的你加入,一起创造更多可能。 课题介绍: 1、课题背景 在人工智能技术高速发展的背景下,推荐系统作为信息过滤与个性化服务的核心,面临多重挑战: (1)数据爆炸与模型复杂化 用户行为序列数据量呈指数级增长(百亿至千亿级/日),存储需求从单用户长序列扩展至多模态数据(文本、视频、Embedding等),传统存储架构面临读写性能瓶颈与成本压力;推荐大模型对数据质量敏感度提升,数据分布异常可能导致模型效果显著下降,亟需系统性数据质量评估与改进方法。 (2)异构计算与多模态处理需求 随着生成式AI(GenAI)的普及,多模态特征处理成为刚需,传统基于CPU的大数据框架(如Spark/Hadoop)难以高效处理非结构化数据,GPU/DPU等异构计算资源利用率不足;数据处理流程与模型训练脱节,ETL环节耗时长,CPU-GPU协同效率低下,导致算法迭代周期延长。 在此背景下,以数据为中心的人工智能(DCAI)与异构计算技术成为破局关键: -DCAI 强调通过数据质量优化与自动化处理链路提升模型性能,而非单纯依赖模型改进; -异构计算 通过统一调度CPU、GPU、DPU等资源,加速多模态数据处理与模型训练,实现降本增效。 2、课题目标 (1)构建支持多模态数据的低成本高性能存储引擎:支持百亿级用户行为序列与多模态数据混合存储,实现读写延时与存储量解耦,满足PB级数据天级回溯需求; (2)设计自适应数据演化的Schema管理机制:动态兼容特征增删改,确保训推一致性,降低模型迭代中的数据迁移成本; (3)研发多模态数据异构计算框架:实现CPU-GPU-DPU协同计算,加速ETL、特征处理与模型训练,提升资源利用率30%以上; (4)建立数据质量与模型性能的量化评估体系:开发自动化工具链,通过强化学习优化数据清洗、增强与异常检测流程; (5)打造以Python为核心的开发者生态:提供灵活API与可视化工具,支持快速接入多模态数据处理与DCAI优化链路。 3、研究内容 (1)多模态存储引擎与编码优化 - 混合存储架构 - 分层设计:行为序列采用时间分区+LSM-Tree存储,多模态数据(如图像/文本)采用对象存储+元数据索引,结合CXL内存池化技术降低访问延迟; - 编码优化:针对用户行为序列设计变长Delta编码,多模态数据采用深度学习压缩模型(如VAE),压缩比提升50%以上。 -Schema动态演化 - 开发基于Protobuf的版本化Schema语言,支持特征字段热更新,兼容历史数据回溯训练。 (2)异构计算框架与资源调度 - 计算引擎整合 - 基于Ray构建统一数据湖,实现Spark/GPU算子混合编排,数据从ETL到训练Tensor化零拷贝传输; - 设计DPU加速层,将哈希计算、特征编码等操作卸载至智能网卡,释放CPU/GPU算力。 - 多模态处理优化 - 文本/视频数据采用GPU流水线预处理,利用NVIDIA RAPIDS加速特征提取; - Embedding数据通过量化感知训练(QAT) 减少显存占用,支持FP16/INT8混合精度计算。 (3)数据质量与DCAI自动化链路 - 质量评估体系 - 定义多维度指标:时空一致性(行为时序异常检测)、模态对齐度(图文匹配校验)、噪声容忍阈值(基于模型鲁棒性反推)。 - 自动化优化工具 - 开发强化学习代理,根据模型反馈自动选择数据清洗策略(如GAN-based数据增强 vs. 规则过滤); - 构建因果推理模块,定位数据分布偏移对模型AUC下降的贡献度,生成根因分析报告。 (4)开发者生态与效能提升 - Python原生接口 - 提供声明式数据处理DSL,支持通过Python装饰器定义GPU加速算子(如@gpu_map); - 集成Jupyter可视化工具,实时展示数据质量热力图与模型性能关联分析。 - 效能监控体系 - 建立资源-质量-效果三维监控看板,跟踪存储成本、数据处理吞吐量、模型AUC等核心指标。

更新于 2025-05-19北京