logo of cxmt

长鑫存储大数据开发工程师 | Big Data Development Engineer(J12061)

社招全职5年以上信息技术类地点:合肥状态:招聘

任职要求


1. 全日制本科及其以上且至少5年以上软件开发经验。
2. 对JavaPython 等语言具有较为丰富的开发经验,熟悉设计模式微服务架构、Restful API数据服务等。
3. 熟悉MySQL/Postgresql/Oceanbase等数据库一种或多种,从而能进行良好的数据模型设计并进行较高质量的代码开发(例如良好的SQL,良好的Java/Pytho…
登录查看完整任职要求
微信扫码,1秒登录

工作职责


1. 基于数据产品经理&产品经理输出的需求(主要是PRD 、原型等)进行相应的设计和开发工作,为效率和质量负责。
2. 对初中级开发工程师进行技术开发指导,促进他们的成长。
包括英文材料
Java+
Python+
设计模式+
微服务+
REST+
SQL+
MySQL+
PostgreSQL+
OceanBase+
还有更多 •••
相关职位

logo of cxmt
社招3年以上研发技术类

深入业务视角,以多模态大数据建模及计算物理仿真为基础,借助AI赋能,帮助半导体工程/工艺/元件特性先行预测与优化,提升工程/工艺/元件研发效率。 工作职责: 1.基于半导体工程/工艺/元件研发需求,开发AI Agent,实现研发流程的自动化与智能化; 2.结合大模型技术(如LLM、多模态大模型等),构建智能化的业务交互与决策系统,提升研发效率; 3.基于产品全生命周期的生产大数据,开发根因查询(RCA)、虚拟量测(VM)、高级工艺控制(APC)、高级机台控制(AEC)等智能化解决方案; 4.开发基于业务驱动的智能工程/工艺/元件设计优化工具,结合物理信息神经网络(PINN)、复杂结构数字孪生、先进材料自动选型等技术,实现研发创新; 5.与半导体研发工程师深入合作,理解业务逻辑,打通数据流,设计并开发能够替代工程师重复操作的AI Agent; 6.探索大模型及AI Agent在半导体研发中的应用场景,推动AI技术与业务需求的深度融合。

更新于 2025-09-19合肥
logo of cxmt
社招5年以上研发技术类

1. 参与半导体测试相关软件或算法(如自动化测试、数据分析平台等)的需求分析、架构设计和代码开发; 2. 编写高质量、可维护的代码,完成模块开发、单元测试及系统集成测试; 3. 维护和升级现有软件系统/算法,跟踪和修复缺陷并提升性能,优化生产控制逻辑或数据处理流程等; 4. 编写技术文档,包括设计文档、接口文档及用户操作手册等; 5. 跟踪行业技术趋势(如 AI、大数据处理等),探索新技术在半导体测试中的应用。

更新于 2025-09-30合肥
logo of bytedance
校招A238623

Team Introduction: TikTok Content Security Algorithm Research Team The International Content Safety Algorithm Research Team is dedicated to maintaining a safe and trustworthy environment for users of ByteDance's international products. We develop and iterate on machine learning models and information systems to identify risks earlier, respond to incidents faster, and monitor potential threats more effectively. The team also leads the development of foundational large models for products. In the R&D process, we tackle key challenges such as data compliance, model reasoning capability, and multilingual performance optimization. Our goal is to build secure, compliant, and high-performance models that empower various business scenarios across the platform, including content moderation, search, and recommendation. Research Project Background: In recent years, Large Language Models (LLMs) have achieved remarkable progress across various domains of natural language processing (NLP) and artificial intelligence. These models have demonstrated impressive capabilities in tasks such as language generation, question answering, and text translation. However, reasoning remains a key area for further improvement. Current approaches to enhancing reasoning abilities often rely on large amounts of Supervised Fine-Tuning (SFT) data. However, acquiring such high-quality SFT data is expensive and poses a significant barrier to scalable model development and deployment. To address this, OpenAI's o1 series of models have made progress by increasing the length of the Chain-of-Thought (CoT) reasoning process. While this technique has proven effective, how to efficiently scale this approach in practical testing remains an open question. Recent research has explored alternative methods such as Process-based Reward Model (PRM), Reinforcement Learning (RL), and Monte Carlo Tree Search (MCTS) to improve reasoning. However, these approaches still fall short of the general reasoning performance achieved by OpenAI's o1 series of models. Notably, the recent DeepSeek R1 paper suggests that pure RL methods can enable LLM to autonomously develop reasoning skills without relying on the expensive SFT data, revealing the substantial potential of RL in advancing LLM capabilities. 团队介绍: 国际化内容安全算法研究团队致力于为字节跳动国际化产品的用户维护安全可信赖环境,通过开发、迭代机器学习模型和信息系统以更早、更快发掘风险、监控风险、响应紧急事件,团队同时负责产品基座大模型的研发,我们在研发过程中需要解决数据合规、模型推理能力、多语种性能优化等方面的问题,从而为平台上的内容审核、搜索、推荐等多项业务提供安全合规,性能优越的基座模型。 课题介绍: 课题背景: 近年来,大规模语言模型(Large Language Models, LLM)在自然语言处理和人工智能的各个领域都取得了显著的进展。这些模型展示了强大的能力,例如在生成语言、回答问题、翻译文本等任务上表现优异。然而,LLM 的推理能力仍有很大的提升空间。在现有的研究中,通常依赖于大量的监督微调(Supervised Fine-Tuning, SFT)数据来增强模型的推理性能。然而,高质量 SFT 数据的获取成本高昂,这对模型的开发和应用带来了极大的限制。 为了提升推理能力,OpenAI 的 o1 系列模型通过增加思维链(Chain-of-Thought, CoT)的推理过程长度取得了一定的成功。这种方法虽然有效,但在实际测试时如何高效地进行扩展仍是一个开放的问题。一些研究尝试使用基于过程的奖励模型(Process-based Reward Model, PRM)、强化学习(Reinforcement Learning, RL)以及蒙特卡洛树搜索算法(Monte Carlo Tree Search, MCTS)等方法来解决推理问题,然而这些方法尚未能达到 OpenAI o1 系列模型的通用推理性能水平。最近deepseek r1在论文中提到通过纯强化学习的方法,可以使得 LLM 自主发展推理能力,而无需依赖昂贵的 SFT 数据。这一系列的工作都揭示着强化学习对LLM的巨大潜力。 课题挑战: 1、Reward模型的设计:在强化学习过程中,设计一个合适的reward模型是关键。Reward模型需要准确地反映推理过程的效果,并引导模型逐步提升其推理能力。这不仅要求对不同任务精准设定评估标准,还要确保reward模型能够在训练过程中动态调整,以适应模型性能的变化和提高。 2、稳定的训练过程:在缺乏高质量SFT数据的情况下,如何确保强化学习过程中的稳定训练是一个重大挑战。强化学习过程通常涉及大量的探索和试错,这可能导致训练不稳定甚至模型性能下降。需要开发具有鲁棒性的训练方法,以保证模型在训练过程中的稳定性和效果。 3、如何从数学和代码任务上拓展到自然语言任务上:现有的推理强化方法主要应用在数学和代码这些CoT数据量相对丰富的任务上。然而,自然语言任务的开放性和复杂性更高,如何将成功的RL策略从这些相对简单的任务拓展到自然语言处理任务上,要求对数据处理和RL方法进行深入的研究和创新,以实现跨任务的通用推理能力。 4、推理效率的提升:在保证推理性能的前提下,提升推理效率也是一个重要挑战。推理过程的效率直接影响到模型在实际应用中的可用性和经济性。可以考虑利用知识蒸馏技术,将复杂模型的知识传递给较小的模型,以减少计算资源消耗。另外,使用长思维链(Long Chain-of-Thought, Long-CoT)技术来改进短思维链(Short-CoT)模型,也是一种潜在的方法,以在保证推理质量的同时提升推理速度。

更新于 2025-05-26新加坡
logo of bytedance
校招A218205

Team Introduction: The ByteDance Recommendation Architecture Team is responsible for the design and development of the recommendation system architecture for ByteDance's related products. It ensures the stability and high availability of the system, optimizes the performance of online services and offline data streams, resolves system bottlenecks, and reduces cost overheads. The team also abstracts the common components and services of the system, builds the recommendation middle - office and data middle - office to support the rapid incubation of new products and enable ToB services. 团队介绍: 字节跳动推荐架构团队,负责字节跳动旗下相关产品的推荐系统架构的设计和开发,保障系统稳定和高可用;负责在线服务、离线数据流性能优化,解决系统瓶颈,降低成本开销;抽象系统通用组件和服务,建设推荐中台、数据中台,支撑新产品快速孵化以及为ToB赋能。 课题背景: 在当今数字化时代,推荐系统已成为众多领域(如电商、信息资讯等)实现个性化服务、提升用户体验和竞争力的关键技术。然而,随着技术的不断发展和业务场景的日益复杂,推荐系统面临着诸多严峻挑战。 一方面,推荐系统自身的复杂性急剧增加。大量推荐策略不断演进迭代,且系统状态动态变化,但缺乏有效手段自动跟踪评估策略有效性并下线低 ROI 策略,导致系统存在较多低效策略。同时,推荐系统依赖多种基础组件,其复杂负载模型给底层组件参数配置和性能调优带来巨大困难,日常开发迭代中的问题排查等工作消耗大量人力,亟需提升开发效率、降低人力成本。 另一方面,随着电商行业等领域的激烈竞争,传统推荐系统在多样性、创新性和个性化方面的短板愈发凸显,难以满足用户日益增长的多元需求。生成式人工智能技术虽带来新突破,但在实际应用中面临成本效率、全域数据协同、数据隐私与安全以及技术变革应对等诸多难题。 此外,随着大模型的快速发展,推荐系统对用户行为序列数据的存储和质量要求不断提高,数据质量对模型性能的影响愈发关键。同时,模型规模的扩大和多模态数据的涌现,使得推荐系统在数据处理环节面临冗长、资源利用不合理以及传统数据处理框架难以满足多模态数据处理需求等问题。 课题挑战: 策略管理与优化:构建一套智能化系统,实现推荐策略的规范化定义、长期及离线评估、无效策略自动识别与下线,以及相关代码配置的下线。 自适应调优与故障诊断:针对推荐系统多样化业务负载,利用大模型能力完成系统及底层组件的参数和配置调优,并探索自适应故障诊断方案,提供全局视角的故障追踪、定位和分析能力。 成本与效率平衡:在推荐系统应用生成式技术时,解决模型训练和运行的高成本问题,平衡成本与效率,在有限资源下实现高效推荐。 全域数据处理:应对电商等横向全域场景下海量异构数据,提升和保障数据质量与准确性,标准化供给数据给全域推荐模型,并实现低成本跨端服务,同时,确保数据隐私与安全,合规使用数据。 数据存储与质量提升:研发低成本高性能存储引擎,设计灵活的Schema Evolution机制,实现数据高并发实时写入与训推一致性,深入探究数据质量与模型预测性能的量化关系,构建基于DCAI理念的数据和模型相关性分析工具及训练数据自动化处理链路。 多模态数据与异构计算:构建适用于推荐系统的多模态数据异构计算处理框架,解决数据读取、框架整合、高性能算子编排等问题,提高数据处理和模型训练效率,建立以Python为核心的开发者生态。 推荐大算力模型效率优化:随着大模型在CV/NLP/多模态以至于AGI领域的不断突破,推荐场景下的大算力驱动能够帮助模型更全面深刻理解用户偏好,进而更好地理解用户需求,挖掘用户潜在兴趣,进而带来更好地用户体验。更大规模的推荐模型需要更大的算力,如何平衡好算力开销和效果收益,需要架构和算法工程师深度Co-Design。

更新于 2025-05-26新加坡