阿里云阿里云智能-服务端研发-AI Coding方向
任职要求
1、本科及以上学历,计算机科学、软件工程或相关专业;硕士学历或具备分布式系统/大模型工程化落地经验者优先; 2、编程能力:精通 Go/Java 至少一门语言; 3、深度掌握服务化架构设计(如模型调度中台、API网关),主导过复杂分布式系统架构设计与落地;熟悉资源弹性调度算法、成本优化策略(如GPU资源复用)及容灾方案设计; 4、熟悉多Regi…
工作职责
1、大模型服务架构设计:主导多模态LLM服务化架构与模型调度中台建设,实现自研/云服务/三方模型的弹性调度与资源优化,支撑代码生成、智能问答等高并发AI场景; 2、AI产品工程化落地:负责海量用户级AI编程平台服务端架构设计,构建高可用微服务架构,主导及支撑智能补全、代码智能体等核心场景的技术实现; 3、云原生运维体系构建:基于多Region架构设计服务网格治理、全链路监控及混沌工程方案,实现租户资源隔离、故障自愈能力; 4、安全风控系统开发:设计租户权限控制模型,构建金融级交易风控系统,覆盖身份核验、支付安全及交易全生命周期管理; 5、技术生态创新:推动AIOps、Serverless等技术在AI场景的落地,协同优化模型推理加速方案,构建测试-迭代-部署的DevOps闭环。
1.负责大数据web系统的前端开发(主要在国际化支撑、智能能力建设等方向),包括需求分析、系统设计、编码和测试等工作。 2.根据产品需求和设计文档,独立完成前端的开发和优化,保证页面的性能和用户体验。 3.与后端开发人员紧密合作,进行接口对接和数据交互,确保系统的稳定性和数据的准确性。 4.参与系统的维护和优化工作,及时解决系统中出现的问题和bug。 5.AI Coding技术的应用和推广,业内技术发展追踪,不断学习和掌握新技术,提升团队的开发效率和技术水平。
团队介绍:TRAE(The Real AI Engineer),是字节跳动旗下产品,一个能理解需求、调动工具、独立完成开发任务的 AI 工程师,为用户提供端到端生成真实软件的服务。TRAE是当前国内最受欢迎的AI编程产品之一,也是全球首个端到端AI软件开发Agent产品,可覆盖简单到复杂全场景。我们正在寻找充满热情、富有创造力的人才。期待你的加入,与我们共同重塑开发范式,定义未来开发的形态。 1、负责字节跳动AI Coding产品运营和增长相关服务端架构和研发工作; 2、协同产品及运营团队,深度参与到业务增长的全部环节,支持研发落地的业务场景,包括但不限于:用户获取、留存提升、激励增长、内容增长、跨端联动等。
以大模型对话技术为核心,探索前沿技术问题,研究方向主要为垂域模型的研究与构建。目标是为用户提供专属的玩乐变美便捷生活小助手,实现“技术驱动业务范式”的升级转变,最终助力商业价值全面提升。 研究方向一:Agent能力增强 基于Agent的用户助理,研究提升Agent自主规划能力,并通过Agent构建和基于后训练的优化,实现数字助理的能力复刻和增强。 研究方向二:强化学习算法研究 参与大语言模型后训练阶段的强化学习算法研究,包括基于AI和环境反馈的强化学习(RLXF)算法。同时探索奖励模型与反馈机制,研究可泛化的细粒度过程监督和奖励建模,探索基于细粒度反馈的强化学习算法。 研究方向三:垂域模型定制化构建 领域认知智能突破,探索小样本场景自演进架构设计、可信推理机制构建等方向,同时建立面向AGI的模型评价体系新范式。 研究方向四:精准上下文理解与长程依赖建模 研究如何高效、准确地捕获和利用复杂的项目级上下文信息(如整个代码库、依赖关系、API文档、Issue跟踪等),探索能够处理超长代码序列、理解跨文件依赖和项目架构的先进模型结构与表征方法,以支持更精准、更全局的代码智能,从而提升业务研发在存量代码中迭代的效率。
Team Introduction: The Search Team is primarily responsible for the innovation of search algorithm and architecture research and development (R&D) for products such as Douyin, Toutiao, and Xigua Video, as well as businesses like E-commerce and Local Services. We leverage cutting-edge machine learning technologies for end-to-end modeling and continuously push for breakthroughs. We also focus on the construction and performance optimization of distributed and machine learning systems — ranging from memory and disk optimization to innovations in index compression and exploration of recall and ranking algorithms — providing students with ample opportunities to grow and develop themselves. The main areas of work include: 1. Exploring Cutting-Edge NLP Technologies: From basic tasks like word segmentation and Named Entity Recognition (NER) to advanced business functions like text and multimodal pre-training, query analysis, and fundamental relevance modeling, we apply deep learning models throughout the pipeline where every detail presents a challenge. 2. Cross-Modal Matching Technologies: Applying deep learning techniques that combine Computer Vision (CV) and Natural Language Processing (NLP) in search, we aim to achieve powerful semantic understanding and retrieval capabilities for multimodal video search. 3. Large-Scale Streaming Machine Learning Technologies: Utilising large-scale machine learning to address recommendation challenges in search, making the search more personalized and intuitive in understanding user needs. 4. Architecture for data at the scale of hundreds of billions: Conducting in-depth research and innovation in all aspects, from large-scale offline computing and performance and scheduling optimization of distributed systems to building high-availability, high-throughput, and low-latency online services. 5. Recommendation Technologies: Leveraging ultra-large-scale machine learning to build industry-leading search recommendation systems and continuously explore and innovate in search recommendation technologies. 团队介绍: 字节跳动搜索团队主要负责抖音、今日头条、西瓜视频等产品以及电商、生活服务等业务的搜索算法创新和架构研发工作。我们使用前沿的机器学习技术进行端到端建模并不断创新突破,同时专注于分布式系统、机器学习系统的构建和性能优化,从内存、Disk等优化到索引压缩、召回、排序等算法的探索,充分给同学们提供成长自我的机会。 主要工作方向包括: 1、探索前沿的NLP技术:从基础的分词、NER,文本、多模态预训练,到业务上的Query分析、基础相关性等,全链路应用深度学习模型,每个细节都充满挑战; 2、跨模态匹配技术:在搜索中应用CV+NLP深度学习技术,实现多模态视频搜索强大的语义理解和检索能力; 3、大规模流式机器学习技术:应用大规模机器学习,解决搜索中的推荐问题,让搜索更加个性化更加懂你; 4、千亿级数据规模的架构:从大规模离线计算,分布式系统的性能、调度优化,到构建高可用、高吞吐和低延迟的在线服务的方方面面都有深入研究和创新; 5、推荐技术:基于超大规模机器学习技术,构建业界领先的搜索推荐系统,对搜索推荐技术进行探索和创新。 课题背景/目标: 随着大模型技术的快速发展,智能搜索领域迎来了新的机遇和挑战。传统搜索技术在面对海量数据、多模态信息以及用户复杂需求时,逐渐暴露出模型容量不足、语义理解能力有限、资源利用率低等问题。基于大模型的智能搜索构建旨在通过引入大模型技术,提升搜索系统的智能化水平,优化用户体验,并解决超大规模检索、复杂语义理解、资源高效利用等核心问题。具体目标包括: 1、探索大模型与排序算法的结合,提升个性化排序的精度和用户体验; 2、研究生成式检索算法,解决百亿乃至千亿级别候选库的超大规模检索问题; 3、利用大语言模型(LLM)提升复杂多义query的搜索满意度; 4、构建高性能、低资源消耗的大规模批流一体检索和计算系统,提升资源利用率。 课题挑战/必要性: 1、个性化排序的挑战:传统排序算法难以充分利用多模态信息(如文本、图像、视频等),且模型复杂度有限,无法满足用户对精准化和个性化搜索的需求; 2、超大规模检索的挑战:传统判别式模型在千亿级别候选库的检索中,面临模型容量不足、索引效率低下等问题,亟需新一代检索算法; 3、复杂query理解的挑战:用户搜索需求日益复杂,传统搜索引擎难以准确理解长难句、多义query的语义,导致搜索结果满意度低; 4、资源利用率的挑战:搜索系统存储和计算分离的架构导致资源利用率低,如何在保证性能的同时优化资源使用成为关键问题; 5、基于大模型的智能搜索构建是解决上述挑战的必要途径。通过引入大模型技术,可以显著提升搜索系统的语义理解能力、检索效率和资源利用率,从而为用户提供更精准、更高效的搜索体验。 课题内容: 1、个性化排序大模型研究; 2、超大规模生成式检索算法研究; 3、基于LLM提升复杂多义query的搜索满意度; 4、高性能大规模批流一体检索和计算系统。 涉及的研究方向:排序大模型、生成式检索与跨模态融合、大语言模型(LLM)与复杂query理解、高性能计算与存储架构。