阿里巴巴AI Business-测试开发工程师-杭州
任职要求
* 本科及以上学历,硕士优先,计算机、软件、电子、通信、物联网、自动化、数学等相关专业; * 熟悉Java、C、C++、Python、Perl等至少一种编程语言; * 熟悉软件研发流程,掌握软件测试理论和方法,有设计和开发测试工具和自动化测试框架能力更佳; * 熟悉基础的计算机系统结构、操作系统、计算机网络、分布式系统、数据库等知识; * 熟悉并了解AI大模型算法,对自然语言理解,图像识别等算法有一些了解,对AI感兴趣; * 有广泛的技术视野,具备很强的学习能力和解决问题的能力; * 喜欢钻研技术,对质量捍卫有热情,不断追求产品用户体验的完善; * 有一定的项目管理经验,管控项目节奏和流程,协同多方推动项目有序进行; * 有责任心,积极主动,善于沟通,有团队合作意识。
工作职责
1、负责AI相关平台产品的质量体系建设,保障业务的交付质量; 2、全程参与业务线的安全生产能力建设,项目质量保障相关工作,保障业务稳定性; 3、分析研发过程中痛点,通过流程优化,研发支撑体系建设提升研发效率; 4、关注体验,通过技术性能提升,产品痛点分析,工单优化等多种手段提升用户体验。
我们正在寻找一位经验丰富的高级开发工程师,加入我们的AI技术团队,负责Agent框架平台的研发工作。您将参与设计和实现先进的Agent系统架构,开发智能Agent框架和相关工具链,推动多Agent协同能力的突破。你负责的内容会包括以下但不限于: 1.负责Agent框架核心能力的设计与开发,包括异步化框架、执行引擎的实现与优化 2.研发Agent Development Kit (ADK),提供完善的开发工具和接口 3.设计并实现multi-agent协同框架,解决Agent间的通信、协作和资源分配问题 4.开发和维护MCP (Model Control Protocol) Server,管理模型调用和资源调度 -参与制定Agent能力评估标准,构建测试框架和基准测试 5.优化Agent系统性能,提高可扩展性和稳定性 6.与产品、算法团队紧密合作,将前沿AI研究成果落地到框架中

图研发团队负责美图系列产品的全链路技术开发与中台体系建设。我们聚焦AI影像、多端协同与数据智能,用扎实的技术将创意转化为稳定优美的亿级用户产品体验。期待你加入,用代码赋能创意。 Our R&D Team drives full-stack development for Meitu's product suite and platform infrastructure. Specializing in AI imaging, multi-end collaboration, and data intelligence, we turn ideas into stable, elegant experiences for millions of users. Join us to code the future of creativity. 工作地点:厦门 岗位职责: ● 根据项目需求文档编写测试用例,有效执行功能测试及简单性能测试,及时发现软件缺陷 ● 准确定位分析并跟踪问题并撰写测试报告,确保按时上线及保障上线稳定性 ● 在测试各个环节过程中主动与产品、开发等部门沟通,保证测试工作的有效性和完整性 ● 负责公司中台的功能测试和专项测试等相关工作
Team Introduction: TikTok Content Security Algorithm Research Team The International Content Safety Algorithm Research Team is dedicated to maintaining a safe and trustworthy environment for users of ByteDance's international products. We develop and iterate on machine learning models and information systems to identify risks earlier, respond to incidents faster, and monitor potential threats more effectively. The team also leads the development of foundational large models for products. In the R&D process, we tackle key challenges such as data compliance, model reasoning capability, and multilingual performance optimization. Our goal is to build secure, compliant, and high-performance models that empower various business scenarios across the platform, including content moderation, search, and recommendation. Research Project Background: In recent years, Large Language Models (LLMs) have achieved remarkable progress across various domains of natural language processing (NLP) and artificial intelligence. These models have demonstrated impressive capabilities in tasks such as language generation, question answering, and text translation. However, reasoning remains a key area for further improvement. Current approaches to enhancing reasoning abilities often rely on large amounts of Supervised Fine-Tuning (SFT) data. However, acquiring such high-quality SFT data is expensive and poses a significant barrier to scalable model development and deployment. To address this, OpenAI's o1 series of models have made progress by increasing the length of the Chain-of-Thought (CoT) reasoning process. While this technique has proven effective, how to efficiently scale this approach in practical testing remains an open question. Recent research has explored alternative methods such as Process-based Reward Model (PRM), Reinforcement Learning (RL), and Monte Carlo Tree Search (MCTS) to improve reasoning. However, these approaches still fall short of the general reasoning performance achieved by OpenAI's o1 series of models. Notably, the recent DeepSeek R1 paper suggests that pure RL methods can enable LLM to autonomously develop reasoning skills without relying on the expensive SFT data, revealing the substantial potential of RL in advancing LLM capabilities. 团队介绍: 国际化内容安全算法研究团队致力于为字节跳动国际化产品的用户维护安全可信赖环境,通过开发、迭代机器学习模型和信息系统以更早、更快发掘风险、监控风险、响应紧急事件,团队同时负责产品基座大模型的研发,我们在研发过程中需要解决数据合规、模型推理能力、多语种性能优化等方面的问题,从而为平台上的内容审核、搜索、推荐等多项业务提供安全合规,性能优越的基座模型。 课题介绍: 课题背景: 近年来,大规模语言模型(Large Language Models, LLM)在自然语言处理和人工智能的各个领域都取得了显著的进展。这些模型展示了强大的能力,例如在生成语言、回答问题、翻译文本等任务上表现优异。然而,LLM 的推理能力仍有很大的提升空间。在现有的研究中,通常依赖于大量的监督微调(Supervised Fine-Tuning, SFT)数据来增强模型的推理性能。然而,高质量 SFT 数据的获取成本高昂,这对模型的开发和应用带来了极大的限制。 为了提升推理能力,OpenAI 的 o1 系列模型通过增加思维链(Chain-of-Thought, CoT)的推理过程长度取得了一定的成功。这种方法虽然有效,但在实际测试时如何高效地进行扩展仍是一个开放的问题。一些研究尝试使用基于过程的奖励模型(Process-based Reward Model, PRM)、强化学习(Reinforcement Learning, RL)以及蒙特卡洛树搜索算法(Monte Carlo Tree Search, MCTS)等方法来解决推理问题,然而这些方法尚未能达到 OpenAI o1 系列模型的通用推理性能水平。最近deepseek r1在论文中提到通过纯强化学习的方法,可以使得 LLM 自主发展推理能力,而无需依赖昂贵的 SFT 数据。这一系列的工作都揭示着强化学习对LLM的巨大潜力。 课题挑战: 1、Reward模型的设计:在强化学习过程中,设计一个合适的reward模型是关键。Reward模型需要准确地反映推理过程的效果,并引导模型逐步提升其推理能力。这不仅要求对不同任务精准设定评估标准,还要确保reward模型能够在训练过程中动态调整,以适应模型性能的变化和提高。 2、稳定的训练过程:在缺乏高质量SFT数据的情况下,如何确保强化学习过程中的稳定训练是一个重大挑战。强化学习过程通常涉及大量的探索和试错,这可能导致训练不稳定甚至模型性能下降。需要开发具有鲁棒性的训练方法,以保证模型在训练过程中的稳定性和效果。 3、如何从数学和代码任务上拓展到自然语言任务上:现有的推理强化方法主要应用在数学和代码这些CoT数据量相对丰富的任务上。然而,自然语言任务的开放性和复杂性更高,如何将成功的RL策略从这些相对简单的任务拓展到自然语言处理任务上,要求对数据处理和RL方法进行深入的研究和创新,以实现跨任务的通用推理能力。 4、推理效率的提升:在保证推理性能的前提下,提升推理效率也是一个重要挑战。推理过程的效率直接影响到模型在实际应用中的可用性和经济性。可以考虑利用知识蒸馏技术,将复杂模型的知识传递给较小的模型,以减少计算资源消耗。另外,使用长思维链(Long Chain-of-Thought, Long-CoT)技术来改进短思维链(Short-CoT)模型,也是一种潜在的方法,以在保证推理质量的同时提升推理速度。
我们正在寻找AI/ML技术的技术专家,包括计算机视觉(CV),自然语言处理(NLP)和音频信号处理。您将负责与各种利益相关者(产品、运营、政策和工程)合作,并开发最先进的模型。 1、利用自然语言处理、机器学习或计算机视觉等内容理解能力设计和构建产品核心能力,提取数据洞察并优化变现策略; 2、基于最新的深度学习、机器学习、统计和优化技术的算法开发创新性解决方案并构建业务问题原型; 3、从0到1管理数据项目,并与产品经理协作定义用户故事和成功指标来指导开发过程; 4、使用不限于AB测试等方法验证项目的商业价值和预计收益; 5、与工程团队合作部署数据模型并将解决方案规模化。 We are looking for generalists and specialists in AI/ML techniques, including computer vision (CV), natural language processing (NLP), and audio signal processing. You will be responsible for partnering with a variety of stakeholders (product, operations, policy, and engineering) and developing state-of-the-art models. 1. Design and build core capabilities by leveraging content understanding; capabilities, such as natural language processing, machine learning, or computer vision, to extract insights and improve monetization strategies; 2. Develop creative solutions and build prototypes for business problems using algorithms based on the latest deep learning, machine learning, statistics, and optimization techniques; 3. Independently manage data projects from 0 to 1, and collaborate with product managers to define user stories, and success metrics to guide the development process; 4. Verify the business value and estimated revenue of the project using methods such as AB testing; 5. Collaborate with engineering teams to deploy and scale data science solutions.