阿里云瓴羊-大模型高级算法工程师/专家(AI专项)-北京/杭州
任职要求
职位要求: 1. 计算机科学相关专业硕士及以上(人工智能、计算机科学、自动化、电子信息工程、数学等); 2. 掌握机器学习/深度学习的基本方法,掌握NLP算法/语音算法等相关的基础知识,有NLP算法/语音相关的实践或研究经验,较强的论文阅读和复现的能力,独立问题分…
工作职责
岗位职责: 该职位通过大模型训练、Agent、RAG、N2SQL、NLP、语音处理等技术创新和突破,构建Agent通用平台、大模型训练平台等工具产品,同时支持对话机器人等垂直应用及智能产品的建设。欢迎敢于接受挑战的候选人加入我们,一起赋能企业客户。我们的研究方向包括但不限于: 1、通用大模型、推理大模型预训练、微调、强化对齐等技术的持续研究创新; 2、多语言大模型、领域大模型的训练技术研究与落地; 3、AI数据清洗、加工、合成、自动标注技术研究与落地; 4、文本机器人、语音机器人、质检机器人等客服域技术的研发与落地; 5、多Agent、RAG、N2SQL、自主决策等技术的研究与落地; 6、入呼大模型机器人、外呼大模型机器人研发经验;熟悉VAD, ASR, TTS等语音相关技术; 以上方向擅长其中1个即可
1.负责UC、夸克、千问等推荐场景的系统架构设计与持续演进,主导完成详细设计与核心编码工作,保障项目高质量、按期交付;直面高并发、大流量场景,确保系统链路的高可用性、高性能与稳定性; 2.深入理解业务需求,能够高效拆解复杂专项任务,推动技术方案评审并协调上下游团队,对项目交付周期与质量全面负责; 3.与产品、算法团队紧密协作,共同驱动推荐策略效果持续优化,并积极探索和落地AI应用创新。
1、参与LLM方向的新技术研究和落地应用,支持指令微调、强化学习相关算法需求 2、支持通用ai agent在产品业务应用中的落地研发和效果优化,包括但不限于通用ai agent,深入理解大模型和通用ai agent运行原理,明确提升通用ai agent效果的核心技术方向。 3、负责ai agent的框架构建,agent与工具调用的优化,相关场景下大模型的优化,将ai agent框架、工具、大模型有效结合,为通用ai agent效果提供最佳的使用体验。
作为大模型评测研发工程师,将负责“大模型通用Benchmark评测体系”与“业务领域Benchmark构建”的全链路研发:从评测数据集设计、智能化自动化评估方法探索研究、指标实现,到平台化落地,精准衡量模型能力边界,持续驱动模型语料优化与模型迭代 通用 Benchmark 研发 • 持续迭代覆盖语言理解、推理、知识、幻觉、对齐、代码、多模态、Agent 等各个维度的自动化评测框架; • 研究并实现更贴合业务发展的评测方法与指标,构建高效、可扩展、可复现、可解释的评测引擎 业务领域 Benchmark 构建与评测 • 深入跨境电商各个业务领域,构建领域Benchmark,真实反馈模型业务表现 • 设计场景化评估方案,如RAG、Agent、COT、 In-Context Learning等,并形成端到端评测能力; 评测方法研究 • 探索基于 LLM-as-a-Judge、人类偏好对齐、模型解释性等前沿评测技术 • 跟踪 ACL / EMNLP / NeurIPS / ICML / ICLR 等会议,高效复现SOTA方法,形成可比对可参考的评估系统