蚂蚁金服蚂蚁集团-大语言模型算法专家-杭州
任职要求
1. 硕士及以上学历,计算机科学或相关专业背景 2. 熟悉语言模型预训练、模型架构设计、强化学习等技术领域 3. 具备扎实的算法工程实现能力,熟悉Python编程语言和PyTorch深度学习框架,熟悉DeepSpeed/Megatron等主流分布式训练框架 4. 具备良好的分析和问题解决能力、优秀的工程素养,能够独立思考和解决实际问题 5. 具备较强的团队合作能力和沟通能力,能够与工程团队、业务团队、产品团队和其他技术团队紧密配合 加分项: 1. 在语言大模型和机器学习领域有科研或实践经验,在国际顶级会议/期刊发表过高质量论文 2. 在大数据处理、大规模分布式计算、分布式训练等领域有科研或实践经历
工作职责
1. 负责研发大语言模型预训练技术,如高效的新型llm模型架构、长窗口训练技术、pretrain scaling law、高效预训练策略等。 2. 负责研发基于强化学习的推理模型,如大规模强化学习、新型RL算法、testing time scaling等。
【团队与岗位介绍】 1、本岗位将主导 金融行为序列大模型与多模态大语言模型在信贷业务中的应用; 2、 应用场景覆盖贷前、贷中、贷后全流程:包括准入评分、授信定价、欺诈识别、风险预警、智能催收等关键环节。 【岗位职责】 1、设计并实现金融行为序列大模型与多模态 LLM 的整体技术方案,形成可持续迭代的算法资产,在信贷风控业务场景落地; 2、建立统一的数据标准与特征工程体系,确保模型在高噪声、弱标签环境下的稳健性与可解释性。
1. 大模型攻击研究 ● 针对大语言模型(LLM)、多模态模型(VLM)、智能体(Agent)等开展安全性与幻觉问题研究,系统化识别模型在对抗样本、越狱攻击、数据投毒、隐私泄露、注入、越权等方面的脆弱点; ● 设计并优化大模型对抗攻击算法,研究 Prompt 注入、自动化越狱策略与生成式数据增强方法,用于模拟实战攻击与安全性评估; ● 构建覆盖文本、图像、语音等多模态、agent场景的攻击方法库,支撑红队测试与模型安全基准建设。 2. 大模型防御机制 ● 研究大模型输入/输出层面的安全检测与防御机制,开发 Prompt 过滤、上下文改写、敏感内容抑制等方法; ● 构建跨模态、多层次的安全防护框架,提升 LLM/VLM/Agent 在实际应用中的鲁棒性。 3. 大模型安全对齐 ● 探索使用SFT、RL、MoE、RAG、Editing等对齐方法,提升模型的内生安全能力; ● 研究有害内容规避、幻觉抑制、安全对齐评测等关键技术,推动安全性融入模型全生命周期。 4. Agent 安全 ● 研究 Agent 在memory存储、多工具调用、链式推理中的攻击面与潜在风险,识别敏感数据泄露、工具滥用、意图篡改、海绵攻击等新型威胁; ● 设计 Agent 安全管控机制,包括权限控制、任务隔离、调用审计等,确保复杂场景下 Agent 的安全可控。
1. 参与大模型Post-Training(SFT, RM, RLHF等)算法的研发与迭代,深入研究并解决训练过程中的效率瓶颈与收敛性问题,持续提升模型的逻辑、推理及生成能力,直接对用户体验负责。 2. 探索并实践面向各领域的高质量数据自动化合成技术(如Self-Instruct, Constitutional AI等),设计并构建高效、可扩展的线上数据飞轮(Data-Flywheel)闭环系统,实现模型能力的自我迭代与增强。 3. 与产品、工程团队紧密协作,洞察并挖掘LLM在企业垂直场景的巨大潜力,参与从0到1的创新产品孵化,推动技术成果的商业化落地。