logo of antgroup

蚂蚁金服研究型实习生-Web3安全研究1

实习兼职研究型实习生地点:北京 | 杭州状态:招聘

任职要求


职位要求
- 目前正在攻读计算机科学或相关STEM领域的博士学位,博士一年级至博士三年级,或者发表过高质量文章的研究生一年级同学
- 至少三个月的全职工作
- 具有上述研究领域的相关经验,包括行业经验或作为骨干参与实验室研究
优先录用
- 对技术研究充满热情,具有产生新思想和创新的能力;在自学,问题分析和解决方面表现出色
- 在国际会议或核心期刊发表一份或多份出版物或论文

工作职责


研究领域:
  区块链
项目简介:
  蚂蚁集团大安全天穹光年实验室组建于 2016年底。实验室通过对基础软件、设备及新兴系统的安全研究,达到了全球顶尖安全漏洞挖掘能力,同时将基础研究能力与实际业务场景结合,为蚂蚁集团及相关生态金融级基础设施提供深层次安全保障。实验室获得过“天府杯”总冠军、GeekPWN 年度冠军、Pwnie Awards 大奖,并收获了上百次国际顶级厂商漏洞致谢。实验室研究成果多次中稿学术界顶会及工业界顶会,包括 ACM CCS 2021 Best Paper Award、USENIX Security、ASE、Blackhat USA/EU/Asia、CanSecWest、Defcon、Zer0Con、HITB 等。目前团队研究领域包括 AI 安全、Web3 安全、系统安全、虚拟化安全等范畴。目前招聘以下方向:
1. Web3 安全研究:包括链平台及合约漏洞挖掘、行业新型攻击手法研究、智能合约自动化漏洞挖掘平台研究等
包括英文材料
学历+
相关职位

logo of antgroup
实习研究型实习生

研究领域: 人工智能 项目简介: 蚂蚁集团大安全天穹光年实验室组建于 2016年底。实验室通过对基础软件、设备及新兴系统的安全研究,达到了全球顶尖安全漏洞挖掘能力,同时将基础研究能力与实际业务场景结合,为蚂蚁集团及相关生态金融级基础设施提供深层次安全保障。实验室获得过“天府杯”总冠军、GeekPWN 年度冠军、Pwnie Awards 大奖,并收获了上百次国际顶级厂商漏洞致谢。实验室研究成果多次中稿学术界顶会及工业界顶会,包括 ACM CCS 2021 Best Paper Award、USENIX Security、ASE、Blackhat USA/EU/Asia、CanSecWest、Defcon、Zer0Con、HITB 等。目前团队研究领域包括 AI 安全、Web3 安全、系统安全、虚拟化安全等范畴。目前招聘以下方向:1. 大模型安全研究:对大模型及大模型应用进行安全研究,包括开源大模型攻防、智能体漏洞挖掘、自动化评测工具研究等

logo of antgroup
实习研究型实习生

研究领域: 人工智能 项目简介: 实时语音交互在大模型应用落地中对于提升用户对话体验,提升用户留存(豆包app加入语音对话后留存率提升明显)具有重要作用;在AI硬件领域(AI眼镜、戒指等),实时语音交互是直接的、天然的交互方式,且对语音理解的准确率、语音生成的自然度、对话准确率、交互响应速度都有较高的要求

logo of antgroup
实习研究型实习生

研究领域: 人工智能 项目简介: 在大模型的国际化应用落地过程中,要解决几个核心的问题: 1. 大模型对于小语种的支持:在蚂蚁国际化场景中,既有中英文这样的大规模使用的语言,也有东南亚,欧洲,非洲等各的确相对较小语种的实际需求,这些小语种的语料相对而言获取难度高,也导致了大模型在应用落地过程中会遇到许多困难,探索一条高效可行的道路来扩充大模型对于小语种的支持是在业务和技术上都有着突破意义的工作 2. 大模型对于体验的支持:在模型的使用过程中,探索更好的用户体验需要进行相当的投入来保持对于体验的关注和不断尝试,既包括通过推理模型来提升模型回复能力,也包括通过长思考能力来提升问题解决的思路完备性,也可以借助于大模型的代码生成等推理能力来生成交互式界面,或者通过多模态模型来进行包括视频在内的AIGC等,在应用过程中有很多细节需要结合大模型基座进行优化 3. 模型可信:在金融场景中,模型回复的准确性和安全性至关重要,结合业务场景进行探索模型的grounding,知识注入和幻觉消除等工作

logo of antgroup
实习研究型实习生

研究领域: 人工智能 项目简介: 随着人工智能技术的快速发展,多模态大模型(Multimodal Large Language Models, MLLMs)在跨模态理解与生成领域取得了突破性进展。然而,在图像分割、目标识别及定位、视觉关系理解、目标计数等基础视觉任务中,现有MLLMs与传统视觉模型仍存在显著性能差距。这种短板严重制约了多模态技术在视频分析、图像识别等高精度视觉场景中的应用落地。 本项目期望探索更有效的多模态视觉表征,及视觉与LLM融合机制,提升多模态能力上限。