logo of antgroup

蚂蚁金服研究型实习生-数据蒸馏Prompt优化

实习兼职研究型实习生地点:上海 | 杭州 | 成都状态:招聘

任职要求


研究领域:
-目前正在攻读计算机科学或相关STEM领域的学士,硕士或博士学位
-具有一种或多种通用编程语言的经验,包括但不限于: Java,C/C ++ 、PythonJavaScriptGo
-具有上述研究领域的相关经验,包括行业经验或作为参与实验室研究
优先录用:
-对技术研究充满热情,具有产生新思想和创新的能力; 在自学,问题分析和解决方面表现出色
-在国际会议上或核心期刊发表一份或多份出版物或论文
-至少3个月的全职工作

工作职责


研究领域:
  自然语言处理
项目简介:
  LLM针对特定领域(比如案件风险分析,黑产手法分析,系统运维问题分析)的SFT和RL,都需要高质量的训练数据。除了人工标注,通过相对高质量的大模型(比如DeepSeekR1 671B)进行蒸馏是相对经济快速的方法,但是极度依赖于相关的蒸馏prompt设计和迭代优化。
包括英文材料
学历+
Java+
C+
Python+
JavaScript+
Go+
相关职位

logo of alibaba
实习淘天集团研究型实

1. 跟进多模态大模型(vLLM)预训练、SFT、RLHF等技术,调研与跟进最新进展;负责多模态相关性大模型、多模态大模型稀疏检索和稠密模型,多模态大模型个性化预训练方向,以及多模态大语言模型的训练和推理加速; 2. 多模态大模型个性化预训练:研发个性化预训练模型,探索在训练样本、模型参数量等维度上scale-up能带来的收益,研究在电商搜索场景下, CTR和CVR 模型中用户动线特征的挖掘和应用,包括用户行为模型的获取、特征设计、结构优化等个性化建模; 3. 多模态大模型的训练和推理加速:协助研究和开发多模态大语言模型的加速技术,包括但不限于量化、剪枝和蒸馏,以及数据特征和调度优化;实现和优化多模态大模型推理框架,以提高推理速度和效率;与工程团队合作,解决机器学习模型在部署过程中的性能问题; 4. 多模态大模型相关性模型:研发基于多模态大模型的相关性标注和评测大模型,应用到体验实验评测、体验监控、离线数据标注、线上相关性判断等方向; 5.多模态大模型稀疏检索和稠密模型:研究方向包括不限于:电商词表生成、多模态稀疏词表和稠密表征技术、LLMs幻觉缓解等问题。

更新于 2025-05-06
logo of aliyun
实习阿里云研究型实习

专注于大模型后训练,包括蒸馏+SFT/RL等相关技术,目标提升LLMs/LMMs的综合效果以及垂直场景效果,同时降低模型尺寸以减少部署成本,具体职责包括: 1、深入探索LLM蒸馏技术,对大模型进行极致的轻量化,同时尽可能减少模型的综合性能/垂直领域性能损失; 2、从数据合成、蒸馏算法等方面,提出创新优化技术,减少蒸馏带来的灾难性知识遗忘问题; 3、提出强化学习等创新方法,提升蒸馏后小模型解决复杂问题的能力,探索面向不同的复杂度任务自动调整推理模型思考长度的技术; 4、结合阿里云PAI平台产品服务,提供可靠高效的蒸馏+RL训练工具; 5、基于蒸馏+RL等后训练技术,面向Agent等LLM重点应用场景,构建业界领先的效果优化解决方案。

更新于 2025-10-11
logo of antgroup
实习研究型实习生

研究领域: 其他 项目简介: LLM在多个任务中已经展示了强大的能力。然而,由于现实世界的数据和需求不断变化,模型需要持续学习新知识以保持其性能。如何通过数据合成、数据增强、数据采样等多种方式,使得模型能够获取更好的知识是当前行业研究的重点和难点。以DeepSeek-R1为代表的推理模型范式为行业提供了重要启示,尤其在数学解题、代码生成、科学计算等场景中,大模型需具备从多步骤推理到最终结论生成的完整逻辑链条处理能力。研究发现,模型性能的提升已从单纯依赖参数规模扩展转向对训练数据质量的深度优化。高质量数据的稀缺性及其对模型能力的影响机理,正成为制约大模型向高阶推理跃迁的核心瓶颈。本研究旨在通过“高质量”数据与AI融合,为AIXData产业应用(包括但不限于数据标注、数据生成、CoT数据等)带来应用价值。

logo of aliyun
实习阿里云研究型实习

我们正在寻找对人工智能、多模态数据处理、系统性能优化感兴趣的实习生,参与一个面向多模态数据获取、解析、压缩与高效传输的研究课题。该课题聚焦于提升多模态系统在复杂环境下的实时性表现与资源利用率,具有广泛的应用前景(如智能运维、RAG检索增强生成、边缘计算等)。你将参与的工作包括但不限于: 1. 多模态数据采集与预处理:从网页、API、数据库、摄像头、麦克风等来源获取文本、图像、音频和视频数据; 2. 多模态数据解析与特征提取:使用OCR、ASR、NLP、CV等技术解析不同模态内容; 3. 模型轻量化与加速:探索基于Transformer、CNN、LSTM等模型的压缩、蒸馏、量化方法; 4. 系统级优化与部署:设计低延迟、低资源占用的数据处理流程,支持在边缘设备上运行; 5. 性能评估与实验分析:构建测试集,评估系统的吞吐量、响应时间、准确率等关键指标; 6. 撰写技术文档与研究报告:整理实验过程、结果与改进建议。 技术要求(优先但不强制): 1. 熟悉Python编程语言,有良好的代码规范; 2. 了解基本的NLP、CV或语音识别技术; 3. 掌握至少一种深度学习框架(PyTorch/TensorFlow); 4. 熟悉Linux系统及常用命令行工具。 有以下经验者优先考虑: 1. 多模态任务处理经验(如CLIP、Flamingo等); 2. 模型压缩与部署经验(如TensorRT、ONNX、OpenVINO、TVM等); 3. 使用过音视频处理工具(如FFmpeg、OpenCV、Whisper、YOLO等); 4. 有一定系统编程能力(C/C++、CUDA、FPGA基础)。

更新于 2025-07-02