logo of baidu

百度知识应用算法实习生(J90823)

实习兼职ACG地点:北京状态:招聘

任职要求


-拥有扎实的计算机基础,计算机或相关专业本科及以上学历在校生,可尽快到岗,实习4个月及以上,每周至少线下实习4天
-掌握NLP基本算法,在自然语言处理相关领域中至少一个方向有一定的实践经验,如语义检索与推荐、信息抽取、对话系统、语义理解、阅读理解、聚类、迁移学习、多模学习、低资源学习等
-熟悉并掌握至少一种常用深度学习的框架:PaddlePytorchTensorflowMxnet,Caffe
-具有良好的沟通能力,和良好的团队合作精神
-有任务式对话落地经验的优先考虑
-在机器学习/NLP领域学术会议发表过高质量文章者优先

工作职责


-负责大语言模型应用的算法调研、实验、开发工作,结合大规模语言模型(LLM)技术,快速构建AI能力
-技术方向包括但不限于:大模型训练与优化、智能问答、任务式对话、query解析与改写、语义检索、阅读理解、文本聚合、跨模态理解等
-结合AI原生应用场景需求与数据,设计解决方案,解决业务问题,快速满足需求,创造实用价值。支持算法在项目上落地
-快速评估算法效果,跟进前沿技术方案与开源大模型,形成创新思路
包括英文材料
学历+
NLP+
算法+
深度学习+
PaddlePaddle+
PyTorch+
TensorFlow+
机器学习+
MXNet+
相关职位

logo of kuaishou
实习D11989

1、负责电商侧垂类大模型的相关研发和应用,深入挖掘垂直行业、开源以及电商的海量数据,构建电商知识库,研究前沿大模型训练和优化方法,助力电商行业特性打造可控的垂类模型能力; 2、支持电商领域的大模型时代下的新型AI产品,提升电商行业场景的用户体验和效率,打造AI时代的电商新应用; 3、研究和跟踪前沿技术发展,探索AI助力电商业务发展的新范式。

更新于 2025-06-23
logo of kuaishou
实习D13919

1、负责通过基于大语言模型及多模态大模型的微调、prompts调优、指令构建及演化技术,将大模型的生成、理解、交互能力在公司核心业务场景应用落地,包括但不限于AIGC创意生成、视频处理、智能化特效、智能对话、代码生成、音视频传输、电商场景内容理解等; 2、负责LLM及多模态大模型的应用中台及相关技术模块搭建,包括但不限于Agents 、RAG、 function call、system prompts等,探索大模型应用前沿及新兴应用场景; 3、跟踪行业及大模型技术发展,结合业界前沿技术和业务需求,打造大模型应用的最佳实践; 4、了解业务,与公司各技术团队密切配合,能与产品、运营等角色高效沟通需求和目标,发挥自己的主观能动性,设计技术解决方案,培养自己的良好的业务sense和综合素质。

更新于 2025-07-04
logo of bytedance
实习A220532

团队介绍:专注大模型在数据智能方向的应用落地,横向支持公司多个数据产品的大模型解决方案。团队致力于跟进大模型前沿进展,结合领域模型的优化策略来设计端到端的算法优化和评估方案,实现数据产品的智能升级与应用效果提升。团队鼓励敏捷创新,知识共享的协作氛围,专注投入对数据智能课题的持续探索研究。 课题介绍: 背景:在Bird、Spider2.0等复杂数据分析榜单中,基于通用大模型的COT、Prompt工程方案相比BI分析师仍有较大差距(sota 75 vs 92)。近期推理大模型例如OpenAI O3、DeepSeek R1利用Test-Time Scaling Law提升模型推理能力,并指出后训练阶段中RL是提升的重要训练方式。本课题聚焦推理大模型后训练技术(SFT+RL),通过reasoning优化模糊语义理解、多步逻辑推导、复杂查询分解等关键问题,目标建立数据分析领域的推理大模型的方法体系。 课题主要关注的挑战点包括: 1、数据分析领域中高质量的reasoning数据生成,基于高质量数据的SFT冷启动训练来提升RL(GRPO、PPO)训练稳定性,包括多Epoch训练稳定、推理格式对齐等问题; 2、通过混合Reward(包括语义理解、代码执行、难度区分、子查询效率等多角度Reward)提升在模糊语义理解、多步逻辑推导、复杂查询分解的reasoning效果来提升结果准确率; 3、探索推理大模型overthinking的解决方案,面向简单到复杂问题数据分析问题,推理模型可合理的输出推理过程长度,同时保持整体准确率效果。 1、数据增强算法优化:设计面向数据推理任务的Data-Centric算法框架,优化Reasoning Data合成链路,提升训练数据的逻辑一致性、领域适配性与多样性; 2、Test-Time Compute:负责数据大模型与推理大模型的创新结合,解决思维链生成中的Over/Under-Thinking问题,探索复杂数据分析任务的Reward最优实践收益(包括语义理解、执行正确、查询效率、洞察启发性等); 3、推理大模型应用落地:跟进开源SOTA大模型的技术演进,实践Post-Training阶段的领域适配优化,在数据洞察机器人等产品中的验证应用价值,并基于评估体系实现效果的持续迭代,沉淀技术专利。

更新于 2025-03-03
logo of bytedance
实习A234706

团队介绍:专注大模型在数据智能方向的应用落地,横向支持公司多个数据产品的大模型解决方案。团队致力于跟进大模型前沿进展,结合领域模型的优化策略来设计端到端的算法优化和评估方案,实现数据产品的智能升级与应用效果提升。团队鼓励敏捷创新,知识共享的协作氛围,专注投入对数据智能课题的持续探索研究。 课题介绍: 背景:在Bird、Spider2.0等复杂数据分析榜单中,基于通用大模型的COT、Prompt 工程方案相比BI分析师仍有较大差距(sota 75 vs 92)。近期推理大模型例如OpenAI O3、DeepSeek R1利用Test-Time Scaling Law提升模型推理能力,并指出后训练阶段中RL是提升的重要训练方式。本课题聚焦推理大模型后训练技术(SFT+RL),通过reasoning优化模糊语义理解、多步逻辑推导、复杂查询分解等关键问题,目标建立数据分析领域的推理大模型的方法体系。 课题主要关注的挑战点包括: 1、数据分析领域中高质量的reasoning数据生成,基于高质量数据的SFT冷启动训练来提升RL(GRPO、PPO)训练稳定性,包括多Epoch训练稳定、推理格式对齐等问题; 2、通过混合Reward(包括语义理解、代码执行、难度区分、子查询效率等多角度Reward)提升在模糊语义理解、多步逻辑推导、复杂查询分解的reasoning效果来提升结果准确率; 3、探索推理大模型overthinking的解决方案,面向简单到复杂问题数据分析问题,推理模型可合理的输出推理过程长度,同时保持整体准确率效果。 1、数据增强算法优化:设计面向数据推理任务的Data-Centric算法框架,优化Reasoning Data合成链路,提升训练数据的逻辑一致性、领域适配性与多样性; 2、Test-Time Compute:负责数据大模型与推理大模型的创新结合,解决思维链生成中的Over/Under-Thinking问题,探索复杂数据分析任务的Reward最优实践收益(包括语义理解、执行正确、查询效率、洞察启发性等); 3、推理大模型应用落地:跟进开源SOTA大模型的技术演进,实践Post-Training阶段的领域适配优化,在数据洞察机器人等产品中的验证应用价值,并基于评估体系实现效果的持续迭代,沉淀技术专利。

更新于 2025-03-03