logo of bytedance

字节跳动质量大模型算法专家-智能服务

社招全职3年以上A08838地点:深圳状态:招聘

任职要求


1、计算机相关专业本科及以上学历,3年以上深度学习算法研究与开发经验,具有LLM开发和实际落地经验;
2、具备LLM相关算法的扎实基础,包括但不限于单模态/多模态LLM训练(RAG/SFT/RLHF/Prompt)、部署和蒸馏等领域的全面学习和实践经验;
3、熟悉主流的Bert/Transformer/ViT/Clip等主流预训练模型,熟练掌握TensorFlow/PyTorch/Keras等任一主流机器学习框架;
4、有较强的业务问题到算法模型的建模能力,有强烈的技术好奇心、自驱力和进取心,能及时关注和学习业界最佳实践。

加分项:
1、具备优秀工程能力,有大规模数据处理经验者优先;
2、了解CPU/GPU编程及常见推理加速,对深度学习有较多工程落地经验者优先;
3、有国际顶级会议(ACL/EMNLP/IJCAI/AAAI/SIGIR等)期刊论文发表者优先。

工作职责


1、负责字节跳动互娱研发泛质量方向各业务场景下,LLM算法在需求设计、开发、测试、线上等软件工程领域的应用研究与算法落地工作,提升研发、测试的效率和质量,业务场景包括但不限于需求风险分级/智能单测/用例生成/UI生成/代码图谱/智能测试等;
2、跟踪LLM领域的最新研究成果,用以持续提升算法应用效果,研究方向包括但不限于语言LLM、多模态LLM,Prompt工程/RAG/Agents/SFT/RLHF等LLM相关前沿技术;
3、深度参与产品研发项目,和产品经理/业务研发/业务质量/运营等同学密切配合,提高项目整体效率和收益。
包括英文材料
学历+
深度学习+
算法+
大模型+
RAG+
SFT+
Prompt+
Transformer+
TensorFlow+
PyTorch+
Keras+
机器学习+
相关职位

logo of bytedance
社招3年以上A229896

1、负责字节跳动各业务在泛体验、泛安全、泛质量方向下的大模型工程化能力建设; 2、探索业界前沿的大模型工程研发(LLMOps)相关技术,支持LLM、MLLM、CodeLLM等落地于上述场景,打造高效工具链和应用系统,包括并限于Agent、RAG、任务调度、推理加速、评测、PE等,持续优化效果和性能,保障服务高可用性; 3、深度参与项目研发,与产品、算法、质量等同学保持密切配合,不断优化项目整体效益,提升产品体验。

更新于 2024-09-27
logo of bytedance
社招A237920A

1、支持火山方舟大模型的应用落地,将字节跳动的内容与大模型相结合,为用户提供更智能的信息服务; 2、带领团队探索行业前沿的NLP技术,将先进的深度学习模型创新性应用于用户Query分析、Query改写等业务方向,精准把握用户需求,持续提升用户理解的深度与广度; 3、利用NLP技术以及大模型技术,对内容进行分析、理解,完成内容打标、内容摘要等信息的生成和提取; 4、以外挂知识库模式为切入点,在内容搜索领域进行深度探索,组织团队运用NLP、多模态技术实现高质量内容的快速召回,显著提升搜索效率与质量; 5、主导大模型技术与Ranking技术的深度融合,解决内容排序的复杂问题; 6、管理和指导算法团队,制定团队技术发展路线,推动团队整体技术能力提升;合理分配工作任务,确保项目按时高质量交付。

更新于 2025-02-26
logo of antgroup
社招3年以上技术类-算法

1、负责支付宝各场域(广告、短视频、直播、游戏、搜索、公私域等)的流量/营销作弊的感知、识别与管控相关的算法建设,减少恶意/无效/作弊流量给数据真实性、社区生态、平台流量价值带来的影响,保障平台营销资金的安全使用,有效地将业务问题转化为算法模型,提供合理的风险解决方案,提升流量价值,减少资金损耗; 2、与技术、产运配合建设通用高效的人机识别算法,并利用海量的设备和用户行为数据进行建模,对用户风险、质量及转化价值进行预估及分析;持续推进基于图、异常检测、社区检测、多模态算法等相关研究和工具的建设,服务高准可持续迭代的反作弊算法体系; 3、配合业务上下游进行流量质量保障,结合营销、推荐、用增、运筹优化相关算法及大模型、智能体等技术,带来业务效果和效率提升。

更新于 2025-08-25
logo of bytedance
社招A191470

团队介绍:Data-电商-智能对话团队,致力于打造业界领先的大模型对话系统。团队服务的日活用户超过数亿,应用场景覆盖抖音电商全链路,包括平台客服、平台商服、商家客服、达人客服,以及创新的智能导购等核心业务场景,通过持续的技术创新和优化,成功构建了一套完整的智能对话解决方案,为电商业务带来了显著的效率提升和用户体验改善。 课题介绍: 背景:电商智能客服正逐渐成为业务增长和用户体验优化的重要方向,基于大型语言模型(LLM)的智能客服系统解决电商场景中的核心挑战,由LLM完成一次用户进线的完整接待过程,包括诉求澄清、方案协商、方案执行等阶段,实现电商业务的智能化升级——让用户享受更智能高效的客服服务。 研究方向:本课题聚焦于LLM 后训练与智能客服。构建基于 LLM 的多智能体(Multi-Agent)框架,通过规划、回复、工具三类Agent的协作,实现从问题分析、方案执行到结果反馈的全流程智能客服。核心目标是确保客服对话的准确性、合规性与流畅度,避免模型生成幻觉或违背平台政策。同时,围绕电商客服的复杂任务,构建 Benchmark数据集,优化SOP遵循、多轮交互、用户满意度等指标。此外,研究高效数据利用方法,探索低标注数据条件下的LLM训练,并开发自动生成高质量训练数据的系统,以降低人工标注成本,提高智能客服的服务质量与效率。 1、开发AI驱动的智能客服系统:设计并实现AI对话式客服助手,能够处理电商咨询、投诉、退款、争议解决及物流相关问题,以AI替代传统人工客服; 2、大语言模型(LLM)后训练与高效学习:应用最前沿的LLM训练优化技术,如指令微调、强化学习、持续学习等,在最少标注数据的情况下优化AI客服响应质量;具备大语言模型(LLM)微调、知识蒸馏或强化学习的相关经验,应用于对话式AI场景;深入理解检索增强生成(RAG)、专家混合模型(MoE)、稀疏注意力、强化学习、推理时间优化等技术,以提升AI对话质量; 3、基准测试与训练数据构建:识别具有挑战性的客服交互场景,如政策解读、争议处理、客户投诉、导购推荐等,并构建专门的测试集和训练集; 4、多语言与跨文化客服支持:构建能够适应多语言和不同文化背景的AI模型,确保客服交互的精准翻译和针对不同用户群体的合适响应;精通多语言自然语言处理(NLP)、机器翻译及跨语言对话建模; 5、模型优化与高效部署:研究模型压缩、量化、推理优化等技术,确保AI客服助手在大规模应用场景下具备低延迟、高可靠性的表现。

更新于 2025-05-27