
同花顺RAG 算法工程师
任职要求
1、博士学历,计算机、数学等相关专业。 2、熟悉 RAG 技术原理(检索层、增强层、生成层),了解向量数据库(如 Milvus、FAISS)使用。 3、熟练使用 Python 及 PyTo…
工作职责
1、负责 RAG(检索增强生成)系统核心算法设计与开发,优化检索准确性、知识更新效率及生成响应质量。 2、处理知识库构建(数据清洗、结构化处理)与检索策略(如向量检索、混合检索)优化,提升知识匹配精度。 3、结合大模型(如 LLaMA、GPT 系列)调试 RAG 流程,解决幻觉、知识滞后等问题,适配业务场景(如智能客服、行业问答)。 4、配合团队推进 RAG 算法落地,跟踪效果指标(如回答准确率、检索召回率)并迭代优化。

1.负责智能风控模型研发: a).基于海量业务数据,应用机器学习/深度学习技术(如XGBoost、Transformer、GNN等),设计高精度风控模型,覆盖欺 诈检测、异常行为识别等场景; b).结合专家经验与数据挖掘,提炼强判别性特征,推动模型在实时对抗场景中的高效落地; 2.负责多模态风险识别引擎开发: a).融合文本、语音、图像等多模态数据,构建端到端风险判定模型(如CV目标检测、ASR语音分析、NLP语义理解); b).探索图神经网络技术在复杂关系网络(如黑产团伙挖掘)中的深度应用,提升风控系统鲁棒性; 3.负责算法效果优化与技术创新: a).主导NLP/CV领域的前沿算法(如大模型Prompt工程、RAG增强检索)在风控场景的适配与效果提升; b).持续迭代模型架构,优化推理效率与资源消耗,应对亿级数据实时处理需求。
研究方向一:大模型智能体Agent技术研究 1.研究多轮长对话中的上下文管理技术,提高模型的连贯性和一致性,并探索基于用户特征和历史交互的定制对话策略,设计针对特定业务场景的微调和适应技术,提升模型在实际应用中的表现。 2.探索智能体调用和使用多个外部工具的方法,通过端到端后训练的方式增强其解决实际问题的能力。深度研究智能体的自我评估和学习机制,实现智能体的持续优化和能力提升。 3.优化LLM长链路的多轮工具调用能力,提升工具调用时的精确性及用户的实际交互体验。 4.设计并完善针对特定任务场景的Auto-Eval能力,指导模型迭代方向。 研究方向二:深度搜索(Deep Search/Research)技术研究 1.研究面向深度搜索场景的工具学习方法,基于SFT/RLHF后训练算法赋予搜索智能体高效的工具调用能力。 2.对齐行业最前沿的研究进展,深入研究不同工具调用环境下的大模型后训练能力边界,并基于实际业务场景进行迭代优化。 研究方向三:多模态基础模型能力建设 1.研究多模态数据(文本、语音、图像等)的语义融合与表示方法,提升模型对复杂内容的理解能力。 2.探索多模态模型在推理任务中的表现,研究如何通过工具调用增强模型的推理能力。 3.设计高效的多模态模型架构,优化模型的参数规模、训练效率和推理性能,提升基础模型的通用性与适应性。 研究方向四:大模型分布式后训练及推理加速技术 1.后训练方向:样本IO吞吐优化:使用多线程读取、数据管道流水线编排、数据压缩等技术,实现分布式环境下高性能的样本IO pipeline;计算图编译与高效执行:通过图编译、Kernel优化、算子融合等手段,提升计算图的执行效率;高性能并行训练:包括DP/TP/PP/SP/CP/EP等并行策略及其他训练超参数的自动寻优,故障自动恢复,弹性计算等;强化学习训练效率优化:通过rollout速度优化、多模型多阶段流水线编排、负载均衡等手段优化RL训练效率。 2.推理加速方向:负责实现和优化大模型在线推理系统,提升推理性能,包括不限于:架构设计、算子开发、通信优化等; 研究并实现各种模型推理加速手段如并行策略、混合精度、MOE、FP8等技术,加速模型推理速度; 设计和开发高效的离线、在线推理系统,优化SGLang、vLLM等推理框架,加速整体推理性能。

1. 推进大模型在推荐系统中的关键技术研发与落地,包括但不限于RAG、语义召回、多模态内容理解、排序优化及Agent应用等前沿方向,提升推荐系统的智能化水平; 2. 构建高质量的训练和评估数据集,完成大语言模型在垂直领域的持续预训练、SFT、RLHF等任务,设计合理的离线与在线评估指标,对模型效果进行科学严谨的分析,并结合业务需求优化模型效果与性能; 3. 利用大模型的表征能力与推理能力,构建精准的物品表征与用户兴趣表征,并实时预测用户意图,为个性化推荐提供核心洞察; 4. 将算法模型进行原型实现、性能优化,并协助推动在真实业务场景中的落地和A/B测试,在保障推荐效果的同时,显著降低计算成本、提升系统响应效率; 5. 紧跟业界前沿(如LLM、多模态、强化学习),探索基于大模型的生成式推荐、序列推荐和端到端推荐等推荐系统新范式,推动推荐系统技术架构的演进与升级;
研究方向一:垂域LLM研究与构建 1.基座模型架构设计与优化:参与大语言模型基座架构的设计,研究前沿技术,如稀疏激活、混合精度训练等,同时优化模型的训练和推理流程。 2.技术创新与突破:参与前沿技术研究,如多任务学习、跨模态理解等,推动模型在复杂任务上的性能提升;探索Transformer替代架构,突破现有模型scaling law限制;同时挑战学术benchmark,为模型的性能树立新的行业标杆。 3.强化学习算法研究:参与大语言模型后训练阶段的强化学习算法研究,包括基于AI和环境反馈的强化学习(RLXF)算法。同时探索奖励模型与反馈机制,研究可泛化的细粒度过程监督和奖励建模,探索基于细粒度反馈的强化学习算法。 4.垂域模型定制化构建:领域认知智能突破,探索小样本场景自演进架构设计、可信推理机制构建等方向,同时建立面向AGI的模型评价体系新范式。 5.跨部门协作与落地:与公司数据科学家、算法工程师、产品团队紧密合作,将研究成果快速转化为实际应用,推动大语言模型在更多场景的落地。 研究方向二:垂域MLLM研究与构建 1.研究多模态表征与大语言模型融合的前沿技术,设计和实现创新算法,研究异质数据的统一编解码模型,适配多种模态下的特征统一,实现高效微调与优化。 2.探索强化学习(RL)在多模态大模型中的应用,包括强化学习增强的多模态生成、跨模态对齐、偏好建模及自适应优化,提升多模态理解与推理能力。 3.持续追踪多模态与强化学习结合的最新研究进展,优化现有多模态系统架构,提升性能、效率与可扩展性,推动多模态强化学习在智能体交互、决策推理等任务中的应用。 4.构建技术评估体系,通过多场景验证推动多模态理解、生成及强化学习优化策略的落地应用,提升多模态大模型的泛化能力和实际应用价值。 研究方向三:基于角色扮演的虚拟数字助理 1. 角色扮演技术(Role-Playing):通过模型优化、Agent构建,在人设、拟人性、情感等取得显著提升。 2. 记忆管理与增强(Memory):通过模型长上下文,记忆抽取与管理,提升系统的记忆能力。 3. 个性化技术:通过用户行为数据挖掘与建模,结合多轮对话上下文理解,分析用户情感状态,提升模型的个性化回复能力。 4. 基于Agent的数字助理:通过Agent构建和基于RL的优化,实现数字助理的能力复刻和增强