58同城Java资深开发工程师-AI连接(J33961)
任职要求
1、5年以上互联网中大型项目研发经验,计算机相关专业国家本科及以上学历; 2、有大型分布式系统架构设计和优化经验,精通JVM深度调优、GC机制优化及高并发场景性能瓶颈诊断; 3、精通常用分布式中间件原理及选型策略(如Kafka/RabbitMQ消息队列、Redis缓存集群、Zookeeper协调服务等),具有复杂系统容灾设计经验; 4、有一定大数据开发经验,熟悉Hadoop/Spark/Flink等生态组件; 5、熟悉大语言模型技术栈(如Transformer架构、Prompt Engineering、LoRA微调等),有AI Agent开发或AIGC系统落地经验者优先; 6、需要有良好的沟通协作能力,能够主导跨团队项目并进行有效沟通,有小团队组织管理经验优先。
工作职责
1、参与千万级日活核心业务系统的日常迭代与架构升级,保障系统在大规模流量场景下的高可用性与性能优化; 2、参与并推动分布式系统架构迭代升级,推动微服务化演进,构建具备业务前瞻性的技术架构体系; 3、参与大语言模型(LLM)在业务场景的落地应用,参与智能体等大模型应用的构建和迭代优化,构建业务团队智能化系统基础设施; 4、能够协同算法、NLP、大数据等技术团队,攻克复杂业务场景技术难题,持续提升用户体验。
1、负责AI技术深度应用软件测试或者系统稳定性测试,包括性能测试、压力测试、容灾演练等; 2、AI驱动的测试全流程优化,运用AI技术重构测试需求分析、用例设计、自动化、执行监控、缺陷预测及结果分析等环节,开发基于AI的自动化测试框架与工具,实现测试脚本智能生成、测试用例自适应推荐、异常场景自动挖掘等能力,探索大语言模型(LLM)在测试领域的应用,例如需求解析、测试数据生成、日志分析等场景; 3、自动化测试体系构建,设计并落地高可用、可扩展的自动化测试框架,整合AI能力提升测试覆盖率和执行效率,主导复杂系统的自动化测试策略,解决稳定性、数据构造等难点问题; 4、稳定性保障,负责系统稳定性测试,包括性能测试、压力测试、容灾演练等,确保系统在高并发、异常场景下的稳定性,设计并实施稳定性测试方案,识别系统瓶颈和潜在风险,推动研发团队优化系统架构,监控生产环境稳定性,分析故障根因,制定并落地改进措施; 5、技术探索与创新,跟踪AI测试领域前沿技术(如AI模糊测试、智能监控、自动化修复),推动技术预研与落地,通过数据建模与分析,构建测试质量评估体系,量化AI提效成果并持续优化; 6、团队赋能与协作,与研发、运维、产品等团队紧密合作,推动质量保障工作的落地和优化,沉淀AI测试方法论,通过技术分享、工具推广提升团队整体技术水平。
职位描述: 我们正在寻找一位热衷于测试领域AI算法研究与工程化落地的专业人员。您将负责探索和应用测试领域的AI算法技术,提升软件测试的智能化水平,并推动这些技术的实际应用,助力产品质量保障。 岗位职责: 1. 负责AI算法在软件测试领域的研究与应用,包括但不限于基于AI的手机智能操控、测试用例生成、智能缺陷分析、时序指标预测、视觉元素解析等方向。 2. 设计和优化基于大模型的多场景应用,例如多模态大模型用于用例生成、脚本生成、代码理解、缺陷分析等。 3. 跟踪大模型(如GPT、BERT、LLM等)相关技术的发展趋势,持续探索新的测试领域应用。 4. 分析和建模测试过程中的数据,探索机器学习、深度学习、强化学习等AI技术在测试领域的应用场景。 5. 设计并实现基于AI算法的测试工具或平台,推动工程化落地。 6. 撰写技术文档,分享技术成果,推动AI测试技术在团队内外的推广。
1. 加入效率工程部,负责一个或多个系统、关键应用的应用模块开发; 2. 重点关注云协作办公领域AI和IM相关服务的开发,解决系统开发技术难点,参与架构持续升级; 3. 关注互联网热点技术的发展方向,能够提出、评估并应用新技术; 4. 参与新系统需求分析与讨论,并提出技术可行性方案;