快手数据开发工程师-【风控】
社招全职2年以上D7229地点:北京状态:招聘
任职要求
1、熟悉分布式计算框架,掌握分布式计算的设计与优化能力,了解流式计算; 2、有Hive、Kafka、Spark、Flink、HBase等两种以上两年以上使用经验; 3、熟悉数据仓库理论方…
登录查看完整任职要求
微信扫码,1秒登录
工作职责
1、负责快手风控数据仓库的建设,整合构建各业务场景的基础数据; 2、根据业务需求,提供大数据计算应用服务,并持续优化改进; 3、针对复杂场景的数据进行合理的设计和加工,为业务上数据分析和应用加速、提效。
包括英文材料
Hive+
[英文] Hive Tutorial
https://www.tutorialspoint.com/hive/index.htm
Hive is a data warehouse infrastructure tool to process structured data in Hadoop. It resides on top of Hadoop to summarize Big Data, and makes querying and analyzing easy.
https://www.youtube.com/watch?v=D4HqQ8-Ja9Y
Kafka+
https://developer.confluent.io/what-is-apache-kafka/
https://www.youtube.com/watch?v=CU44hKLMg7k
https://www.youtube.com/watch?v=j4bqyAMMb7o&list=PLa7VYi0yPIH0KbnJQcMv5N9iW8HkZHztH
In this Apache Kafka fundamentals course, we introduce you to the basic Apache Kafka elements and APIs, as well as the broader Kafka ecosystem.
Spark+
[英文] Learning Spark Book
https://pages.databricks.com/rs/094-YMS-629/images/LearningSpark2.0.pdf
This new edition has been updated to reflect Apache Spark’s evolution through Spark 2.x and Spark 3.0, including its expanded ecosystem of built-in and external data sources, machine learning, and streaming technologies with which Spark is tightly integrated.
还有更多 •••
相关职位
社招3-5年D11903
1、负责商业化风控数据仓库的建设,构建各垂直应用的数据集市; 2、定义并开发业务核心指标数据,负责垂直业务数据建模; 3、根据业务需求,提供大数据计算应用服务,并持续优化改进; 4、参与风控数仓应用数据开发工作,支持业务需求。
更新于 2025-10-21北京
社招数据开发岗
1.负责按照业务需求建立并完善风控所需要的风控集市 ,参与模型结构设计、模型mapping开发、特征开发等工作; 2.负责自有数据、三方数据进行分层管理和加工,通过合理的数据抽象和建模,沉淀可复用的数据资产; 3.参与数据治理、数据质量、数据服务及数据产品等基础数据平台和设施建设。
更新于 2025-06-16北京
社招算法开发岗
1.负责完善风控的建设,通过系统、数据、算法的平台能力沉淀,夯实风控基础能力; 2.参与设计和优化反欺诈、团伙识别等关键风控模型,确保模型的高效性和准确性; 3.与产品、研发团队紧密合作,将算法模型有效集成到风控系统中,解决实际业务问题; 4.关注最新的算法研究动态,评估新技术的可行性,推动技术创新和应用。
更新于 2025-10-26上海