Java
Need help with hadoop_study?
Click the “chat” button below for chat support from the developer who created it, or find similar developers for support.
realguoshuai

Description

定期更新Hadoop生态圈中常用大数据组件文档 重心依次为: Flink Solr Sparksql ES Scala Kafka Hbase/phoenix Redis Kerberos (项目包含hadoop思维导图 印象笔记 Scala版本简单demo 常用工具类 去敏后的train code 持续更新!!!)

510 Stars 175 Forks 780 Commits 9 Opened issues

Services available

Need anything else?

image

hadoop

  • hadoop科普
  • 大数据书籍
  • 大数据学习路线图 #### hadoop 导图笔记
  • hadoop伪分布式搭建
  • hadoop介绍
  • hadoop经典面试题及解题思路 ## hive
  • 阅读官方文档
  • 导图笔记
  • hive必会50道sql
  • hive开窗函数
  • hive基本是大数据入门必学的,在离线计算用的比较多,市场需求大,有sql基础入门比较快 ### Scala
  • 阅读官方文档
  • 导图笔记
  • 练手项目
  • scala 工作中flink/spark代码一般都是使用 Scala 实现 优先学! ## Spark
  • 阅读官方文档
  • 导图笔记
  • 练手项目 #### SparkSQL
  • Spark同步hive数据到solr #### Spark Structured Streaming
  • 后台我已经使用flink替代掉 ## Flink
  • Flink初识
  • Flink原理&40道面试题
  • Flink 常见QA
  • Flink开发者资料
  • Flink 阿里直播(每周四晚20:00-21:00))
  • 真.流计算利器,但是资料比较少,建议直接看官方文档 我会不定期的将整理的文档和遇到bug的解决方式上传到Flink的对应目录下
  • 18年夏天开始接手,到现在Flink开发近2年了,现独自负责公司实时计算部分.两年成果:后台使用flink 基于交通卡口数据(过车数据)实现了(实时ETL&&实时指标汇总&&实时预警)三大类,近30个job,已上线一个省会两个地级市;
  • 不足:FI平台的局限性,线上只能使用较低1.4.0版本 主要是写业务函数+DataStream/Process Function+缓存层,深点的东西还是没实际应用过(比如cep/table) #### Flink项目
  • Flink 学习项目
  • IDEA内使用socket模拟实时数据源 进行flink流处理
  • Flink示例Demo-识别违反尾号限行车辆
  • Flink电商Demo-用户行为实时分析
  • Flink接入socket实时数据源实现热门商品topN,数据下沉ES
  • Flink Table Demo 基于1.7.0+ #### Flink-1.10
  • flink1.10单机版快速搭建
  • 学习flink-1.10的Maven项目 #### FlinkX 有计划尝试下袋鼠云开源的FlinkX ### HBase(phoenix)
  • 文档笔记
  • phoenix 自定义UDFs函数
  • 见HBase目录,不定期更新
  • HBase HBCK详解-异常定位和修复总结 ## kafka
  • 阅读官方文档
  • 导图笔记
  • 开源的消息队列,流计算架构一定要有的一个组件 ## redis
  • Redis命令参考
  • 导图笔记
  • 主从模式&&哨兵模式
  • 布隆过滤器 ## lucene
  • 什么是倒排索引
  • MySQL和Lucene索引对比分析(转) ## solr
  • 阅读官方文档
  • 导图笔记
  • 全文检索 solr+kerberos验证
  • solr 实时创建索引延迟问题
  • solr百亿规模数据优化
  • 结巴分词
  • solr分collection的卡口过车数据100亿+ (增量4000-5000w/天) ## Eleasticsearch
  • 占坑,可以直接使用dbms+es实现几千万数据可视化展示 汇总,底层跟solr一样,都是基于lucene
  • ES6.1.3集群搭建(+jdk1.8.0_131)
  • ES性能优化-转载
  • ES代码-入库查询
  • SpringBoot实现ES服务化,提供rest接口 ## ClickHouse
  • 官方文档
  • TODO ## Kylin
  • TODO ## kerberos
  • 印象笔记
  • 主要分为人机/机机认证,大数据环境安装kerberos认证后,所有组件互通都需要互相认证,对开发有不小挑战
  • 2019-5-5 更新 Fusioninsigh下的所有组件互通已经调试好 ### springboot
  • 示例模板
  • 大数据开发,有能力的还是要学一下,数据服务化不求人(个人感觉,关于Solr和Es部分,服务化如果交给应用层开发,查询语句可能没有优化,用户体验会很差)
  • 已经实现了solr和es对上层提供的rest接口,直接跟前端对接
  • 新增接口中调用执行sh脚本服务 ### jvm
  • 常见参数
  • 简单概念 ### 数据服务化 将全文检索,离线或实时统计出来的数据,通过后台接口->dubbo(可省略)->rest服务化. ### leetcode
  • 刷题 ### 面试
  • 常见面试题
  • 电话一面
  • 现场二面 #### 持续更新...
  • 会不定期的将在工作中接触大数据组件时做的去敏测试代码上传到对应的文件夹下供初学者参考,少走弯路 包括自己每天更新的大数据印象笔记 更新的进度和规划在issues 中
  • 今年(19)计划重心是在实时计算上Flink,下半年的规划 : sparksql或flinksql flinksql推荐使用1.7.0+
  • 最新工作 : Solr出现问题(从存量50亿查当天数据,晚上查询30-50s,早上2s),50亿数据,查一天的最后一页,内存一下满了导致的(最后一页用户非得留着),参数配置修改为2w条
  • 警情地址匹配经纬度用到了jieba分词,需要自定词库+solr(已实现服务化,代码测试去敏后上传)
  • es+kerberos https证书卡着了(已解决,需要用华为二次开发的jar),先将DSL语法熟悉下上传
  • 这两天调试spark同步hive到es程序,es是kerberos安全认证的,网上的都是http的方式访问,难受,最终使用jdbc的方式在安全模式的集群下从hive读数据到es ok 断断续续优化的flink程序 加入rebalance,解决数据倾斜,导致背压,优化背压 对过车时间进行取余处理进行分流... 最终发现优化需要减操作步骤 而不是增加!! 跑了两天 离线程序白天还在跑导致CPU负载很高 实时计算程序和Solr查询速度受到影响
  • 优化实时计算代码(代码开发很简单,数据量一上来就算不过来) 原因:内存隔离 CPU共享 50亿+solr 查询导致集群CPU负载高
  • solr分库后 高CPU的现象解决 遗留问题:程序定时删除出bug
  • 最近任务 开始 es 服务化 替代现有的solr 一天初步搞定
  • 测试flink table api ok,公司使用Flink DataStream/Process Function API开发 开发稍微有点复杂, 有时间会尝试使用table/sql api进行替换 简化开发难度.
  • 近期 写Flink sink工具类,实现实时ETL秒级入库,现在仍是window+sink有时延 ok完成,Per模式运行,总共占用5G内存 稳定运行一周
  • 实时计算NC市几千条路段的实时拥堵指数,flink程序优化中,更新先停2天.
  • 最近晚上计划学点spark DataFrame,需要熟悉下批处理 在大数据平台的周报表上练手19.11
  • 最近接手这个事故接口一直变,增加到32个了
  • 实时计算-将中间计算结果保存在状态中,之前想的是放到redis里,页面程序可以直接获取,但是job数一多,对redis会造成过大的压力,所以使用状态保存,需要的结 果一起发送到kafka,测试两天 稳定运行(注:flink1.4.0不能设置state的过期时间,程序中逻辑处理(每天清空);1.6.0引入ttl)
  • spark统计全市/路段/区域 流量/拥堵 (完成) 完善Lambda架构,做成新增配置重算历史数据sh
  • 使用springboot + spark + ftp+ sh 实现导入文件统计 导出 脚本
  • springboot实现基础信息同步到大数据平台 6-10基本搞完了
  • flink开发浮动车GPS数据路径推测功能(gps->匹配路网得到相似度高的多个网格范围->计算点距离每条路段距离->确定车辆在哪条路段) ok

We use cookies. If you continue to browse the site, you agree to the use of cookies. For more information on our use of cookies please see our Privacy Policy.