09【在线日志分析】之基于Spark Streaming Direct方式的WordCount最详细案例(java版)

  1. 云栖社区>
  2. 博客>
  3. 正文

09【在线日志分析】之基于Spark Streaming Direct方式的WordCount最详细案例(java版)

sh_jepson 2017-01-14 16:53:41 浏览735
展开阅读全文
1.前提
a. flume 收集--》flume 聚合--》kafka ,启动进程和启动kafka manager监控

    08【在线日志分析】之Flume Agent(聚合节点) sink to kafka cluster

b.window7 安装jdk1.7 或者1.8(本次环境是1.8)

c.window7 安装IDEA开发工具(以下仅供参考)

使用IntelliJ IDEA 配置Maven(入门): http://blog.csdn.net/qq_32588349/article/details/51461182

IDEA Java/Scala混合项目Maven打包 :http://blog.csdn.net/rongyongfeikai2/article/details/51404611
Intellij idea使用java编写并执行spark程序: http://blog.csdn.net/yhao2014/article/details/44239021


2.源代码 (可下载单个java文件,加入projet 或者 整个工程下载,IDEA选择open 即可)
GitHub: https://github.com/Hackeruncle/OnlineLogAnalysis/blob/master/online_log_analysis/src/main/java/com/learn/java/main/SparkStreamingFromKafka_WordCount.java


3.使用IDEA 本地运行测试(未打jar包)








网友评论

登录后评论
0/500
评论