当前位置: 首页 > news >正文

做百度糯米网站的团队外国人b站

做百度糯米网站的团队,外国人b站,泉州疫情最新通报,互动网站建设特点前言 本节内容我们完成Flume数据采集的故障转移案例,使用三台服务器,一台服务器负责采集nc数据,通过使用failover模式的Sink处理器完成监控数据的故障转移,使用Avro的方式完成flume之间采集数据的传输。整体架构如下:…

前言

本节内容我们完成Flume数据采集的故障转移案例,使用三台服务器,一台服务器负责采集nc数据,通过使用failover模式的Sink处理器完成监控数据的故障转移,使用Avro的方式完成flume之间采集数据的传输。整体架构如下:

正文

①在hadoop101服务器的/opt/module/apache-flume-1.9.0/job目录下创建job-nc-flume-avro.conf配置文件,用于监控nc并传输到avro sink

- job-nc-flume-avro.conf配置文件

# Name the components on this agent
a1.sources = r1
a1.channels = c1
a1.sinkgroups = g1
a1.sinks = k1 k2
# Describe/configure the source
a1.sources.r1.type = netcat
a1.sources.r1.bind = localhost
a1.sources.r1.port = 44444
a1.sinkgroups.g1.processor.type = failover
a1.sinkgroups.g1.processor.priority.k1 = 5
a1.sinkgroups.g1.processor.priority.k2 = 10
a1.sinkgroups.g1.processor.maxpenalty = 10000
# Describe the sink
a1.sinks.k1.type = avro
a1.sinks.k1.hostname = hadoop102
a1.sinks.k1.port = 4141
a1.sinks.k2.type = avro
a1.sinks.k2.hostname = hadoop103
a1.sinks.k2.port = 4142
# Describe the channel
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100
# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinkgroups.g1.sinks = k1 k2
a1.sinks.k1.channel = c1
a1.sinks.k2.channel = c1

②在hadoop102服务器的/opt/module/apache-flume-1.9.0/job目录下创建job-avro-flume-console102.conf配置文件,用于监控avro source数据到控制台

 - job-avro-flume-console102.conf配置文件

# Name the components on this agent
a1.sources = r1
a1.sinks = k1
a1.channels = c1
# Describe/configure the source
a1.sources.r1.type = avro
a1.sources.r1.bind = hadoop102
a1.sources.r1.port = 4141
# Describe the sink
a1.sinks.k1.type = logger
# Describe the channel
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100
# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

③ 在hadoop103服务器的/opt/module/apache-flume-1.9.0/job目录下创建job-avro-flume-console103.conf配置文件,用于监控avro source数据到控制台

- job-avro-flume-console103.conf配置文件

# Name the components on this agent
a1.sources = r1
a1.sinks = k1
a1.channels = c1
# Describe/configure the source
a1.sources.r1.type = avro
a1.sources.r1.bind = hadoop103
a1.sources.r1.port = 4142
# Describe the sink
a1.sinks.k1.type = logger
# Describe the channel
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100
# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

④启动hadoop102上的flume任务job-avro-flume-console102.conf

- 命令:

bin/flume-ng agent -c conf/ -n a1 -f job/job-avro-flume-console102.conf -Dflume.root.logger=INFO,console

⑤启动hadoop103上的flume任务job-avro-flume-console103.conf 

- 命令:

bin/flume-ng agent -c conf/ -n a1 -f job/job-avro-flume-console103.conf -Dflume.root.logger=INFO,console

⑥启动hadoop101上的flume任务job-nc-flume-avro.conf

- 命令:

bin/flume-ng agent -c conf/ -n a1 -f job/job-nc-flume-avro.conf -Dflume.root.logger=INFO,console

⑦使用nc向本地44444监控端口发送数据

 - 由于hadoop103中的sink avro优先级高于hadoop102中的sink avro,故hadoop103接收到了nc发送的数据

- 此时将hadoop103中的flume任务停止,继续通过nc发送数据,hadoop102的sink avro替换hadoop103中的flume任务继续接收数据打印到控制台

- 此时在将hadoop103中的flume监控恢复,继续通过nc发送数据,数据继续通过hadoop103中的sink avro接收数据

结语

至此,关于Flume数据采集之故障转移案例实战到这里就结束了,我们下期见。。。。。。

http://www.mmbaike.com/news/103437.html

相关文章:

  • 四川省住房和城乡建设厅新网站线上教育培训机构十大排名
  • 东莞微信网站建设重庆百度竞价开户
  • 医院门户网站建设百度收录是什么意思
  • 网站建设公司加盟百度seo 站长工具
  • 安徽望江县城乡建设局官方网站北京网站seo优化推广
  • go语言可以做网站吗爱网站关键词查询工具长尾
  • 高端手机网站案例竞价恶意点击犯法吗
  • 转运公司网站建设网站开发公司排行榜
  • 永年专业做网站百度收录快的发帖平台
  • Wordpress 源码 商城seo专业论坛
  • 江宁滨江网站建设关键词优化怎么做
  • 房产中介网站排名国际新闻网
  • 网站开发与推广方向域名注册平台有哪些
  • 洛阳建网站公司关键词分类工具
  • 龙岩任做网站的哪几个比较好优化疫情防控
  • 做不锈钢管网站google 推广优化
  • 电子商务网站设计公司商品标题优化
  • 宝山武汉阳网站建设uc浏览网页版进入
  • 有没有专门交人做美食的视频网站南宁seo排名收费
  • 建设电子商务网站期末考试培训方案及培训计划
  • 长春网站建设电话咨询2345网址导航怎么彻底删掉
  • 四川手机网站有哪些绍兴seo公司
  • wordpress 二次元交互网络快速排名优化方法
  • 做全国社保代理的网站国家职业技能培训学校
  • 定远建设局网站百度竞价推广公司
  • 做网站都要学什么关键词优化靠谱推荐
  • 福建设计院网站深圳seo优化电话
  • 学校网站建设的wbs软件培训机构排名
  • 怎样做自己的网站加入百度联盟重庆百度开户
  • 杭州做宠物网站的公司哪家好域名查询注册信息查询