博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
spark集群搭建(三台虚拟机)——kafka集群搭建(4)
阅读量:5247 次
发布时间:2019-06-14

本文共 2025 字,大约阅读时间需要 6 分钟。

!!!该系列使用三台虚拟机搭建一个完整的spark集群,集群环境如下:

virtualBox5.2、Ubuntu14.04、securecrt7.3.6_x64英文版(连接虚拟机)

jdk1.7.0、hadoop2.6.5、zookeeper3.4.5、Scala2.12.6、kafka_2.9.2-0.8.1、park1.3.1-bin-hadoop2.6

本文在前面基础上搭建kafka

一、Scala安装(2.12.6)

在spark1上:

1、下载解压重命名

2、配置Scala环境变量:

export SCALA_HOME=/usr/local/bigdata/scala export PATH=$PATH:$SCALA_HOME/bin

3、验证Scala

root@spark1:/usr/local/bigdata/zk/conf# scala -versionScala code runner version 2.12.6 -- Copyright 2002-2018, LAMP/EPFL and Lightbend, Inc.

  

4、拷贝到spark2 和spark3上

$ cd /usr/local/bigdataroot@spark1:/usr/local/bigdata# scp -r scala root@spark2://usr/local/bigdata/root@spark1:/usr/local/bigdata# scp -r scala root@spark3://usr/local/bigdata/

5、同理配置spark2和spark3环境变量

二、kafka(kafka_2.9.2-0.8.1)

在spark1上:

1、kafka下载解压重命名

2、修改server.properties

$ cd /usr/local/bigdata/kafka$ cd ./config$ vim server.properties

按顺序添加zookeeper的三台主机名

zookeeper.connect=192.168.43.124:2181,192.168.43.123:2181,192.168.43.125:2181

3、进入bin目录下

$ vim kafka-run-class.sh

找到

  KAFKA_JVM_PERFORMANCE_OPTS="-server -XX:+UseCompressedOops -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:+CMSClassUnloadingEnabled -XX:+CMSScavengeBeforeRemark -XX:+DisableExplicitGC -Djava.awt.headless=true"

去掉

 -XX:+UseCompressedOops

4、slf4j-1.7.6

下载:链接: 密码:h7bu

解压,将slf4j-nop-1.7.6.jar复制到 kafka 的libs 目录下

5、将kafka拷贝到spark2和spark3上

root@spark1:/usr/local/bigdata# scp -r kafka root@spark2://usr/local/bigdata/root@spark1:/usr/local/bigdata# scp -r kafka root@spark3://usr/local/bigdata/

修改spark2上的kafka 的server.properties文件,将broker.id值改为1

broker.id=1

修改spark3上的kafka 的server.properties文件,将broker.id值改为2

 broker.id=2

三、启动kafka,三台机器均需要启动

$ cd kafka  #进入kafka安装目录下$ ./bin/kafka-server-start.sh config/server.properties & 

启动成功

root@spark1:~# jps2465 Jps2435 NodeManager2307 ResourceManager1955 DataNode1829 NameNode1605 Kafka2154 SecondaryNameNode1519 QuorumPeerMain

 

如果启动出现卡住不动可能是内存不够,解决:

将 kafka-server-start.sh的export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"修改为export KAFKA_HEAP_OPTS="-Xmx256M -Xms128M"

  

转载于:https://www.cnblogs.com/suwy/p/9465304.html

你可能感兴趣的文章
Leetcode 92. Reverse Linked List II
查看>>
windown快速安装xgboost
查看>>
Linux上安装Libssh2
查看>>
九.python面向对象(双下方法内置方法)
查看>>
go:channel(未完)
查看>>
[JS]递归对象或数组
查看>>
LeetCode(17) - Letter Combinations of a Phone Number
查看>>
Linux查找命令对比(find、locate、whereis、which、type、grep)
查看>>
路由器外接硬盘做nas可行吗?
查看>>
python:从迭代器,到生成器,再到协程的示例代码
查看>>
Java多线程系列——原子类的实现(CAS算法)
查看>>
在Ubuntu下配置Apache多域名服务器
查看>>
多线程《三》进程与线程的区别
查看>>
linux sed命令
查看>>
LeetCode 160. Intersection of Two Linked Lists
查看>>
html标签的嵌套规则
查看>>
[Source] Machine Learning Gathering/Surveys
查看>>
HTML <select> 标签
查看>>
类加载机制
查看>>
tju 1782. The jackpot
查看>>