我的项目中筹备应用 ElasticSearch,之前只是对 ElasticSearch 有过简略的理解没有零碎的学习,本系列文章将从根底的学习再到深刻的应用。
咔咔之前写了一份死磕 MySQL 文章,现在再入一个系列玩转 ElasticSearch。
本期文章会带给大家装置 ElasticSearch、Kibana、Logstash、配置 ElasticSearch 外网可拜访、配置守护过程启动 Kibana、ElasticSearch、应用 Logstash 导入演示数据到 ElasticSearch 中。
一、装置 ElasticSearch
从 0 开始搭建一个 ElasticSearch 环境,接下来先装置。
ElasticSearch 官网在始终改版,有很多小伙伴找不到下载地位。
进去之后点击圈起来的地位,不要点击右边间接下载了
进去之后能够看到公布的历史版本,依据本人的需要下载对应的版本即可,这里咔咔下载的是 7.1.0 版本
如果你是 Linux,能够关上开发者模式,把地址复制进去,应用 wget + 地址 间接下载即可。
https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.1.0-linux-x86_64.tar.gz
能够看到此时已将 ElasticSearch 下载下来了,这是曾经解压好的
到了这一步不要激动间接就去启动,ElasticSearch 从 5.x 版本开始为了平安起见,不能间接应用 root 用户启用。
增加用户
执行 useradd es,增加 es 用户
在 root 用户下把 ElasticSearch 用户权限给 es 用户即可
chown -R es ElasticSearch
启动 ElasticSearch
切到 es 用户后,执行执行 ./bin/elasticsearch
即可启动 ElasticSearch
启动呈现初始化密钥库问题
Exception in thread "main" org.elasticsearch.bootstrap.BootstrapException: java.nio.file.AccessDeniedException: /usr/local/elasticsearch/elasticsearch-6.6.0/config/elasticsearch.keystore
Likely root cause: java.nio.file.AccessDeniedException: /usr/local/elasticsearch/elasticsearch-7.1.0/config/elasticsearch.keystore
at sun.nio.fs.UnixException.translateToIOException(UnixException.java:84)
at sun.nio.fs.UnixException.rethrowAsIOException(UnixException.java:102)
at sun.nio.fs.UnixException.rethrowAsIOException(UnixException.java:107)
at sun.nio.fs.UnixFileSystemProvider.newByteChannel(UnixFileSystemProvider.java:214)
at java.nio.file.Files.newByteChannel(Files.java:361)
at java.nio.file.Files.newByteChannel(Files.java:407)
at org.apache.lucene.store.SimpleFSDirectory.openInput(SimpleFSDirectory.java:77)
at org.elasticsearch.common.settings.KeyStoreWrapper.load(KeyStoreWrapper.java:206)
at org.elasticsearch.bootstrap.Bootstrap.loadSecureSettings(Bootstrap.java:224)
at org.elasticsearch.bootstrap.Bootstrap.init(Bootstrap.java:289)
at org.elasticsearch.bootstrap.Elasticsearch.init(Elasticsearch.java:159)
at org.elasticsearch.bootstrap.Elasticsearch.execute(Elasticsearch.java:150)
at org.elasticsearch.cli.EnvironmentAwareCommand.execute(EnvironmentAwareCommand.java:86)
at org.elasticsearch.cli.Command.mainWithoutErrorHandling(Command.java:124)
at org.elasticsearch.cli.Command.main(Command.java:90)
at org.elasticsearch.bootstrap.Elasticsearch.main(Elasticsearch.java:115)
at org.elasticsearch.bootstrap.Elasticsearch.main(Elasticsearch.java:92)
Refer to the log for complete error details.
这个版本须要进行平安认证性能须要创立 elasticsearch.keystore 这个文件所以输出上面的命令
./bin/elasticsearch-keystore create
查看是否启动胜利
在浏览器拜访 127.0.0.1::9200
看到如下界面就阐明曾经装置胜利了
这里咔咔是装置在 centos 虚拟机上的,那么如果用外网能够拜访到 ElasticSearch 呢!
二、配置外网拜访
配置外网拜访的步骤也很简略,跟着步骤走三分钟搭建好
问题一
max file descriptors [4096] for elasticsearch process is too low, increase to at least [65535]
编辑 /etc/security/limits.conf
,追加以下内容
es soft nofile 65536
es hard nofile 65536
问题二
max number of threads [3782] for user [es] is too low, increase to at least [4096]
意思是 elasticsearch 最大线程数目太低
批改 /etc/security/limits.conf
在文件开端减少以下两行:
es soft nproc 4096
es hard nproc 4096
问题三
max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
在 /etc/sysctl.conf
文件最初增加一行
vm.max_map_count=262144
问题四
the default discovery settings are unsuitable for production use; at least one of [discovery.seed_hosts, discovery.seed_providers, cluster.initial_master_nodes] must be configured
意思是配置以下三者,起码其一
[discovery.seed_hosts, discovery.seed_providers, cluster.initial_master_nodes]
在 elasticsearch 的 config 目录下,批改 elasticsearch.yml 配置文件
node.name: node-1
cluster.initial_master_nodes: ["node-1"]
network.host: 0.0.0.0
问题五
以上操作都执行完了,但外网还拜访不了,须要看一下防火墙是否敞开
# 敞开防火强
systemctl stop firewalld.service
# 设置永恒敞开
systemctl disable firewalld.service
这里须要留神一点,问题一和二批改实现后须要重启机器,切记、切记、切记
外网拜访 ElasticSearch
能够看到虚拟机的 ip 是http://192.168.253.129/
接下来试着在宿主机上拜访虚拟机 ip+ 端口 9200 看是否能够拜访
三、装置 Kibana
下载方式跟 ElasticSearch 一样,学会怎么下载这些软件,这里须要留神一点下载的版本须要跟 ElasticSearch 版本统一。
https://artifacts.elastic.co/downloads/kibana/kibana-7.1.0-linux-x86_64.tar.gz
所以接下来须要装置 Kibana7.1.0 版本
配置 Kibana 参数
复制到文件最初即可
i18n.locale: "zh-CN"
server.host: "0.0.0.0"
elasticsearch.hosts: ["http://localhost:9200"]
启动 Kibana
进到 Kibana 目录执行./bin/kibana 即可
无奈启动报错如下
[WARN][o.e.c.c.ClusterFormationFailureHelper] [node-1] master not discovered or elected yet, an election requires a node with id [rEq_ExihQ927BnwBy3Iz7A], have discovered [] which is not a quorum; discovery will continue using [127.0.0.1:9300, 127.0.0.1:9301, 127.0.0.1:9302, 127.0.0.1:9303, 127.0.0.1:9304, [::1]:9300, [::1]:9301, [::1]:9302, [::1]:9303, [::1]:9304] from hosts providers and [{node-1}{DtZPMDK4S3qaSQF6mRhRqw}{lBAhaMvDTKmGkysihkwAqA}{192.168.122.130}{192.168.122.130:9300}{ml.machine_memory=1907744768, xpack.installed=true, ml.max_open_jobs=20}] from last-known cluster state; node term 412, last-accepted version 16 in term 1
解决方案:
查看 ElasticSearch 的 data 目录下有没有之前的节点数据
Kibana 实例启动如何敞开
查看以后端口号执行 netstat -anp | grep 5601
,最初边就有过程 ID,执行kill -9 过程 ID
即可
再重新启动即可。
如果把 Kibana 配置为中文
参数曾经给到大家了,就是 i18n.locale: "zh-CN"
这个配置
进来后你会看到这个页面
点击工具手,就能够操作 ElasticSearch 数据了,还是十分 nice 的
四、Kibana 界面疾速浏览
进入软件后,能够看到加载数据集
进来之后能够看到三个样例数据,别离为日志、电商订单、航班数据
接着点击 Dashboards 就会看到刚增加的三组样本数据
接着看一个十分重要的工具 dev Tools,这个工具再前期会大量的应用,用途就是帮忙你在 Kibana 中能够很不便的执行一些 ElasticSearch 的命令
五、守护过程启动 Kibana、ElasticSearch
在启动完 ElasticSearch 和 Kibana 后你会发现是间接在以后端口启动的,如果把这个终端敞开就会敞开。
接下来借助 nohup
来实现守护过程启动,留神不是 nohup 在网上很多的材料写的都是这个,不要被混同了
装置 nohup
当你执行 nohup 命令发现没有时,执行
yum install -y coreutils
个别状况下会装置在
/usr/bin/nohup
执行 which nohup
确认装置地位
将 nohup 命令配置为全局,应用最简略的形式,执行
#vi ~/.bash_profile
# 增加这行代码
PATH=$PATH:$HOME/bin:/use/bin
export PATH
而后,保留,刷新失效
source ~/.bash_profile
最初,进行验证,呈现版本信息则装置胜利
nohup --version
启动 Kibana
预计在网看了很多都是让间接执行nohup ./bin/kibana
,尽管这样能够让 Kibana 启动起来,但会呈现下图的谬误,同时当你 ctrl+ c 时 Kibana 也会敞开掉
须要把错误信息重定向到 linux 的空洞即可
nohup ./bin/kibana > /dev/null 2>&1 &
你会发现执行完后进去了一行数字,这个就是 Kibana 的过程 ID,如果你遗记了能够执行
ps -ef | grep node
来查看,因为 Kibana 是 node 起的
启动 ElasticSearch
跟启动 Kibana 同理,执行
nohup ./bin/elasticsearch > /dev/null 2>&1 &
六、装置 Logstash 并导入演示数据到 ElasticSearch
下载地址
wget https://artifacts.elastic.co/downloads/logstash/logstash-7.1.0.zip
演示数据是在 movielens
这个举荐零碎中欧获取的,数据就不必大家下载了,须要演示数据的找咔咔即可
这类的数据分享不了,所以 …
解压
unzip logstash-7.1.0.zip
启动 logstash
./bin/logstash -f logstash.conf
间接执行必定是不行的,你首先须要拿到演示数据,接着把 logstash.conf、movies.csv 文件放到 logstash 目录的第一层即可
下图圈起来的中央能够就是 movies.csv 的寄存地位,把这个门路改成你的门路即可
而后当你再次执行启动 logstash 命令时,你会遇到第一个问题
logstash could not find java; set JAVA_HOME or ensure java is in PATH
首先你得确认你有没有装置 java
# 验证是否装置
java -version
呈现下图阐明装置胜利了,若未装置也不必焦急,咔咔给你具体流程
装置 java8
传送门
https://download.oracle.com/otn/java/jdk/8u311-b11/4d5417147a92418ea8b615e228bb6935/jdk-8u311-linux-x64.tar.gz
心急的你是不是间接 wget 就上手了,这是不行的,下载 java8 安装包须要点击一下确认,并且没有注册 oracle 的还下载不了,因而你先须要一个 oracle 账号。
先把压缩包下载到宿主机,而后应用神器 scp 命令传输文件,那是相当的快,这样就能够把下载的 java 包传输到服务器了。
scp jdk-8u311-linux-x64.tar.gz root:192.168.17.128:/
在 /usr/local 下创立 java 目录
cd /usr/local
mkdir java
挪动 java 压缩包到 /usr/local/java
mv jdk-8u311-linux-x64.tar.gz /usr/local/java/
解压
tar -zxf jdk-8u311-linux-x64.tar.gz jdk8
配置环境变量
vim /etc/profile
文件最初加上(如果你跟咔咔的目录统一,则可不必改变)
export JAVA_HOME=/usr/local/java/jdk8
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:/$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar
刷新失效
source /etc/profile
最初验证即可
# 验证是否装置
java -version
再次执行./bin/logstash -f logstash.conf
仍然会呈现下图这个谬误,但 java 环境属实曾经加上了
来到 vim /logstash-7.1.0/bin/logstash.lib.sh
,你就会发现错误是从这里打进来的,起因是JAVACMD
没有值
在这个文件里搜寻了一下发现有很多,于是就间接在上边从新赋值即可,留神圈起来的中央
保留,退出,再次执行
./bin/logstash -f logstash.conf
终于功败垂成,把数据导入到 ElasticSearch 中了
在 Kibana 中查看是否存在 movies 的索引
七、装置 Cerebro
下载
wget https://github.com/lmenezes/cerebro/releases/download/v0.9.4/cerebro-0.9.4.tgz
解压
tar -zxf cerebro-0.9.4.tgz
批改配置文件,只须要关上 host 配置即可,ip 地址写成本人的即可
hosts = [
#{
# host = "http://192.168.17.128:9100"
# name = "Localhost cluster"
# headers-whitelist = ["x-proxy-user", "x-proxy-roles", "X-Forwarded-For"]
#}
# Example of host with authentication
{
host = "http://192.168.17.128:9200"
# name = "Secured Cluster"
#auth = {
# username = "admin"
# password = "admin"
#}
}
]
启动
cd cerebro
./bin/cerebro
输出 ip 地址 +9000 端口即可
八、总结
跟着本期文章大家能够胜利的把 ElasticSearch、Kibana 胜利装置并启动,ElasticSearch 若要让外网能够拜访还须要增加几个配置,跟着本期文章走都能够实现的。
简略理解 Kibana 的界面,前期大多数的演练都在 Kibana 上。
最初给大家聊了最感兴趣的守护过程启动 ElasticSearch 和 Kibana,网上很多材料不全,执行起来还有问题,咔咔给你最全教程跟着操作即可。
死磕 MySQL 系列总目录
保持学习、保持写作、保持分享是咔咔从业以来所秉持的信念。愿文章在偌大的互联网上能给你带来一点帮忙,我是咔咔,下期见。