关于mysql:Elasticsearch安装与简单配置

4次阅读

共计 2688 个字符,预计需要花费 7 分钟才能阅读完成。

Elasticsearch 装置与简略配置

1. Elasticsearch 基于 java 开发,所以须要装置 JDK 并设置 $JAVA_HOME (Elasticsearch7 开始内置了 java)
2. 各版本对 java 的依赖
    1. Elasticsearch5 须要从 Java 8 以上的版本
    2. Elasticsearch 从 6.5 开始反对 Java 11
    3. Elasticsearch 7 开始内置了 java 环境 

装置 (以 mac 为例,不同零碎能够参考官网的示例)

1. 下载源码包装置

1. 到官网下载源码包 官网地址 https://www.elastic.co/cn/downloads/elasticsearch
2. 双击装置 

2. 应用 brew 装置

1. brew tap elastic/tap
2. brew install elastic/tap/elasticsearch-full

装置当前,Elasticsearch 相干文件的装置目录如下图所示 

相干目录解释:

目录 重要配置文件 形容
bin 脚本文件,包含启动 Elasticsearch,装置插件,运行统计数据等
config Elasticsearch.yml 集群配置文件,user,role based 相干配置
JDK java 运行环境,7 版本当前自带
data path.data 数据文件
lib java 类库
logs Path.log 日志文件
modules 蕴含所有 ES 模块
Plugins 蕴含所有已装置插件
 额定留神:1. 7.1 下载的默认配置是 1GB
生成环境配置倡议:1. Xmx 和 Xms 设置成一样
    2. Xmx 不要超过机器内存的 50%
    3. 不要超过 30GB

在命令行输出 elasticsearch, 启动集群:

在浏览器输出 http://localhost:9200 能够看到 …:

elasticsearch 装置插件

1. 这里以装置 analysis-icu 为例,这是一个国际化分词插件

elasticsearch-plugin list  查看本机已装置插件
elasticsearch-plugin install analysis-icu  装置插件

咱们能够应用插件的模式对 elasticsearch 进行扩大 

如何在开发机上运行多个 elasticsearch 实例

elasticsearch -E node.name=node1 -E cluster.name=adp -E path.data=node1_data -d
elasticsearch -E node.name=node2 -E cluster.name=adp -E path.data=node2_data -d
elasticsearch -E node.name=node3 -E cluster.name=adp -E path.data=node3_data -d

咱们在启动 elasticsearch 服务的时候,指定节点名,集群名称以及每个节点存储数据的文件即可
能够通过浏览器拜访 http://localhost:9200/_cat/nodes 来查看集群节点 

Kibana 的装置与界面疾速浏览

装置与配置

1. kibaba 的装置与 elasticsearch 相似,也能够通过下载源码包或者 brew 装置

brew install elastic/tap/kibana-full

注:须要先增加 elastic homebrew 的仓库
brew tap elastic/tap

装置实现当前,各目录如下图所示

配置

1. 关上 conf 上面的 kibana.yml 文件,批改 elasticsearch.hosts 为指向你的 elasticsearch 实例
2. 能够将最初一行的配置改为 i18n.locale: "zh-CN"(默认正文),即可汉化 kibana

运行 kibana

1. 在命令行输出 kibana (先启动 elasticsearch 集群)
2. 在浏览器输出 http://localhost:5601,看到以下界面即为装置配置胜利 

Logstash 装置与导入数据

装置

1. logstash 的装置与下面那俩没啥区别,官网下载源码包,或者 brew

brew install elastic/tap/logstash-full

装置当前,各文件目录参考 kibana(地位和 kibana 一样,只是根目录换成了 logstash)

导入数据

1. 开源数据集下载 https://files.grouplens.org/datasets/movielens/ml-latest-small.zip
2. 解压数据集,记住 movies.csv 文件的门路
3. 重命名 conf 目录下 logstash-sample.conf  mv logstash-sample.conf logstash.conf
4. 批改 logstash.conf 为上面的代码
5. 以指定配置文件的形式运行 logstash    
    logstash -f logstash.conf
    须要 java 环境,启动会慢些,并且会在控制台看到打印出的索引数据 (json)
6. 在 kibana 的索引治理界面能够看到索引信息 
# logstash.conf

input {
  file {
    path => "YOUR_FULL_PATH_OF_movies.csv"
    start_position => "beginning"
    sincedb_path => "/dev/null"
  }
}

filter {
  csv {
    separator => ","
    columns => ["id","content","genre"]
  }

  mutate {split => { "genre" => "|"}
    remove_field => ["path", "host","@timestamp","message"]
  }

  mutate {split => ["content", "("]
    add_field => {"title" => "%{[content][0]}"}
    add_field => {"year" => "%{[content][1]}"}
  }

  mutate {
    convert => {"year" => "integer"}
    strip => ["title"]
    remove_field => ["path", "host","@timestamp","message","content"]
  }

}
output {
   elasticsearch {
     hosts => "http://localhost:9200"
     index => "movies"
     document_id => "%{id}"
   }
  stdout {}}

更多内容欢送关注我的集体公众号“韩哥有话说”,100G 人工智能学习材料,大量后端学习材料等你来拿。

更多内容欢送关注我的集体公众号“韩哥有话说”,100G 人工智能学习材料,大量后端学习材料等你来拿。

正文完
 0