ElasticSearch 是一个分布式、高扩展、高实时的搜索引擎。它能很方便的使大量数据具有搜索、分析和探索的能力。充分利用ElasticSearch的水平伸缩性,能使数据在生产环境变得更有价值。ElasticSearch 的实现原理主要分为以下几个步骤,首先用户将数据提交到Elastic Search 数据库中,再通过分词控制器去将对应的语句分词,将其权重和分词结果一并存入数据,当用户搜索数据时候,再根据权重将结果排名,打分,再将返回结果呈现给用户,本文介绍如果通过Docker进行安装Elasticsearch单节点和集群
一、安装单节点Elasticsearch
1、拉取Elasticsearch
docker pull elasticsearch:6.8.7
2、创建数据卷
主要用于将容器内的数据和宿主机进行挂载,避免容器重启和挂掉的时候数据丢失
- 创建目录
# -p是创建多级目录
mkdir -p /data/es
- 进入刚刚创建的es目录,创建数据存放目录和日志存放目录
# 进入目录
cd /data/es
# 创建数据目录和日志目录
mkdir data log
# 这两个目录的用户权限要与启动es的用户相同,否则会出现没有权限读取,这里为了方便直接给开放最大权限
chmod 777 data log
- 创建配置文件
vim es.yml
- 文件中加入以下内容
cluster.name: elasticsearch-cluster
node.name: es-node
http.port: 9200
network.host: 0.0.0.0
http.cors.enabled: true
http.cors.allow-origin: "*"
3、启动
docker run -d --name es -p 9200:9200 -p 9300:9300 --restart always -v /data/es/data/:/usr/share/elasticsearch/data -v /data/es/log/:/usr/share/elasticsearch/logs -v /data/es/es.yml:/usr/share/elasticsearch/config/elasticsearch.yml -e "discovery.type=single-node" elasticsearch:6.8.7
- 最后通过浏览器测试是否启动成功
4、安装IK分词器
Elasticsearch分词器,对中文分词不是太友好。这里我们可以下载开源的IK
分词器
- 进入es容器
docker exec -it es bash
- 进入plugin目录并安装分词器
# 进入目录
cd plugins/
# 安装分词器
wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.8.7/elasticsearch-analysis-ik-6.8.7.zip
5、安装Elasticsearch-Head
提供了操作Elasticsearch的界面
- 拉取镜像
docker pull mobz/elasticsearch-head:5
- 运行
docker run -d -p --name eshead 9100:9100 docker.io/mobz/elasticsearch-head:5
最后通过浏览器打开,并进行连接测试是否连接成功,这时候对ES集群进行操作时会出现406
异常,需要我们去配置下
# 进入head容器
docker exec -it eshead bash
# 编辑配置文件,如果没有vim命令自行安装vim
vim _site/vendor.js
# 在未编辑的模式下使用以下命令查询
/contentType
输入i开启编辑模式,application/x-www-form-urlencoded 改为 application/json;charset=UTF-8
# 按键盘的ESC健退出编辑模式,然后查询下一个
/var inspectData = s.contentType
输入i开启编辑模式,将application/x-www-form-urlencoded 改为 application/json;charset=UTF-8
# 输入wq保存并退出,最后退出容器并重启容器
exit
docker restart eshead
到此就安装好单节点的Elasticsearch啦,但是有个地方要注意,ES的版本号一定要和分词器的版本对应
二、安装集群版的Elasticsearch
这里只介绍如何安装集群,不再介绍安装分词器等。。
1、创建配置文件
这里还是延续安装单节点,在/data/es
目录中创建,如果服务器没有该目录就自行创建
vim es.yml
加入以下内容
cluster.name: elasticsearch-cluster
node.name: es-node1
network.host: 0.0.0.0
network.publish_host: 192.168.1.97
http.port: 9200
transport.tcp.port: 9300
http.cors.enabled: true
http.cors.allow-origin: "*"
node.master: true
node.data: true
discovery.zen.ping.unicast.hosts: ["192.168.1.97:9300","192.168.1.98:9300"]
discovery.zen.minimum_master_nodes: 2
- 在第二台服务器也创建该配置文件并加入以下内容
cluster.name: elasticsearch-cluster
node.name: es-node2
network.host: 0.0.0.0
network.publish_host: 192.168.1.98
http.port: 9200
transport.tcp.port: 9300
http.cors.enabled: true
http.cors.allow-origin: "*"
node.master: true
node.data: true
discovery.zen.ping.unicast.hosts: ["192.168.1.98:9300","192.168.1.97:9300"]
discovery.zen.minimum_master_nodes: 2
以下为配置的描述
配置 | 描述 |
---|---|
cluster.name | 用于唯一标识一个集群,不同的集群,其 cluster.name 不同,集群名字相同的所有节点自动组成一个集群 |
node.name | 节点名,默认随机指定一个name列表中名字。一个集群中node名字不能重复 |
network.host | 允许访问的IP,默认为0.0.0.0 |
network.publish_host | 设置其它结点和该结点交互的ip地址,如果不设置它会自动判断,值必须是个真实的ip地址 |
http.port | 设置对外服务的http端口,默认为9200 |
transport.tcp.port | 设置节点之间交互的tcp端口,默认是9300 |
http.cors.enabled | 是否允许跨域 |
http.cors.allow-origin | 允许的域名,* 表示所有 |
node.master | 该结点是否有资格被选举为主结点(候选主结点),用于处理请求和管理集群。如果结点没有资格成为主结点,那么该结点永远不可能成为主结点;如果结点有资格成为主结点,只有在被其他候选主结点认可和被选举为主结点之后,才真正成为主结点 |
node.data | 配置该结点是数据结点,用于保存数据,执行数据相关的操作 |
discovery.zen.ping.unicast.hosts | 集群中节点的IP地址 |
discovery.zen.minimum_master_nodes | 自动发现master节点的最小数,如果这个集群中配置进来的master节点少于这个数目,es的日志会一直报master节点数目不足,甚至会出现主备切换时误认为有两个激活的master节点。最好为主节点总数 / 2 + 1 ,默认1 |
2、运行
分别运行两台服务器中的Elasticsearch,这里不在介绍拉取镜像
docker run -d --name es -p 9200:9200 -p 9300:9300 --restart always -v /data/es/data/:/usr/share/elasticsearch/data -v /data/es/log/:/usr/share/elasticsearch/logs -v /data/es/es.yml:/usr/share/elasticsearch/config/elasticsearch.yml elasticsearch:6.8.7
这里的命令比安装单节点少了个环境变量-e "discovery.type=single-node "
,运行成功后通过head去测试下连接,如果都连接成功的话就算是成功啦,如果失败,就自己去看看哪里配置错了哦
本文到此就结束咯,有任何疑问欢迎在评论区发表