IK分词器

简介: IK分词器

什么是IK分词器?

分词:把一段中文或者别的划分成一个一个的关键字,我们在搜索的时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词是将每个字看成一个词,比如"我爱魏一鹤"会被分成"我","爱","魏","一","鹤",这显然是不符合要求的,索引我们需要安装中文分词器IK来解决这个问题

如果要使用中文,建议使用ik分词器

IK提供了两个分词算法,ik_smart和ik_max_world,其中ik_smart为最少切分,ik_max_wold为最细颗粒度划分,一会都会分别来测试

下载IK分词器

注意 ik版本要和es,kibana版本保持统一(7.6.1)

下载网址:https://github.com/medcl/elasticsearch-analysis-ik

网络异常,图片无法展示
|

找到7.6.1版本

网络异常,图片无法展示
|

网络异常,图片无法展示
|

下载到本地,放入es插件中即可,这里我在es的plugins目录下创建一个IK目录

网络异常,图片无法展示
|

解压缩,目录如下

网络异常,图片无法展示
|

然后重启观察ES

注意:没有使用ik分词器插件的时候黑窗口会提示no plugins loaded(没有插件加载)

网络异常,图片无法展示
|

现在使用了ik分词器黑窗口也会提示ik分词器插件已经被加载

网络异常,图片无法展示
|

我们也可以使用命令(elasticsearch-plugin list)查看es下的全部加载的插件

网络异常,图片无法展示
|

elasticsearch-plugin list

网络异常,图片无法展示
|

相关文章
|
自然语言处理 Java Maven
IK分词器安装
IK分词器安装
197 0
|
8月前
|
JSON 自然语言处理 Shell
|
8月前
|
JSON 自然语言处理 数据格式
ElasticSearchIK分词器的安装与使用IK分词器
ElasticSearchIK分词器的安装与使用IK分词器
81 0
|
自然语言处理 Shell 索引
【ES系列七】——ik自定义分词词库
在利用ik分词的过程中,当ik的分词规则不满足我们的需求了,这个时候就可以利用ik的自定义词库进行筛选,举个例子:当我要将“我是中国人,我想测试一下”这句话通过分词,将“我想测试一下”分为一个词的时候,就需要利用ik的自定义词库进行灌入指定的词。
【ES系列七】——ik自定义分词词库
|
JSON 自然语言处理 数据格式
ElasticSearch用ik_analyzer分词器出现报错
ElasticSearch用ik_analyzer分词器出现报错
293 0
|
自然语言处理 索引
白话Elasticsearch29-IK中文分词之IK分词器配置文件+自定义词库
白话Elasticsearch29-IK中文分词之IK分词器配置文件+自定义词库
429 0
|
自然语言处理 搜索推荐 索引
白话Elasticsearch28-IK中文分词之IK中文分词器的安装和使用
白话Elasticsearch28-IK中文分词之IK中文分词器的安装和使用
123 0
|
自然语言处理 Java
中文分词之Java实现使用IK Analyzer实现
中文分词之Java实现使用IK Analyzer实现
770 0
IK分词器
IK分词器
108 1
|
自然语言处理 数据库 对象存储
ElasticSeaech IK分词器介绍
ElasticSeaech IK分词器介绍