39-微服务技术栈(高级):分布式搜索引擎ElasticSearch(索引库、文档操作)

简介: 在前面读者朋友们可以了解到ES承载着和MySQL一样的“存储-查询”功能,那么就类似的会有建表语句、表结构、表数据,有了这些才可以存储-查询数据。而这些对应的在ES中是:Mapping映射(表结构-建表语句)、索引库(表本身)、文档(表数据)。本节笔者将带领大家完整上述概念的创建、使用。

1.es的一些概念

elasticsearch中有很多独有的概念,与mysql中略有差别,但也有相似之处。

1.1.文档和字段

elasticsearch是面向文档(Document)存储的,可以是数据库中的一条商品数据,一个订单信息。文档数据会被序列化为json格式后存储在elasticsearch中:

而Json文档中往往包含很多的字段(Field),类似于数据库中的列。

1.2.索引和映射

索引(Index),就是相同类型的文档的集合。例如:

  • 所有用户文档,就可以组织在一起,称为用户的索引;
  • 所有商品的文档,可以组织在一起,称为商品的索引;
  • 所有订单的文档,可以组织在一起,称为订单的索引;

因此,我们可以把索引当做是数据库中的表。

数据库的表会有约束信息,用来定义表的结构、字段的名称、类型等信息。因此,索引库中就有映射(mapping),是索引中文档的字段约束信息,类似表的结构约束。

1.3.mysql与elasticsearch

我们统一的把mysql与elasticsearch的概念做一下对比:

MySQL

Elasticsearch

说明

Table

Index

索引(index),就是文档的集合,类似数据库的表(table)

Row

Document

文档(Document),就是一条条的数据,类似数据库中的行(Row),文档都是JSON格式

Column

Field

字段(Field),就是JSON文档中的字段,类似数据库中的列(Column)

Schema

Mapping

Mapping(映射)是索引中文档的约束,例如字段类型约束。类似数据库的表结构(Schema)

SQL

DSL

DSL是elasticsearch提供的JSON风格的请求语句,用来操作elasticsearch,实现CRUD

是不是说,我们学习了elasticsearch就不再需要mysql了呢?并不是如此,两者各自有自己的擅长支出:

  • Mysql:擅长事务类型操作,可以确保数据的安全和一致性
  • Elasticsearch:擅长海量数据的搜索、分析、计算

因此在企业中,往往是两者结合使用:

  • 对安全性要求较高的写操作,使用mysql实现
  • 对查询性能要求较高的搜索需求,使用elasticsearch实现
  • 两者再基于某种方式,实现数据的同步,保证一致性

1.4.安装es、kibana

1.4.1.安装

参考:链接

1.4.2.分词器

参考:链接

1.4.3.总结

分词器的作用是什么?

  • 创建倒排索引时对文档分词
  • 用户搜索时,对输入的内容分词

IK分词器有几种模式?

  • ik_smart:智能切分,粗粒度
  • ik_max_word:最细切分,细粒度

IK分词器如何拓展词条?如何停用词条?

  • 利用config目录的IkAnalyzer.cfg.xml文件添加拓展词典和停用词典
  • 在词典中添加拓展词条或者停用词条

2.索引库操作

索引库就类似数据库表,mapping映射就类似表的结构。我们要向es中存储数据,必须先创建“库”和“表”。

2.1.mapping映射属性

mapping是对索引库中文档的约束,常见的mapping属性包括:

  • type:字段数据类型,常见的简单类型有:
  • 字符串:text(可分词的文本)、keyword(精确值,例如:品牌、国家、ip地址)
  • 数值:long、integer、short、byte、double、float、
  • 布尔:boolean
  • 日期:date
  • 对象:object
  • index:是否创建索引,默认为true
  • analyzer:使用哪种分词器
  • properties:该字段的子字段

例如下面的json文档:

{

   "age": 21,

   "weight": 52.1,

   "isMarried": false,

   "info": "程序员Java讲师",

   "email": "zy@hh.cn",

   "score": [99.1, 99.5, 98.9],

   "name": {

       "firstName": "云",

       "lastName": "赵"

   }

}

对应的每个字段映射(mapping):

  • age:类型为 integer;参与搜索,因此需要index为true;无需分词器
  • weight:类型为float;参与搜索,因此需要index为true;无需分词器
  • isMarried:类型为boolean;参与搜索,因此需要index为true;无需分词器
  • info:类型为字符串,需要分词,因此是text;参与搜索,因此需要index为true;分词器可以用ik_smart
  • email:类型为字符串,但是不需要分词,因此是keyword;不参与搜索,因此需要index为false;无需分词器
  • score:虽然是数组,但是我们只看元素的类型,类型为float;参与搜索,因此需要index为true;无需分词器
  • name:类型为object,需要定义多个子属性
  • name.firstName;类型为字符串,但是不需要分词,因此是keyword;参与搜索,因此需要index为true;无需分词器
  • name.lastName;类型为字符串,但是不需要分词,因此是keyword;参与搜索,因此需要index为true;无需分词器

2.2.索引库的CRUD

这里我们统一使用Kibana编写DSL的方式来演示。

2.2.1.创建索引库和映射

基本语法:

  • 请求方式:PUT
  • 请求路径:/索引库名,可以自定义
  • 请求参数:mapping映射

格式:

PUT /索引库名称

{

 "mappings": {

   "properties": {

     "字段名":{

       "type": "text",

       "analyzer": "ik_smart"

     },

     "字段名2":{

       "type": "keyword",

       "index": "false"

     },

     "字段名3":{

       "properties": {

         "子字段": {

           "type": "keyword"

         }

       }

     },

     // ...略

   }

 }

}

示例:

PUT /demo

{

 "mappings": {

   "properties": {

     "info":{

       "type": "text",

       "analyzer": "ik_smart"

     },

     "email":{

       "type": "keyword",

       "index": "false"

     },

     "name":{

       "properties": {

         "firstName": {

           "type": "keyword"

         }

       }

     },

     // ... 略

   }

 }

}

2.2.2.查询索引库

基本语法

  • 请求方式:GET
  • 请求路径:/索引库名
  • 请求参数:无

格式

GET /索引库名

示例

2.2.3.修改索引库

倒排索引结构虽然不复杂,但是一旦数据结构改变(比如改变了分词器),就需要重新创建倒排索引,这简直是灾难。因此索引库一旦创建,无法修改mapping。虽然无法修改mapping中已有的字段,但是却允许添加新的字段到mapping中,因为不会对倒排索引产生影响。

语法说明

PUT /索引库名/_mapping

{

 "properties": {

   "新字段名":{

     "type": "integer"

   }

 }

}

示例

2.2.4.删除索引库

语法:

  • 请求方式:DELETE
  • 请求路径:/索引库名
  • 请求参数:无

格式:

DELETE /索引库名

在kibana中测试:

2.2.5.总结

索引库操作有哪些?

  • 创建索引库:PUT /索引库名
  • 查询索引库:GET /索引库名
  • 删除索引库:DELETE /索引库名
  • 添加字段:PUT /索引库名/_mapping

3.文档操作

3.1.新增文档

语法:

POST /索引库名/_doc/文档id

{

   "字段1": "值1",

   "字段2": "值2",

   "字段3": {

       "子属性1": "值3",

       "子属性2": "值4"

   },

   // ...

}

示例:

POST /heima/_doc/1

{

   "info": "程序员Java",

   "email": "zy@itcast.cn",

   "name": {

       "firstName": "云",

       "lastName": "赵"

   }

}

响应:

针对同一个index,其中version在每次写操作后都会+1(新增、修改、删除)

3.2.查询文档

根据rest风格,新增是post,查询应该是get,不过查询一般都需要条件,这里我们把文档id带上。

语法:

GET /{索引库名称}/_doc/{id}

通过kibana查看数据:

GET /heima/_doc/1

查看结果:

3.3.删除文档

删除使用DELETE请求,同样,需要根据id进行删除:

语法:

DELETE /{索引库名}/_doc/id值

示例:

# 根据id删除数据

DELETE /heima/_doc/1

结果:

3.4.修改文档

修改有两种方式:

  • 全量修改:直接覆盖原来的文档
  • 增量修改:修改文档中的部分字段

3.4.1.全量修改

全量修改是覆盖原来的文档,其本质是:

  • 根据指定的id删除文档
  • 新增一个相同id的文档

注意:如果根据id删除时,id不存在,第二步的新增也会执行,也就从修改变成了新增操作了。

语法:

PUT /{索引库名}/_doc/文档id

{

   "字段1": "值1",

   "字段2": "值2",

   // ... 略

}

示例:

PUT /heima/_doc/1

{

   "info": "黑马程序员高级Java讲师",

   "email": "zy@itcast.cn",

   "name": {

       "firstName": "云",

       "lastName": "赵"

   }

}

3.4.2.增量修改

增量修改是只修改指定id匹配的文档中的部分字段。

语法:

POST /{索引库名}/_update/文档id

{

   "doc": {

        "字段名": "新的值",

   }

}

示例:

POST /heima/_update/1

{

 "doc": {

   "email": "ZhaoYun@itcast.cn"

 }

}

3.5.总结

文档操作有哪些?

  • 创建文档:POST /{索引库名}/_doc/文档id   { json文档 }
  • 查询文档:GET /{索引库名}/_doc/文档id
  • 删除文档:DELETE /{索引库名}/_doc/文档id
  • 修改文档:
  • 全量修改:PUT /{索引库名}/_doc/文档id { json文档 }
  • 增量修改:POST /{索引库名}/_update/文档id { "doc": {字段}}

4.RestAPI

ES官方提供了各种不同语言的客户端,用来操作ES。这些客户端的本质就是组装DSL语句,通过http请求发送给ES。官方文档地址:https://www.elastic.co/guide/en/elasticsearch/client/index.html

其中的Java Rest Client又包括两种:

  • Java Low Level Rest Client
  • Java High Level Rest Client

我们学习的是Java HighLevel Rest Client客户端API

4.0.导入Demo工程

4.0.1.导入数据

首先导入提供的数据库数据:📎tb_hotel.sql

数据结构如下:

CREATE TABLE `tb_hotel` (

 `id` bigint(20) NOT NULL COMMENT '酒店id',

 `name` varchar(255) NOT NULL COMMENT '酒店名称;例:7天酒店',

 `address` varchar(255) NOT NULL COMMENT '酒店地址;例:航头路',

 `price` int(10) NOT NULL COMMENT '酒店价格;例:329',

 `score` int(2) NOT NULL COMMENT '酒店评分;例:45,就是4.5分',

 `brand` varchar(32) NOT NULL COMMENT '酒店品牌;例:如家',

 `city` varchar(32) NOT NULL COMMENT '所在城市;例:上海',

 `star_name` varchar(16) DEFAULT NULL COMMENT '酒店星级,从低到高分别是:1星到5星,1钻到5钻',

 `business` varchar(255) DEFAULT NULL COMMENT '商圈;例:虹桥',

 `latitude` varchar(32) NOT NULL COMMENT '纬度;例:31.2497',

 `longitude` varchar(32) NOT NULL COMMENT '经度;例:120.3925',

 `pic` varchar(255) DEFAULT NULL COMMENT '酒店图片;例:/img/1.jpg',

 PRIMARY KEY (`id`)

) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;

4.0.2.导入项目

然后导入提供的项目:📎hotel-demo.zip

项目结构如图:

4.0.3.mapping映射分析

创建索引库,最关键的是mapping映射,而mapping映射要考虑的信息包括:

  • 字段名
  • 字段数据类型
  • 是否参与搜索
  • 是否需要分词
  • 如果分词,分词器是什么?

其中:

  • 字段名、字段数据类型,可以参考数据表结构的名称和类型
  • 是否参与搜索要分析业务来判断,例如图片地址,就无需参与搜索
  • 是否分词呢要看内容,内容如果是一个整体就无需分词,反之则要分词
  • 分词器,我们可以统一使用ik_max_word

来看下酒店数据的索引库结构:

PUT /hotel

{

 "mappings": {

   "properties": {

     "id": {

       "type": "keyword"

     },

     "name":{

       "type": "text",

       "analyzer": "ik_max_word",

       "copy_to": "all"

     },

     "address":{

       "type": "keyword",

       "index": false

     },

     "price":{

       "type": "integer"

     },

     "score":{

       "type": "integer"

     },

     "brand":{

       "type": "keyword",

       "copy_to": "all"

     },

     "city":{

       "type": "keyword",

       "copy_to": "all"

     },

     "starName":{

       "type": "keyword"

     },

     "business":{

       "type": "keyword"

     },

     "location":{

       "type": "geo_point"

     },

     "pic":{

       "type": "keyword",

       "index": false

     },

     "all":{

       "type": "text",

       "analyzer": "ik_max_word"

     }

   }

 }

}

几个特殊字段说明:

  • location:地理坐标,里面包含精度、纬度
  • all:一个组合字段,其目的是将多字段的值 利用copy_to合并,提供给用户搜索

地理坐标说明:

copy_to说明:

4.0.4.初始化RestClient

在elasticsearch提供的API中,与elasticsearch一切交互都封装在一个名为RestHighLevelClient的类中,必须先完成这个对象的初始化,建立与elasticsearch的连接。

分为三步:

1)引入es的RestHighLevelClient依赖:

<dependency>

   <groupId>org.elasticsearch.client</groupId>

   <artifactId>elasticsearch-rest-high-level-client</artifactId>

</dependency>

2)因为SpringBoot默认的ES版本是7.6.2,所以我们需要覆盖默认的ES版本:

<properties>

   <java.version>1.8</java.version>

   <elasticsearch.version>7.12.1</elasticsearch.version>

</properties>

3)初始化RestHighLevelClient,初始化的代码如下:

RestHighLevelClient client = new RestHighLevelClient(RestClient.builder(

       HttpHost.create("http://192.168.150.101:9200")

));

这里为了单元测试方便,我们创建一个测试类HotelIndexTest,然后将初始化的代码编写在@BeforeEach方法中:

package cn.itcast.hotel;


import org.apache.http.HttpHost;

import org.elasticsearch.client.RestHighLevelClient;

import org.junit.jupiter.api.AfterEach;

import org.junit.jupiter.api.BeforeEach;

import org.junit.jupiter.api.Test;


import java.io.IOException;


public class HotelIndexTest {

   private RestHighLevelClient client;


   @BeforeEach

   void setUp() {

       this.client = new RestHighLevelClient(RestClient.builder(

               HttpHost.create("http://192.168.150.101:9200")

       ));

   }


   @AfterEach

   void tearDown() throws IOException {

       this.client.close();

   }

}

4.1.创建索引库

4.1.1.代码解读

创建索引库的API如下:

代码分为三步:

  • 1)创建Request对象。因为是创建索引库的操作,因此Request是CreateIndexRequest。
  • 2)添加请求参数,其实就是DSL的JSON参数部分。因为json字符串很长,这里是定义了静态字符串常量MAPPING_TEMPLATE,让代码看起来更加优雅。
  • 3)发送请求,client.indices()方法的返回值是IndicesClient类型,封装了所有与索引库操作有关的方法。

4.1.2.完整示例

在hotel-demo的cn.itcast.hotel.constants包下,创建一个类,定义mapping映射的JSON字符串常量:

package cn.itcast.hotel.constants;


public class HotelConstants {

   public static final String MAPPING_TEMPLATE = "{\n" +

           "  \"mappings\": {\n" +

           "    \"properties\": {\n" +

           "      \"id\": {\n" +

           "        \"type\": \"keyword\"\n" +

           "      },\n" +

           "      \"name\":{\n" +

           "        \"type\": \"text\",\n" +

           "        \"analyzer\": \"ik_max_word\",\n" +

           "        \"copy_to\": \"all\"\n" +

           "      },\n" +

           "      \"address\":{\n" +

           "        \"type\": \"keyword\",\n" +

           "        \"index\": false\n" +

           "      },\n" +

           "      \"price\":{\n" +

           "        \"type\": \"integer\"\n" +

           "      },\n" +

           "      \"score\":{\n" +

           "        \"type\": \"integer\"\n" +

           "      },\n" +

           "      \"brand\":{\n" +

           "        \"type\": \"keyword\",\n" +

           "        \"copy_to\": \"all\"\n" +

           "      },\n" +

           "      \"city\":{\n" +

           "        \"type\": \"keyword\",\n" +

           "        \"copy_to\": \"all\"\n" +

           "      },\n" +

           "      \"starName\":{\n" +

           "        \"type\": \"keyword\"\n" +

           "      },\n" +

           "      \"business\":{\n" +

           "        \"type\": \"keyword\"\n" +

           "      },\n" +

           "      \"location\":{\n" +

           "        \"type\": \"geo_point\"\n" +

           "      },\n" +

           "      \"pic\":{\n" +

           "        \"type\": \"keyword\",\n" +

           "        \"index\": false\n" +

           "      },\n" +

           "      \"all\":{\n" +

           "        \"type\": \"text\",\n" +

           "        \"analyzer\": \"ik_max_word\"\n" +

           "      }\n" +

           "    }\n" +

           "  }\n" +

           "}";

}

在hotel-demo中的HotelIndexTest测试类中,编写单元测试,实现创建索引:

@Test

void createHotelIndex() throws IOException {

   // 1.创建Request对象

   CreateIndexRequest request = new CreateIndexRequest("hotel");

   // 2.准备请求的参数:DSL语句

   request.source(MAPPING_TEMPLATE, XContentType.JSON);

   // 3.发送请求

   client.indices().create(request, RequestOptions.DEFAULT);

}

4.2.删除索引库

删除索引库的DSL语句非常简单:

DELETE /hotel

与创建索引库相比:

  • 请求方式从PUT变为DELTE
  • 请求路径不变
  • 无请求参数

所以代码的差异,注意体现在Request对象上。依然是三步走:

  • 1)创建Request对象。这次是DeleteIndexRequest对象
  • 2)准备参数。这里是无参
  • 3)发送请求。改用delete方法

在hotel-demo中的HotelIndexTest测试类中,编写单元测试,实现删除索引:

@Test

void testDeleteHotelIndex() throws IOException {

   // 1.创建Request对象

   DeleteIndexRequest request = new DeleteIndexRequest("hotel");

   // 2.发送请求

   client.indices().delete(request, RequestOptions.DEFAULT);

}

4.3.判断索引库是否存在

判断索引库是否存在,本质就是查询,对应的DSL是:

GET /hotel

因此与删除的Java代码流程是类似的。依然是三步走:

  • 1)创建Request对象。这次是GetIndexRequest对象
  • 2)准备参数。这里是无参
  • 3)发送请求。改用exists方法

@Test

void testExistsHotelIndex() throws IOException {

   // 1.创建Request对象

   GetIndexRequest request = new GetIndexRequest("hotel");

   // 2.发送请求

   boolean exists = client.indices().exists(request, RequestOptions.DEFAULT);

   // 3.输出

   System.err.println(exists ? "索引库已经存在!" : "索引库不存在!");

}

4.4.总结

JavaRestClient操作elasticsearch的流程基本类似。核心是client.indices()方法来获取索引库的操作对象。

索引库操作的基本步骤:

  • 初始化RestHighLevelClient
  • 创建XxxIndexRequest。XXX是Create、Get、Delete
  • 准备DSL( Create时需要,其它是无参)
  • 发送请求。调用RestHighLevelClient#indices().xxx()方法,xxx是create、exists、delete

5.RestClient操作文档

为了与索引库操作分离,我们再次参加一个测试类,做两件事情:

  • 初始化RestHighLevelClient
  • 我们的酒店数据在数据库,需要利用IHotelService去查询,所以注入这个接口

package cn.itcast.hotel;


import cn.itcast.hotel.pojo.Hotel;

import cn.itcast.hotel.service.IHotelService;

import org.junit.jupiter.api.AfterEach;

import org.junit.jupiter.api.BeforeEach;

import org.junit.jupiter.api.Test;

import org.springframework.beans.factory.annotation.Autowired;

import org.springframework.boot.test.context.SpringBootTest;


import java.io.IOException;

import java.util.List;


@SpringBootTest

public class HotelDocumentTest {

   @Autowired

   private IHotelService hotelService;


   private RestHighLevelClient client;


   @BeforeEach

   void setUp() {

       this.client = new RestHighLevelClient(RestClient.builder(

               HttpHost.create("http://192.168.150.101:9200")

       ));

   }


   @AfterEach

   void tearDown() throws IOException {

       this.client.close();

   }

}

5.1.新增文档

我们要将数据库的酒店数据查询出来,写入elasticsearch中。

5.1.1.索引库实体类

数据库查询后的结果是一个Hotel类型的对象。结构如下:

@Data

@TableName("tb_hotel")

public class Hotel {

   @TableId(type = IdType.INPUT)

   private Long id;

   private String name;

   private String address;

   private Integer price;

   private Integer score;

   private String brand;

   private String city;

   private String starName;

   private String business;

   private String longitude;

   private String latitude;

   private String pic;

}

与我们的索引库结构存在差异:

  • longitude和latitude需要合并为location

因此,我们需要定义一个新的类型,与索引库结构吻合:

package cn.itcast.hotel.pojo;


import lombok.Data;

import lombok.NoArgsConstructor;


@Data

@NoArgsConstructor

public class HotelDoc {

   private Long id;

   private String name;

   private String address;

   private Integer price;

   private Integer score;

   private String brand;

   private String city;

   private String starName;

   private String business;

   private String location;

   private String pic;


   public HotelDoc(Hotel hotel) {

       this.id = hotel.getId();

       this.name = hotel.getName();

       this.address = hotel.getAddress();

       this.price = hotel.getPrice();

       this.score = hotel.getScore();

       this.brand = hotel.getBrand();

       this.city = hotel.getCity();

       this.starName = hotel.getStarName();

       this.business = hotel.getBusiness();

       this.location = hotel.getLatitude() + ", " + hotel.getLongitude();

       this.pic = hotel.getPic();

   }

}

5.1.2.语法说明

新增文档的DSL语句如下:

POST /{索引库名}/_doc/1

{

   "name": "Jack",

   "age": 21

}

对应的java代码如图

可以看到与创建索引库类似,同样是三步走:

  • 1)创建Request对象
  • 2)准备请求参数,也就是DSL中的JSON文档
  • 3)发送请求

变化的地方在于,这里直接使用client.xxx()的API,不再需要client.indices()了。

5.1.3.完整代码

我们导入酒店数据,基本流程一致,但是需要考虑几点变化:

  • 酒店数据来自于数据库,我们需要先查询出来,得到hotel对象
  • hotel对象需要转为HotelDoc对象
  • HotelDoc需要序列化为json格式

因此,代码整体步骤如下:

  • 1)根据id查询酒店数据Hotel
  • 2)将Hotel封装为HotelDoc
  • 3)将HotelDoc序列化为JSON
  • 4)创建IndexRequest,指定索引库名和id
  • 5)准备请求参数,也就是JSON文档
  • 6)发送请求

在hotel-demo的HotelDocumentTest测试类中,编写单元测试:

@Test

void testAddDocument() throws IOException {

   // 1.根据id查询酒店数据

   Hotel hotel = hotelService.getById(61083L);

   // 2.转换为文档类型

   HotelDoc hotelDoc = new HotelDoc(hotel);

   // 3.将HotelDoc转json

   String json = JSON.toJSONString(hotelDoc);


   // 1.准备Request对象

   IndexRequest request = new IndexRequest("hotel").id(hotelDoc.getId().toString());

   // 2.准备Json文档

   request.source(json, XContentType.JSON);

   // 3.发送请求

   client.index(request, RequestOptions.DEFAULT);

}

5.2.查询文档

5.2.1.语法说明

查询的DSL语句如下:

GET /hotel/_doc/{id}

非常简单,因此代码大概分两步:

  • 准备Request对象
  • 发送请求

不过查询的目的是得到结果,解析为HotelDoc,因此难点是结果的解析。完整代码如下:

可以看到,结果是一个JSON,其中文档放在一个_source属性中,因此解析就是拿到_source,反序列化为Java对象即可。

与之前类似,也是三步走:

  • 1)准备Request对象。这次是查询,所以是GetRequest
  • 2)发送请求,得到结果。因为是查询,这里调用client.get()方法
  • 3)解析结果,就是对JSON做反序列化

5.2.2.完整代码

在hotel-demo的HotelDocumentTest测试类中,编写单元测试:

@Test

void testGetDocumentById() throws IOException {

   // 1.准备Request

   GetRequest request = new GetRequest("hotel", "61082");

   // 2.发送请求,得到响应

   GetResponse response = client.get(request, RequestOptions.DEFAULT);

   // 3.解析响应结果

   String json = response.getSourceAsString();


   HotelDoc hotelDoc = JSON.parseObject(json, HotelDoc.class);

   System.out.println(hotelDoc);

}

5.3.删除文档

删除的DSL为是这样的:

DELETE /hotel/_doc/{id}

与查询相比,仅仅是请求方式从DELETE变成GET,可以想象Java代码应该依然是三步走:

  • 1)准备Request对象,因为是删除,这次是DeleteRequest对象。要指定索引库名和id
  • 2)准备参数,无参
  • 3)发送请求。因为是删除,所以是client.delete()方法

在hotel-demo的HotelDocumentTest测试类中,编写单元测试:

@Test

void testDeleteDocument() throws IOException {

   // 1.准备Request

   DeleteRequest request = new DeleteRequest("hotel", "61083");

   // 2.发送请求

   client.delete(request, RequestOptions.DEFAULT);

}

5.4.修改文档

5.4.1.语法说明

修改我们讲过两种方式:

  • 全量修改:本质是先根据id删除,再新增
  • 增量修改:修改文档中的指定字段值

在RestClient的API中,全量修改与新增的API完全一致,判断依据是ID:

  • 如果新增时,ID已经存在,则修改
  • 如果新增时,ID不存在,则新增

这里不再赘述,我们主要关注增量修改。

代码示例如图:

与之前类似,也是三步走:

  • 1)准备Request对象。这次是修改,所以是UpdateRequest
  • 2)准备参数。也就是JSON文档,里面包含要修改的字段
  • 3)更新文档。这里调用client.update()方法

5.4.2.完整代码

在hotel-demo的HotelDocumentTest测试类中,编写单元测试:

@Test

void testUpdateDocument() throws IOException {

   // 1.准备Request

   UpdateRequest request = new UpdateRequest("hotel", "61083");

   // 2.准备请求参数

   request.doc(

       "price", "952",

       "starName", "四钻"

   );

   // 3.发送请求

   client.update(request, RequestOptions.DEFAULT);

}

5.5.批量导入文档

案例需求:利用BulkRequest批量将数据库数据导入到索引库中。

步骤如下:

  • 利用mybatis-plus查询酒店数据
  • 将查询到的酒店数据(Hotel)转换为文档类型数据(HotelDoc)
  • 利用JavaRestClient中的BulkRequest批处理,实现批量新增文档

5.5.1.语法说明

批量处理BulkRequest,其本质就是将多个普通的CRUD请求组合在一起发送。其中提供了一个add方法,用来添加其他请求:

可以看到,能添加的请求包括:

  • IndexRequest,也就是新增
  • UpdateRequest,也就是修改
  • DeleteRequest,也就是删除

因此Bulk中添加了多个IndexRequest,就是批量新增功能了。示例:

其实还是三步走:

  • 1)创建Request对象。这里是BulkRequest
  • 2)准备参数。批处理的参数,就是其它Request对象,这里就是多个IndexRequest
  • 3)发起请求。这里是批处理,调用的方法为client.bulk()方法

我们在导入酒店数据时,将上述代码改造成for循环处理即可。

5.5.2.完整代码

在hotel-demo的HotelDocumentTest测试类中,编写单元测试:

@Test

void testBulkRequest() throws IOException {

   // 批量查询酒店数据

   List<Hotel> hotels = hotelService.list();


   // 1.创建Request

   BulkRequest request = new BulkRequest();

   // 2.准备参数,添加多个新增的Request

   for (Hotel hotel : hotels) {

       // 2.1.转换为文档类型HotelDoc

       HotelDoc hotelDoc = new HotelDoc(hotel);

       // 2.2.创建新增文档的Request对象

       request.add(new IndexRequest("hotel")

                   .id(hotelDoc.getId().toString())

                   .source(JSON.toJSONString(hotelDoc), XContentType.JSON));

   }

   // 3.发送请求

   client.bulk(request, RequestOptions.DEFAULT);

}

通过指令查询:GET /hotel/_search

5.6.小结

文档操作的基本步骤:

  • 初始化RestHighLevelClient
  • 创建XxxRequest。XXX是Index、Get、Update、Delete、Bulk
  • 准备参数(Index、Update、Bulk时需要)
  • 发送请求。调用RestHighLevelClient#.xxx()方法,xxx是index、get、update、delete、bulk
  • 解析结果(Get时需要)
相关实践学习
以电商场景为例搭建AI语义搜索应用
本实验旨在通过阿里云Elasticsearch结合阿里云搜索开发工作台AI模型服务,构建一个高效、精准的语义搜索系统,模拟电商场景,深入理解AI搜索技术原理并掌握其实现过程。
ElasticSearch 最新快速入门教程
本课程由千锋教育提供。全文搜索的需求非常大。而开源的解决办法Elasricsearch(Elastic)就是一个非常好的工具。目前是全文搜索引擎的首选。本系列教程由浅入深讲解了在CentOS7系统下如何搭建ElasticSearch,如何使用Kibana实现各种方式的搜索并详细分析了搜索的原理,最后讲解了在Java应用中如何集成ElasticSearch并实现搜索。 &nbsp;
相关文章
|
6月前
|
缓存 监控 前端开发
顺企网 API 开发实战:搜索 / 详情接口从 0 到 1 落地(附 Elasticsearch 优化 + 错误速查)
企业API开发常陷参数、缓存、错误处理三大坑?本指南拆解顺企网双接口全流程,涵盖搜索优化、签名验证、限流应对,附可复用代码与错误速查表,助你2小时高效搞定开发,提升响应速度与稳定性。
|
7月前
|
存储 安全 Java
管理 Spring 微服务中的分布式会话
在微服务架构中,管理分布式会话是确保用户体验一致性和系统可扩展性的关键挑战。本文探讨了在 Spring 框架下实现分布式会话管理的多种方法,包括集中式会话存储和客户端会话存储(如 Cookie),并分析了它们的优缺点。同时,文章还涵盖了与分布式会话相关的安全考虑,如数据加密、令牌验证、安全 Cookie 政策以及服务间身份验证。此外,文中强调了分布式会话在提升系统可扩展性、增强可用性、实现数据一致性及优化资源利用方面的显著优势。通过合理选择会话管理策略,结合 Spring 提供的强大工具,开发人员可以在保证系统鲁棒性的同时,提供无缝的用户体验。
151 0
|
8月前
|
监控 Java API
Spring Boot 3.2 结合 Spring Cloud 微服务架构实操指南 现代分布式应用系统构建实战教程
Spring Boot 3.2 + Spring Cloud 2023.0 微服务架构实践摘要 本文基于Spring Boot 3.2.5和Spring Cloud 2023.0.1最新稳定版本,演示现代微服务架构的构建过程。主要内容包括: 技术栈选择:采用Spring Cloud Netflix Eureka 4.1.0作为服务注册中心,Resilience4j 2.1.0替代Hystrix实现熔断机制,配合OpenFeign和Gateway等组件。 核心实操步骤: 搭建Eureka注册中心服务 构建商品
1221 3
|
12月前
|
人工智能 安全 Java
智慧工地源码,Java语言开发,微服务架构,支持分布式和集群部署,多端覆盖
智慧工地是“互联网+建筑工地”的创新模式,基于物联网、移动互联网、BIM、大数据、人工智能等技术,实现对施工现场人员、设备、材料、安全等环节的智能化管理。其解决方案涵盖数据大屏、移动APP和PC管理端,采用高性能Java微服务架构,支持分布式与集群部署,结合Redis、消息队列等技术确保系统稳定高效。通过大数据驱动决策、物联网实时监测预警及AI智能视频监控,消除数据孤岛,提升项目可控性与安全性。智慧工地提供专家级远程管理服务,助力施工质量和安全管理升级,同时依托可扩展平台、多端应用和丰富设备接口,满足多样化需求,推动建筑行业数字化转型。
391 5
|
6月前
|
负载均衡 Java API
《深入理解Spring》Spring Cloud 构建分布式系统的微服务全家桶
Spring Cloud为微服务架构提供一站式解决方案,涵盖服务注册、配置管理、负载均衡、熔断限流等核心功能,助力开发者构建高可用、易扩展的分布式系统,并持续向云原生演进。
|
NoSQL MongoDB 微服务
微服务——MongoDB常用命令——文档的分页查询
本文介绍了文档分页查询的相关内容,包括统计查询、分页列表查询和排序查询。统计查询使用 `count()` 方法获取记录总数或按条件统计;分页查询通过 `limit()` 和 `skip()` 方法实现,控制返回和跳过的数据量;排序查询利用 `sort()` 方法,按指定字段升序(1)或降序(-1)排列。同时提示,`skip()`、`limit()` 和 `sort()` 的执行顺序与编写顺序无关,优先级为 `sort()` &gt; `skip()` &gt; `limit()`。
424 1
|
JSON NoSQL MongoDB
微服务——MongoDB常用命令——文档基本CRUD
本文介绍了MongoDB中文档的基本操作,包括插入、查询、更新和删除。单个文档插入使用`insert()`或`save()`方法,批量插入用`insertMany()`。查询所有文档用`find()`,条件查询可在`find()`中添加参数,投影查询控制返回字段。更新文档通过`update()`实现,支持覆盖修改、局部修改(使用`$set`)和批量修改。列值增长可用`$inc`实现。删除文档用`remove()`,需谨慎操作以免误删数据。此外,文档键值对有序,区分大小写,不能有重复键。
280 1
|
6月前
|
存储 Linux iOS开发
Elasticsearch Enterprise 9.1.5 发布 - 分布式搜索和分析引擎
Elasticsearch Enterprise 9.1.5 (macOS, Linux, Windows) - 分布式搜索和分析引擎
470 0
|
存储 NoSQL MongoDB
微服务——MongoDB常用命令——MongoDB索引知识概述
本文介绍MongoDB索引相关知识,包括其在查询中的重要作用。索引可避免全集合扫描,显著提升查询效率,尤其在处理海量数据时。通过B树数据结构存储字段值并排序,支持相等匹配、范围查询及排序操作。文中还提供了官方文档链接以供深入学习。
209 0
|
7月前
|
JSON 监控 Java
Elasticsearch 分布式搜索与分析引擎技术详解与实践指南
本文档全面介绍 Elasticsearch 分布式搜索与分析引擎的核心概念、架构设计和实践应用。作为基于 Lucene 的分布式搜索引擎,Elasticsearch 提供了近实时的搜索能力、强大的数据分析功能和可扩展的分布式架构。本文将深入探讨其索引机制、查询 DSL、集群管理、性能优化以及与各种应用场景的集成,帮助开发者构建高性能的搜索和分析系统。
484 0