ElasticSearch中如何使用IK分词器

ElasticSearch中如何使用IK分词器,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。

IK分词器

什么是IK分词器?

分词即把一段中文或者别的划分成一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词是将每个字看成一个词,比说说“我爱中国”会被分为“我”,“爱”,“中”,“国”,这显然是不符合要求的,所以我们需要安装中文分词器IK来解决这个问题。

IK提供了两个分词算法:ik_smart和ik_max_word,其中ik_smart为最少切分,ik_max_word为最细粒度划分。

安装

下载完毕,解压到elasticsearch的plugins下

ElasticSearch中如何使用IK分词器

使用kibana测试

  1. 使用ik_smart分词算法测试

    ElasticSearch中如何使用IK分词器

  2. 使用ik_max_word分词算法测试

    ElasticSearch中如何使用IK分词器

IK分词器增加自己的字典

  1. 查询“一碗小米粥”得到下面的结果

    ElasticSearch中如何使用IK分词器

  2. 需要在IK插件的config路径下的IKAnalyzer.cfg.xml进行配置自己的字典

    <?xml version="1.0" encoding="UTF-8"?>
    <!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
    <properties>
    	<comment>IK Analyzer 扩展配置</comment>
    	<!--用户可以在这里配置自己的扩展字典 -->
    	<entry key="ext_dict">xiaomizhou.dic</entry>
    	 <!--用户可以在这里配置自己的扩展停止词字典-->
    	<entry key="ext_stopwords"></entry>
    	<!--用户可以在这里配置远程扩展字典 -->
    	<!-- <entry key="remote_ext_dict">words_location</entry> -->
    	<!--用户可以在这里配置远程扩展停止词字典-->
    	<!-- <entry key="remote_ext_stopwords">words_location</entry> -->
    </properties>


  3. 设置自己的字典xiaomizhou.dic

    ElasticSearch中如何使用IK分词器

  4. 重启ES加载词典,重新进行测试

    ElasticSearch中如何使用IK分词器

看完上述内容是否对您有帮助呢?如果还想对相关知识有进一步的了解或阅读更多相关文章,请关注行业资讯频道,感谢您对亿速云的支持。