0%

Elasticsearch搜索的原理

毛主席曾说:“中国广大的无产阶级对帝国主义、封建主义、官僚资本主义的恨并不是无缘无故的,而是长期受到了这三座大山的压迫;中国人民对中国共产党的热爱,也不是无缘无故的,因为中国共产党领导和团结全国人民,推翻了三座大山,结束了国民党反动派的反动统治,建立了人民共和国,全国人民拥护中国共产党,任何反动派和敌对势力妄图推翻新生的人民共和国政权都是徒劳的。” 这段话是毛泽东引用的黑格尔的理论,原句是:“没有无缘无故的爱,也没有无缘无故的恨,自然界也是如此,人的审美取向多半来自大自然的精密安排。”

一、概念

  1. ES搜索为什么这么快:简单来说就是使用了使用了lucene的倒排索引技术。

    • 倒排索引源于实际应用中需要根据属性的值来查找记录,这种索引表中的每一项都包括一个属性值和具有该属性值的各记录的地址
    • 由于不是由记录来确定属性值,而是由属性值来确定记录的位置,因而称为倒排索引(inverted index)
    • 带有倒排索引的文件称为倒排索引文件,简称倒排文件(inverted file)
    • 搜索引擎的关键步骤就是建立倒排索引,倒排索引一般由关键词 + 关键词频度(出现的次数) + 关键词位置(出现在哪一篇文章或网页中,有关的日期,作者等信息)组成,它相当于为互联网上几千亿页网页做了一个索引,好比一本书的目录、标签一般。读者想看哪一个主题相关的章节,直接根据目录即可找到相关的页面,不必再从书的第一页到最后一页,一页一页的查找
  2. lucene:是一个开放源代码的高性能的java全文检索引擎工具包,不是一个完整的全文检索引擎,而是一个全文检索引擎的架构,提供了完整的查询引擎和索引引擎,部分文本分析引擎。其目的是为软件开发人员提供一个简单易用的工具包,以方便在目标系统中实现全文检索的功能,或者以此为基础建立起完整的全文检索引擎。

二、倒排索引原理

设有两篇文章1和2:

文章1的内容为:Tom lives in Guangzhou,I live in Guangzhou too.   

文章2的内容为:He once lived in Shanghai.

  1. 取得关键词:由于lucene是基于关键词索引和查询的,首先我们要取得这两篇文章的关键词,通常我们需要如下处理措施:
    • 分词:英文单词用空格分隔,比较好处理,中文单词间是连在一起的需要特殊的分词处理。    
    • 过滤:文章中的”in”, “once” “too”等词没有什么实际意义,中文中的“的”“是”等字通常也无具体含义,这些不代表概念的词以及标点符号可以过滤掉   
    • 关键词转换大小写:用户通常希望查“He”时能把含“he”,“HE”的文章也找出来,所以所有单词需要统一大小写。   
    • 关键词还原原时态:用户通常希望查“live”时能把含“lives”,“lived”的文章也找出来,所以需要把“lives”,“lived”还原成“live”   

在lucene中以上措施由Analyzer类完成,经过上面处理后:

文章1的所有关键词为:[tom] [live] [guangzhou] [i] [live] [guangzhou]

文章2的所有关键词为:[he] [live] [shanghai]

  1. 建立倒排索引:经过步骤1取到关键词后就可以建立倒排索引了,上面的对应关系是:“文章号”对“文章中所有关键词”。倒排索引把这个关系倒过来变成: “关键词”对“拥有该关键词的所有文章号”。

    • 所以文章1和2倒排后如下:
1
2
3
4
5
6
7
关键词          文章号   
guangzhou 1   
he 2   
i 1   
live 1,2   
shanghai 2   
tom 1  

通常仅知道关键词在哪些文章中出现还不够,我们还需要知道关键词在文章中出现次数和出现的位置,通常有两种位置:

字符位置,即记录该词是文章中第几个字符,优点是关键词亮显时定位快

关键词位置,即记录该词是文章中第几个关键词,优点是节约索引空间、词组(phase)查询快,lucene中记录的就是这种位置。

  • 加上“出现频率”和“出现位置”信息后,倒排索引结构变为
1
2
3
4
5
6
7
8
关键词            文章号[出现频率]              出现位置   
guangzhou 1[2] 3,6   
he 2[1] 1   
i 1[1] 4   
live 1[2] 2,5,
2[1] 2   
shanghai 2[1] 3   
tom 1[1] 1

以live关键词为例说明一下该结构:live在文章1中出现了2次,文章2中出现了一次,它的出现位置为“2,5,2”这表示什么呢?我们需要结合文章号和出现频率来分析,文章1中出现了2次,那么“2,5”就表示live在文章1中出现的两个位置,文章2中出现了一次,剩下的“2”就表示live是文章2中第 2个关键字。

关键字是按字符顺序排列的,因此lucene可以用二分搜索算法快速定位关键词。

  1. 实现:lucene将上面三列分别作为词典文件(Term Dictionary)、频率文件(frequencies)和位置文件(positions)保存。

    • 词典文件不仅保存有每个关键词,还保留了指向频率文件和位置文件的指针,通过指针可以找到该关键字的频率信息和位置信息。   
    • lucene中使用了field的概念,用于表达信息所在位置(如标题,文章,url)。建倒排索引时该field信息也记录在词典文件中,每个关键词都有一个field信息,因为每个关键字一定属于一个或多个field。
  2. 压缩算法:为了减小索引文件的大小,lucene对索引还使用了压缩技术。

    • 首先对词典文件中的关键词进行了压缩,关键词压缩为<前缀长度,后缀>,例如:当前词为“阿拉伯语”,上一个词为“阿拉伯”,那么“阿拉伯语”压缩为<3,语>。
    • 其次大量用到的是对数字的压缩,数字只保存与上一个值的差值,这样可以减小数字的长度,进而减少保存该数字需要的字节数。例如当前文章号是16389(不压缩要用3个字节保存),上一文章号是16382,压缩后保存7(只用一个字节)。
  3. 查询:假设要查询单词 “live”,lucene先对词典进行二分查找找到该词,通过指向频率文件的指针读出所有文章号,然后返回结果。

    • 词典通常非常小,因而,整个过程的时间是毫秒级的。
    • 如果用普通的顺序匹配算法,不建索引,而是对所有文章的内容进行字符串匹配,这个过程将会相当缓慢,当文章数目很大时,时间往往是无法忍受的。

三、参考

  1. 参考一