Lucene5学习之Suggest关键字提示

简介:

     首先需要搞清楚Suggest模块是用来解决什么问题的?Google我想大家都用过,当我们在搜索输入框里输入搜索关键字的时候,紧贴着输入框下方会弹出一个提示框,提示框里会列出Top N个包含当前用户输入的搜索关键字的搜索热词,如图:

      这里说的不是前端的这种JS效果,而说的是输入一个关键字如何获取相关的搜索热词,至于js效果,自己Google jQuery自动补全插件,我以前玩过,这里关注的是提示数据如何获取,当然你也可以使用数据库SQL like "%xxxx%"来实现(xxxx是你输入的搜索关键字),但Lucene来实现这个功能会更好,因为我们都知道Lucene的查询结果是可以根据相关度排序的,支持各种强大的Query查询,这是数据库SQL语法所不能实现的。在Lucene中,这种搜索关键字自动提示功能是由Suggest模块提供的。

      要实现搜索关键字提示,首先你需要创建索引,此时创建索引就不是简简单单的借助IndexWrtier.addDocument了,而是需要通过Suggest模块下的AnalyzingInfixSuggester类去build,翻看AnalyzingInfixSuggester类的源码一探究竟,先看看其成员变量声明部分:

Java代码   收藏代码
  1. public class AnalyzingInfixSuggester extends Lookup implements Closeable {  
  2.   
  3.   /** Field name used for the indexed text. */  
  4.   protected final static String TEXT_FIELD_NAME = "text";  
  5.   
  6.   /** Field name used for the indexed text, as a 
  7.    *  StringField, for exact lookup. */  
  8.   protected final static String EXACT_TEXT_FIELD_NAME = "exacttext";  
  9.   
  10.   /** Field name used for the indexed context, as a 
  11.    *  StringField and a SortedSetDVField, for filtering. */  
  12.   protected final static String CONTEXTS_FIELD_NAME = "contexts";  
  13.   
  14.   /** Analyzer used at search time */  
  15.   protected final Analyzer queryAnalyzer;  
  16.   /** Analyzer used at index time */  
  17.   protected final Analyzer indexAnalyzer;  
  18.   final Version matchVersion;  
  19.   private final Directory dir;  
  20.   final int minPrefixChars;  
  21.     
  22.   private final boolean allTermsRequired;  
  23.   private final boolean highlight;  
  24.     
  25.   private final boolean commitOnBuild;  
  26.   
  27.   /** Used for ongoing NRT additions/updates. */  
  28.   private IndexWriter writer;  
  29.   
  30.   /** {@link IndexSearcher} used for lookups. */  
  31.   protected SearcherManager searcherMgr;  
  32.   
  33.   /** Default minimum number of leading characters before 
  34.    *  PrefixQuery is used (4). */  
  35.   public static final int DEFAULT_MIN_PREFIX_CHARS = 4;  
  36.     
  37.   /** Default boolean clause option for multiple terms matching (all terms required). */  
  38.   public static final boolean DEFAULT_ALL_TERMS_REQUIRED = true;  
  39.    
  40.   /** Default higlighting option. */  
  41.   public static final boolean DEFAULT_HIGHLIGHT = true;  
  42.   
  43.   /** How we sort the postings and search results. */  
  44.   private static final Sort SORT = new Sort(new SortField("weight", SortField.Type.LONG, true));  

   TEXT_FIELD_NAME:表示搜索关键字域,即我们用户输入的搜索关键字是在这个域上进行匹配的,这个域使用的是TextField且Store.YES,

   EXACT_TEXT_FIELD_NAME:它跟TEXT_FIELD_NAME类似,唯一区别就是它使用的是StringFeild且Store.NO,不要问我为什么知道

   CONTEXTS_FIELD_NAME:这个域名其实也是用来过滤的,只是它是比较次要的过滤条件域,举个例子吧,比如你有title和content两个域,title表示新闻标题,content表示新闻内容,那这里的CONTEXTS_FIELD_NAME表示的就是content域的域名,一般都是在title域里去过滤,content属于2次过滤或者说是次要级别的过滤,不知道这样说够明确不?

   然后是两个分词器,分别对应查询时和创建索引时,两个分词器最好是保持一致,final Version matchVersion;这个就不用说了,Directory指的是索引目录,这个也不用多说大家都懂。minPrefixChars表示最小前缀字符长度,意思就是用户最少输入多少个字符我才开始搜索相关热词,设置这个值是为了避免用户输入字符过短导致返回的匹配结果太多影响性能,比如用户输入一个字符,然后程序就屁颠屁颠的去search,因为条件太宽泛,自然返回的结果集会很庞大,自然内存溢出或者响应时间很长,这样的应用你还会用吗?所以你懂的,所以内部做了一个最小输入字符长度的限制:

       boolean allTermsRequired这个布尔值用于搜索阶段,意思是用户输入的关键字需要全部匹配吗?举例说明吧,我怕说的太抽象,你们看不懂。假如我们创建了索引包含了title和content两个域,那么当用户输入了搜索关键字,用户可能输入的是lucene suggest,那么程序内部首先会对用户输入的搜索关键字进行分词,得到多个Term,有了多个Term然后new多个TermQuery,那这多个TermQuery之间是or链接还是and链接呢,所以有了allTermsRequired这个参数,意思就是所有Term都需要匹配吗,说白了就是所有的TermQuery需要用and链接吗?默认很显然是false,有人可能要问了,为什么必须是要全部匹配和非全部匹配呢,如果需要实现A匹配B不匹配C又匹配D匹配E不匹配.....对不起这种条件拼接方式默认的API无法实现(当然你可以通过继承重写自己来实现),因为用户的搜索关键字分词后得到的Term的个数不确定,多个Term之间谁该包含谁不该包含,这之间的排列组合情况太多,一个boolean值表示不了这么多种情况,所以只能是要么全部and全部or,说了那么多,你们再来看源码是不是轻松多了:

 

 

 private IndexWriter writer;这个很明显是内部维护一个IndexWriter用来添加或更新索引数据的,protected SearcherManager searcherMgr,维护一个
SearcherManager是用来获取IndexSearcher对象以及释放IndexSearcher资源的,你可以认为SearcherManager是一个IndexSearcher的工具类,

       private static final Sort SORT = new Sort(new SortField("weight", SortField.Type.LONG, true));

这句是重点,创建了一个排序器,默认按照weight域进行降序排序(之所以是降序是因为最后一个reverse参数设置为true了),降序意味着weigth值越大越排前面,至于这里的weight值表示什么,取决于你的InputInterator实现,接下来就来说说InputInterator。

     InputInterator接口决定了用于suggest搜索的索引数据从哪里来,说的官方点就是用于suggest搜素的索引的每个默认域的域值的数据来源需要用户来自定义,这本来也是合情合理的。

Java代码   收藏代码
  1. /** 
  2.  * Interface for enumerating term,weight,payload triples for suggester consumption; 
  3.  * currently only {@link AnalyzingSuggester}, {@link 
  4.  * FuzzySuggester} and {@link AnalyzingInfixSuggester} support payloads. 
  5.  */  
  6. public interface InputIterator extends BytesRefIterator {  
  7.   
  8.   /** A term's weight, higher numbers mean better suggestions. */  
  9.   public long weight();  
  10.     
  11.   /** An arbitrary byte[] to record per suggestion.  See 
  12.    *  {@link LookupResult#payload} to retrieve the payload 
  13.    *  for each suggestion. */  
  14.   public BytesRef payload();  
  15.   
  16.   /** Returns true if the iterator has payloads */  
  17.   public boolean hasPayloads();  
  18.     
  19.   /**  
  20.    * A term's contexts context can be used to filter suggestions. 
  21.    * May return null, if suggest entries do not have any context 
  22.    * */  
  23.   public Set<BytesRef> contexts();  
  24.     
  25.   /** Returns true if the iterator has contexts */  
  26.   public boolean hasContexts();  

    要理解InputInterator,你首先需要理解几个概念,InputInterator里的key,content,payload,weight都表示什么含义,下面分别来说明:

    key:表示用户搜索关键字域,即用户输入的搜索关键字分词后的Term在这个域上进行匹配

    content:源码注释里的解释是A term's contexts context can be used to filter suggestions.太尼玛抽象了,我说的更直白更傻瓜点吧,意思就是contents是一个Term集合(只不过是用BytesRef字节形式表示的),

这个Term集合的每个元素是用来在CONTEXTS_FIELD_NAME表示的域里进行TermQuery,说白了就是在关键字的基础上再加个限制条件让返回的热词列表更符合你的要求,比如你搜iphone,可能在title域里搜索到iphone手机,可能还会返回iphone手机壳,可能你只想返回有关手机的热词不想返回有关手机壳的热词,假定你索引里还有个category类别的域,那这时你category域就是这里的context概念,你可以设置contexts的set集合为[手机],这样相当于在搜索关键字的TermQuery基础上再加一个或多个TermQuery(因为是set集合,内部会遍历set集合new多个TermQuery),记住,内部都是使用TermQuery实现查询过滤的,如果你想使用其他Query来实现过滤呢,对不起,你可以继承来重写,你懂的。

     payload是用来存储一个额外信息,并以字节byte[]的形式写入索引中,当搜索返回后,你可以通过LookupResult结果对象的payload属性获取到该值,那最重要的就是要理解,为什么要设计这个payload呢,这要从LookupResult类源码中找答案:

 我们在创建索引的时候通过InputInterator接口的payload方法指定了payload数据从哪来获取并将它编码为BytesRef字节的形式,然后写入索引了,然后在查询时返回的结果集是用LookupResult包装的,

 如图,LookupResult包含了如下信息:

      key:用户输入的搜索关键字,再返回给你

     highlightKey:其实就是经过高亮的搜索关键字文本,假如你在搜索的时候设置了需要关键字高亮

     value:即InputInterator接口中weight方法的返回值,即返回的当前热词的权重值,排序就是根据这个值排的

     payload:就是InputInterator接口中payload方法中指定的payload信息,设计这个payload就是用来让你存一些任意你想存的信息,这就留给你们自己去发挥想象了。

    contexts:同理即InputInterator接口中contexts方法的返回值再原样返回给你。

 

    OK,还是直接上示例代码吧,或许结合示例代码再来看我说的这些,你们会更容易理解。

   创建了一个产品类:

Java代码   收藏代码
  1. package com.yida.framework.lucene5.suggest;  
  2.   
  3. import java.io.Serializable;  
  4.   
  5. /** 
  6.  * 产品类 
  7.  *  
  8.  * @author Lanxiaowei 
  9.  *  
  10.  */  
  11. public class Product implements Serializable {  
  12.     /** 产品名称 */  
  13.     private String name;  
  14.     /** 产品图片 */  
  15.     private String image;  
  16.     /** 产品销售地区 */  
  17.     private String[] regions;  
  18.     /** 产品销售量 */  
  19.     private int numberSold;  
  20.   
  21.     public Product(String name, String image, String[] regions, int numberSold) {  
  22.         this.name = name;  
  23.         this.image = image;  
  24.         this.regions = regions;  
  25.         this.numberSold = numberSold;  
  26.     }  
  27.   
  28.     public String getName() {  
  29.         return name;  
  30.     }  
  31.   
  32.     public void setName(String name) {  
  33.         this.name = name;  
  34.     }  
  35.   
  36.     public String getImage() {  
  37.         return image;  
  38.     }  
  39.   
  40.     public void setImage(String image) {  
  41.         this.image = image;  
  42.     }  
  43.   
  44.     public String[] getRegions() {  
  45.         return regions;  
  46.     }  
  47.   
  48.     public void setRegions(String[] regions) {  
  49.         this.regions = regions;  
  50.     }  
  51.   
  52.     public int getNumberSold() {  
  53.         return numberSold;  
  54.     }  
  55.   
  56.     public void setNumberSold(int numberSold) {  
  57.         this.numberSold = numberSold;  
  58.     }  
  59. }  

   这个类是核心,决定了你的索引是如何创建的,决定了最终返回的提示关键词列表数据及其排序。

Java代码   收藏代码
  1. package com.yida.framework.lucene5.suggest;  
  2.   
  3. import java.io.ByteArrayOutputStream;  
  4. import java.io.IOException;  
  5. import java.io.ObjectOutputStream;  
  6. import java.io.UnsupportedEncodingException;  
  7. import java.util.Comparator;  
  8. import java.util.HashSet;  
  9. import java.util.Iterator;  
  10. import java.util.Set;  
  11.   
  12. import org.apache.lucene.search.suggest.InputIterator;  
  13. import org.apache.lucene.util.BytesRef;  
  14.   
  15. public class ProductIterator implements InputIterator {  
  16.     private Iterator<Product> productIterator;  
  17.     private Product currentProduct;  
  18.   
  19.     ProductIterator(Iterator<Product> productIterator) {  
  20.         this.productIterator = productIterator;  
  21.     }  
  22.   
  23.     public boolean hasContexts() {  
  24.         return true;  
  25.     }  
  26.   
  27.     /** 
  28.      * 是否有设置payload信息 
  29.      */  
  30.     public boolean hasPayloads() {  
  31.         return true;  
  32.     }  
  33.   
  34.     public Comparator<BytesRef> getComparator() {  
  35.         return null;  
  36.     }  
  37.   
  38.     public BytesRef next() {  
  39.         if (productIterator.hasNext()) {  
  40.             currentProduct = productIterator.next();  
  41.             try {  
  42.                 //返回当前Project的name值,把product类的name属性值作为key  
  43.                 return new BytesRef(currentProduct.getName().getBytes("UTF8"));  
  44.             } catch (UnsupportedEncodingException e) {  
  45.                 throw new RuntimeException("Couldn't convert to UTF-8",e);  
  46.             }  
  47.         } else {  
  48.             return null;  
  49.         }  
  50.     }  
  51.   
  52.     /** 
  53.      * 将Product对象序列化存入payload 
  54.      * [这里仅仅是个示例,其实这种做法不可取,一般不会把整个对象存入payload,这样索引体积会很大,浪费硬盘空间] 
  55.      */  
  56.     public BytesRef payload() {  
  57.         try {  
  58.             ByteArrayOutputStream bos = new ByteArrayOutputStream();  
  59.             ObjectOutputStream out = new ObjectOutputStream(bos);  
  60.             out.writeObject(currentProduct);  
  61.             out.close();  
  62.             return new BytesRef(bos.toByteArray());  
  63.         } catch (IOException e) {  
  64.             throw new RuntimeException("Well that's unfortunate.");  
  65.         }  
  66.     }  
  67.   
  68.     /** 
  69.      * 把产品的销售区域存入context,context里可以是任意的自定义数据,一般用于数据过滤 
  70.      * Set集合里的每一个元素都会被创建一个TermQuery,你只是提供一个Set集合,至于new TermQuery 
  71.      * Lucene底层API去做了,但你必须要了解底层干了些什么 
  72.      */  
  73.     public Set<BytesRef> contexts() {  
  74.         try {  
  75.             Set<BytesRef> regions = new HashSet<BytesRef>();  
  76.             for (String region : currentProduct.getRegions()) {  
  77.                 regions.add(new BytesRef(region.getBytes("UTF8")));  
  78.             }  
  79.             return regions;  
  80.         } catch (UnsupportedEncodingException e) {  
  81.             throw new RuntimeException("Couldn't convert to UTF-8");  
  82.         }  
  83.     }  
  84.   
  85.     /** 
  86.      * 返回权重值,这个值会影响排序 
  87.      * 这里以产品的销售量作为权重值,weight值即最终返回的热词列表里每个热词的权重值 
  88.      * 怎么设计返回这个权重值,发挥你们的想象力吧 
  89.      */  
  90.     public long weight() {  
  91.         return currentProduct.getNumberSold();  
  92.     }  
  93. }  

   最后就是调用suggester.lookup查询返回LookupResult结果集,Over!

Java代码   收藏代码
  1. package com.yida.framework.lucene5.suggest;  
  2.   
  3. import java.io.IOException;  
  4. import java.io.InputStream;  
  5. import java.util.ArrayList;  
  6. import java.util.HashSet;  
  7. import java.util.List;  
  8.   
  9. import org.apache.lucene.analysis.standard.StandardAnalyzer;  
  10. import org.apache.lucene.search.suggest.Lookup.LookupResult;  
  11. import org.apache.lucene.search.suggest.analyzing.AnalyzingInfixSuggester;  
  12. import org.apache.lucene.store.RAMDirectory;  
  13. import org.apache.lucene.util.BytesRef;  
  14.   
  15. import com.yida.framework.lucene5.util.Tools;  
  16.   
  17. /** 
  18.  * Lucene关键字提示测试 
  19.  *  
  20.  * @author Lanxiaowei 
  21.  *  
  22.  */  
  23. public class SuggesterTest {  
  24.     private static void lookup(AnalyzingInfixSuggester suggester, String name,  
  25.             String region) throws IOException {  
  26.         HashSet<BytesRef> contexts = new HashSet<BytesRef>();  
  27.         contexts.add(new BytesRef(region.getBytes("UTF8")));  
  28.         //先以contexts为过滤条件进行过滤,再以name为关键字进行筛选,根据weight值排序返回前2条  
  29.         //第3个布尔值即是否每个Term都要匹配,第4个参数表示是否需要关键字高亮  
  30.         List<LookupResult> results = suggester.lookup(name, contexts, 2truefalse);  
  31.         System.out.println("-- \"" + name + "\" (" + region + "):");  
  32.         for (LookupResult result : results) {  
  33.             System.out.println(result.key);  
  34.             //从payload中反序列化出Product对象  
  35.             BytesRef bytesRef = result.payload;  
  36.             InputStream is = Tools.bytes2InputStream(bytesRef.bytes);  
  37.             Product product = (Product)Tools.deSerialize(is);  
  38.             System.out.println("product-Name:" + product.getName());  
  39.             System.out.println("product-regions:" + product.getRegions());  
  40.             System.out.println("product-image:" + product.getImage());  
  41.             System.out.println("product-numberSold:" + product.getNumberSold());  
  42.         }  
  43.         System.out.println();  
  44.     }  
  45.   
  46.     public static void main(String[] args) {  
  47.         try {  
  48.             RAMDirectory indexDir = new RAMDirectory();  
  49.             StandardAnalyzer analyzer = new StandardAnalyzer();  
  50.             AnalyzingInfixSuggester suggester = new AnalyzingInfixSuggester(indexDir, analyzer);  
  51.   
  52.             //创建Product测试数据  
  53.             ArrayList<Product> products = new ArrayList<Product>();  
  54.             products.add(new Product("Electric Guitar",  
  55.                     "http://images.example/electric-guitar.jpg"new String[] {  
  56.                             "US""CA" }, 100));  
  57.             products.add(new Product("Electric Train",  
  58.                     "http://images.example/train.jpg"new String[] { "US",  
  59.                             "CA" }, 100));  
  60.             products.add(new Product("Acoustic Guitar",  
  61.                     "http://images.example/acoustic-guitar.jpg"new String[] {  
  62.                             "US""ZA" }, 80));  
  63.             products.add(new Product("Guarana Soda",  
  64.                     "http://images.example/soda.jpg",  
  65.                     new String[] { "ZA""IE" }, 130));  
  66.   
  67.             // 创建测试索引  
  68.             suggester.build(new ProductIterator(products.iterator()));  
  69.   
  70.             // 开始搜索  
  71.             lookup(suggester, "Gu""US");  
  72.             lookup(suggester, "Gu""ZA");  
  73.             lookup(suggester, "Gui""CA");  
  74.             lookup(suggester, "Electric guit""US");  
  75.         } catch (IOException e) {  
  76.             System.err.println("Error!");  
  77.         }  
  78.     }  
  79. }  

 

    OK,该说的都说了,可能说的比较啰嗦,还望见谅,希望对你们有所帮助,Demo源码还是一如既往的在底下附件里。

     

     如果你还有什么问题请加我Q-Q:7-3-6-0-3-1-3-0-5,

或者加裙
一起交流学习!

转载:http://iamyida.iteye.com/blog/2205114

目录
相关文章
|
7月前
|
Web App开发 JavaScript 前端开发
Chrome 开发者工具里根据关键字搜索,结果列表里的 JavaScript 文件名后面跟的 ‘eval‘ 是什么含义
Chrome 开发者工具里根据关键字搜索,结果列表里的 JavaScript 文件名后面跟的 ‘eval‘ 是什么含义
49 0
|
自然语言处理 算法 搜索推荐
给全文搜索引擎Manticore (Sphinx) search 增加中文分词
Sphinx search 是一款非常棒的开源全文搜索引擎,它使用C++开发,索引和搜索的速度非常快,我使用sphinx的时间也有好多年了。最初使用的是coreseek,一个国人在sphinxsearch基础上添加了mmseg分词的搜索引擎,可惜后来不再更新,sphinxsearch的版本太低,bug也会出现;后来也使用最新的sphinxsearch,它可以支持几乎所有语言,通过其内置的ngram tokenizer对中文进行索引和搜索。
3868 0
|
11月前
|
搜索推荐 Java API
基于OpenAI Function Call 结合Lucene实现本地化的知识搜索
这是一个OpenAI Function 接入的Demo,通过Lucene+OpenAI实现个人知识库,但是目前只有服务端,没有页面之类的东西,并且实现的非常简单,所以只能当做一个Demo使用。
345 0
基于OpenAI Function Call 结合Lucene实现本地化的知识搜索
|
12月前
一日一技:在ES中如何使用通配符搜索keyword字段
一日一技:在ES中如何使用通配符搜索keyword字段
134 0
practice5-搜索+练习
快速学习practice5-搜索+练习
|
Java Spring
spring data solr实现关键字搜索+高亮显示+分组查询
spring data solr实现关键字搜索+高亮显示+分组查询
220 0
spring data solr实现关键字搜索+高亮显示+分组查询
|
搜索推荐 关系型数据库 数据库
使用sphinx search打造你自己的中文搜索引擎
Google搜索引擎建立至今已经快20年了,之后全球各类大大小小类似的搜索引擎也陆续出现、消亡。国内目前以百度为大,搜狗、360、必应等也势在必争。搜索引擎技术也发展的相当成熟,同时也就出现了很多开源的搜索引擎系统。
3055 0
Elasticsearch 多字段查询 best_fields、most_fields、cross_fields,傻傻分不清楚?
题记 Multi-match query 的目的多字段匹配,但 Multi-match query 中的 best_fields, most_fields, cross_fields 分不清楚,都什么含义? 下面我们一一举例解读。
592 0
Elasticsearch 多字段查询 best_fields、most_fields、cross_fields,傻傻分不清楚?
|
分布式计算 DataWorks 大数据
文档搜索So easy
本文为您介绍如何通过阿里云官网提供的搜索入口快速检索产品帮助文档。
|
搜索推荐 Java Maven
学习笔记CB011:lucene搜索引擎库、IKAnalyzer中文切词工具、检索服务、查询索引、导流、word2vec
影视剧字幕聊天语料库特点,把影视剧说话内容一句一句以回车换行罗列三千多万条中国话,相邻第二句很可能是第一句最好回答。一个问句有很多种回答,可以根据相关程度以及历史聊天记录所有回答排序,找到最优,是一个搜索排序过程。
1597 0