二、ElasticSearch内置分词器
生活随笔
收集整理的這篇文章主要介紹了
二、ElasticSearch内置分词器
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
這里講解下常見的幾個分詞器:Standard Analyzer、Simple Analyzer、whitespace Analyzer。
1、Standard Analyzer(默認)
1)示例
standard 是默認的分析器。它提供了基于語法的標記化(基于Unicode文本分割算法),適用于大多數語言
2)配置
標準分析器接受下列參數:
- max_token_length : 最大token長度,默認255
- stopwords : 預定義的停止詞列表,如_english_或 包含停止詞列表的數組,默認是?_none_
- stopwords_path : 包含停止詞的文件路徑
2、Simple Analyzer
simple 分析器當它遇到只要不是字母的字符,就將文本解析成term,而且所有的term都是小寫的。
3、Whitespace Analyzer
POST _analyze {"analyzer": "whitespace","text": "Like X 國慶放假 的" }?
java學習討論群:725562382?
總結
以上是生活随笔為你收集整理的二、ElasticSearch内置分词器的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 日常生活小技巧 -- 百度地图坐标拾取
- 下一篇: 日常生活小技巧 -- CSDN自定义博客