A C D E G H I L M N O R S T U
I
- IKAnalyzer - org.wltea.analyzer.lucene 中的 类
- IK分词器,Lucene Analyzer接口实现
兼容Lucene 3.1以上版本
- IKAnalyzer() -
类 org.wltea.analyzer.lucene.IKAnalyzer 的构造方法
- IK分词器Lucene 3.5 Analyzer接口实现类
默认细粒度切分算法
- IKAnalyzer(boolean) -
类 org.wltea.analyzer.lucene.IKAnalyzer 的构造方法
- IK分词器Lucene Analyzer接口实现类
- IKAnalyzerDemo - org.wltea.analyzer.sample 中的 类
- IKAnalyzer 示例
2012-3-2
以下是结合Lucene3.4 API的写法
- IKAnalyzerDemo() -
类 org.wltea.analyzer.sample.IKAnalyzerDemo 的构造方法
-
- IKSegmenter - org.wltea.analyzer.core 中的 类
- IK分词器主类
- IKSegmenter(Reader, boolean) -
类 org.wltea.analyzer.core.IKSegmenter 的构造方法
- IK分词器构造函数
- IKSegmenter(Reader, Configuration) -
类 org.wltea.analyzer.core.IKSegmenter 的构造方法
- IK分词器构造函数
- IKTokenizer - org.wltea.analyzer.lucene 中的 类
- IK分词器 Lucene Tokenizer适配器类
兼容Lucene 3.1以上版本
- IKTokenizer(Reader, boolean) -
类 org.wltea.analyzer.lucene.IKTokenizer 的构造方法
- Lucene 3.5 Tokenizer适配器类构造函数
- IKTokenizerFactory - org.wltea.analyzer.solr 中的 类
- IK中文分词
Solr分词器工厂实现
2012-3-6
- IKTokenizerFactory() -
类 org.wltea.analyzer.solr.IKTokenizerFactory 的构造方法
-
- incrementToken() -
类 org.wltea.analyzer.lucene.IKTokenizer 中的方法
-
- init(Map<String, String>) -
类 org.wltea.analyzer.solr.IKTokenizerFactory 中的方法
-
- initial(Configuration) -
类 org.wltea.analyzer.dic.Dictionary 中的静态方法
- 词典初始化
由于IK Analyzer的词典采用Dictionary类的静态方法进行词典初始化
只有当Dictionary类被实际调用时,才会开始载入词典,
这将延长首次分词操作的时间
该方法提供了一个在应用加载阶段就初始化字典的手段
- isMatch() -
类 org.wltea.analyzer.dic.Hit 中的方法
- 判断是否完全匹配
- isPrefix() -
类 org.wltea.analyzer.dic.Hit 中的方法
- 判断是否是词的前缀
- isStopWord(char[], int, int) -
类 org.wltea.analyzer.dic.Dictionary 中的方法
- 判断是否是停止词
- isUnmatch() -
类 org.wltea.analyzer.dic.Hit 中的方法
- 判断是否是不匹配
A C D E G H I L M N O R S T U