A C D E G H I L M N O R S T U

I

IKAnalyzer - org.wltea.analyzer.lucene 中的 类
IK分词器,Lucene Analyzer接口实现 兼容Lucene 3.1以上版本
IKAnalyzer() - 类 org.wltea.analyzer.lucene.IKAnalyzer 的构造方法
IK分词器Lucene 3.5 Analyzer接口实现类 默认细粒度切分算法
IKAnalyzer(boolean) - 类 org.wltea.analyzer.lucene.IKAnalyzer 的构造方法
IK分词器Lucene Analyzer接口实现类
IKAnalyzerDemo - org.wltea.analyzer.sample 中的 类
IKAnalyzer 示例 2012-3-2 以下是结合Lucene3.4 API的写法
IKAnalyzerDemo() - 类 org.wltea.analyzer.sample.IKAnalyzerDemo 的构造方法
 
IKSegmenter - org.wltea.analyzer.core 中的 类
IK分词器主类
IKSegmenter(Reader, boolean) - 类 org.wltea.analyzer.core.IKSegmenter 的构造方法
IK分词器构造函数
IKSegmenter(Reader, Configuration) - 类 org.wltea.analyzer.core.IKSegmenter 的构造方法
IK分词器构造函数
IKTokenizer - org.wltea.analyzer.lucene 中的 类
IK分词器 Lucene Tokenizer适配器类 兼容Lucene 3.1以上版本
IKTokenizer(Reader, boolean) - 类 org.wltea.analyzer.lucene.IKTokenizer 的构造方法
Lucene 3.5 Tokenizer适配器类构造函数
IKTokenizerFactory - org.wltea.analyzer.solr 中的 类
IK中文分词 Solr分词器工厂实现 2012-3-6
IKTokenizerFactory() - 类 org.wltea.analyzer.solr.IKTokenizerFactory 的构造方法
 
incrementToken() - 类 org.wltea.analyzer.lucene.IKTokenizer 中的方法
 
init(Map<String, String>) - 类 org.wltea.analyzer.solr.IKTokenizerFactory 中的方法
 
initial(Configuration) - 类 org.wltea.analyzer.dic.Dictionary 中的静态方法
词典初始化 由于IK Analyzer的词典采用Dictionary类的静态方法进行词典初始化 只有当Dictionary类被实际调用时,才会开始载入词典, 这将延长首次分词操作的时间 该方法提供了一个在应用加载阶段就初始化字典的手段
isMatch() - 类 org.wltea.analyzer.dic.Hit 中的方法
判断是否完全匹配
isPrefix() - 类 org.wltea.analyzer.dic.Hit 中的方法
判断是否是词的前缀
isStopWord(char[], int, int) - 类 org.wltea.analyzer.dic.Dictionary 中的方法
判断是否是停止词
isUnmatch() - 类 org.wltea.analyzer.dic.Hit 中的方法
判断是否是不匹配

A C D E G H I L M N O R S T U