中文分词算法解析

被引:13
作者
张磊
张代远
机构
[1] 南京邮电大学计算机学院
关键词
中文分词; 最大匹配算法; 最大概率算法; 算法; 系统;
D O I
暂无
中图分类号
TP391.1 [文字信息处理];
学科分类号
摘要
中文分词是计算机中文信息处理中的难题,而中文分词算法是其中的核心,但由于中英文环境中语素的不同特点,使得中文必须要解决分词的问题。这篇文章较为深刻的阐述了中分分词的算法,基于对分词算法的理解和对匹配法分词的分析,对最大匹配分词方法进行了较深入的研究探讨,提出了什么算法是解决分词效率的最佳方法以及各种方法的比较优劣等问题,及可能产生的歧义,对不同的算法给予了充分的解释,通过对各种算法的比较,总结出了比较常用和效率较高的算法。
引用
收藏
页码:192 / 193
页数:2
相关论文
共 7 条
[1]  
中文词性标注的研究与实现.[D].张卫.南京师范大学.2007, 04
[2]  
中文自动分词系统的研究.[D].朱珣.华中师范大学.2004, 04
[3]   基于改进BP网络的中文歧义字段分词方法研究 [J].
张利 ;
张立勇 ;
张晓淼 ;
耿铁锁 ;
岳宗阁 .
大连理工大学学报, 2007, (01) :131-135
[4]   文本切分知识获取及其应用 [J].
钱揖丽 ;
郑家恒 ;
不详 .
计算机工程与应用 , 2003, (02) :63-64+100
[5]   基于N-最短路径方法的中文词语粗分模型 [J].
张华平 ;
刘群 .
中文信息学报, 2002, (05) :1-7
[6]   基于隐Markov模型的汉语词类自动标注的实验研究 [J].
孙茂松 ;
卢红娜 ;
邹嘉彦 .
清华大学学报(自然科学版), 2000, (09) :57-60
[7]   中文信息处理中的分词问题 [J].
黄昌宁 .
语言文字应用, 1997, (01)