Python利用结巴模块统计《水浒传》词频

中文分词是中文文本处理的一个基础性工作,结巴分词利用进行中文分词。其基本实现原理有三点:

  1. 基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG)
  2. 采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合
  3. 对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法

下面利用结巴分词队水浒传的词频进行了统计

代码:

结果:

如果数据有误那就是水浒传txt文件被修改过了,这就别怪我咯。

留下评论

您的电子邮箱地址不会被公开。 必填项已用 * 标注