Python里安装Jieba中文分词组件
关键词:python jieba分词、jieba中文分词 python 中文分词
Jieba是一个中文分词组件,可用于中文句子/词性分割、词性标注、未登录词识别,支持用户词典等功能。该组件的分词精度达到了97%以上。下载介绍在Python里安装Jieba。
1)下载Jieba
官网地址:http://pypi.python.org/pypi/jieba/
个人地址:http://download.csdn.net/detail/sanqima/9470715
2)将其解压到D:TDDownload,如图(1)所示:
3)点击电脑桌面的左下角的【开始】—》运行 —》输入: cmd —》切换到Jieba所在的目录,比如,D:TDDownloadJieba,依次使用如下命令:
C:UsersAdministrator>D:
D:>cd D:TDDownloadjieba-0.35
D:TDDownloadjieba-0.35>python setup.py install
如图(2)所示:
3)在PyCharm 里写一个中文分词的小程序: fenCi.py
## fenCi.py
#encoding=utf-8
import jieba
seg_list = jieba.cut("我来到北京清华大学",cut_all=True)
print "Full Mode:", "/ ".join(seg_list) #全模式
seg_list = jieba.cut("我来到北京清华大学",cut_all=False)
print "Default Mode:", "/ ".join(seg_list) #精确模式
seg_list = jieba.cut("他来到了网易杭研大厦") #默认是精确模式
print ", ".join(seg_list)
seg_list = jieba.cut_for_search("小明硕士毕业于中国科学院计算所,后在日本京都大学深造") #搜索引擎模式
print ", ".join(seg_list)
效果如下: