jieba是一个Python语言实现的中文分词组件,jieba分词库的分词模式
在中文分词中,jiebe库是最常见的一个,主要是因为它对精确模式、全模式、搜索引擎模式等分词模式的独特支持。还对应了三个方法,包括jieba.cut()方法、jieba.lcut()方法和jieba.cut_for_search()方法。让我们看看这些分词模式和方法的使用作为例子。
全模式:
importjieba
Seg_list=jieba.cut(欢迎来到南京长江大桥。,cut_all=True)
打印(类型(分段列表),分段列表)精确模式:
Seg_list1=jieba.lcut(欢迎来到南京长江大桥。,cut_all=False)
打印(类型(段_列表1),段_列表1)搜索模式:
Seg_list2=jieba.cut_for_search(欢迎来到南京长江大桥。)
打印(类型(seg_list2),seg_list2)
打印(完整模式: /。join(seg_list))
Print(精确模式: /。join(seg_list1))
打印(搜索引擎模式: /。加入输出结果:
类列表[南京,长江大桥,欢迎,您,。]
类“generator”generatorobjecttokenizer . cut _ for _ search at0x 000002 e 04 D1 c 43 c 0
全模式:南京/南京/北京/市长/长江/长江大桥/大桥/欢迎/你/。
准确模式:南京/长江大桥/欢迎/你/。
搜索引擎模式:南京/北京/南京/长江/大桥/长江大桥/欢迎/你/。一组例子详细向你展示如何使用杰霸库的分词模式。有兴趣可以试着学一下~
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。