代码如下:
import jieba # 需要先安装jieba库
text = "Python中文分词是一个很好用的工具,在自然语言处理领域得到了广泛应用。" # 待分词的文本
# 使用jieba进行分词,cut方法返回一个生成器,遍历该生成器可以得到每个词语
seg_list = jieba.cut(text)
# 将词语拼接为字符串,中间用空格隔开
result = " ".join(seg_list)
print(result) # 打印分词结果
运行结果如下:
Python 中文 分词 是 一个 很 好 用 的 工具 , 在 自然语言 处理 领域 得到 了 广泛应用 。