精品专区-精品自拍9-精品自拍三级乱伦-精品自拍视频-精品自拍视频曝光-精品自拍小视频

網(wǎng)站建設資訊

NEWS

網(wǎng)站建設資訊

python-jieba分詞庫

jieba 庫是優(yōu)秀的中文分詞第三方庫,中文文本需要通過分詞獲得單個的詞語

成都創(chuàng)新互聯(lián)主營勐海網(wǎng)站建設的網(wǎng)絡公司,主營網(wǎng)站建設方案,成都App制作,勐海h5成都小程序開發(fā)搭建,勐海網(wǎng)站營銷推廣歡迎勐海等地區(qū)企業(yè)咨詢

jieba庫安裝

管理員身份運行cmd窗口輸入命令:pip install jieba

jieba庫功能介紹

特征

  • 支持三種分詞模式
    • 精確模式:試圖將句子最精確地切開,適合文本分析
    • 全模式:把句子中所有的可以成詞的詞語都掃描出來, 速度非常快,但是不能解決歧義
    • 搜索引擎模式:在精確模式的基礎上,對長詞再次切分,提高召回率,適合用于搜索引擎分詞
  • 支持繁體分詞
  • 支持自定義詞典

分詞功能

  • jieba.cut 和 jieba.lcut 方法接受兩個傳入?yún)?shù)
    • 第一個參數(shù)為需要分詞的字符串
    • cut_all參數(shù)用來控制是否采用全模式

lcut 將返回的對象轉化為 list 對象返回

  • jieba.cut_for_search 和 jieba.lcut_for_search 方法接受一個參數(shù)
    • 需要分詞的字符串

該方法適合用于搜索引擎構建倒排索引的分詞,顆粒度較細
jieba.lcut_for_search 方法返回列表類型

添加自定義詞典

開發(fā)者可以指定自己自定義的詞典,以便包含jieba詞庫里沒有的詞。雖然jieba有新詞識別能力,但是自行添加新詞可以保證更高的正確率

用法

  1. 使用自定義詞典文件
    • jieba.load_userdict(file_name) # file_name 是自定義詞典的路徑
  2. 使用jieba在程序中動態(tài)修改詞典
    • jieba.add_word(new_words) # new_words 是想要添加的新詞
    • jieba.del_word(words) # 刪除words

關鍵詞提取

  • jieba.analyse.extract_tags(sentence,topK) #需要先import jieba.analyse

sentence 為待提取的文本
topK 為返回幾個TF/IDF權重最大的關鍵詞,默認是20

詞性標注

  • jieba.posseg.POSTokenizer(tokenizer=None) 新建自定義分詞器,tokenizer參數(shù)可指定內(nèi)部使用的jieba.Tokenizer 分詞

jieba.posseg.dt 為默認詞性標注分詞器
標注句子分詞后每個詞的詞性,采用和ictclas兼容的標記法

案例

一、精確模式

import jieba
list1 = jieba.lcut("中華人民共和國是一個偉大的國家")
print(list1)
print("精確模式:"+"/".join(list1))

二、全模式

list2 = jieba.lcut("中華人民共和國是一個偉大的國家",cut_all = True)
print(list2,end=",")
print("全模式:"+"/".join(list2))

三、搜索引擎模式

list3 = jieba.lcut_for_search("中華人民共和國是一個偉大的國家")
print(list3)
print("搜索引擎模式:"+"  ".join(list3))

四、修改詞典

import jieba
text = "中信建投投資公司了一款游戲,中信也投資了一個游戲公司"
word = jieba.lcut(text)
print(word)

# 添加詞
jieba.add_word("中信建投")
jieba.add_word("投資公司")
word1 = jieba.lcut(text)
print(word1)

# 刪除詞
jieba.del_word("中信建投")
word2 = jieba.lcut(text)
print(word2)

五、詞性標注

import jieba.posseg as pseg

words = pseg.cut("我愛北京天安門")
for i in words:
    print(i.word,i.flag)

六、統(tǒng)計三國演義中人物出場的次數(shù)

三國演義文本下載

import  jieba

txt = open("文件路徑", "r", encoding='utf-8').read()    # 打開并讀取文件
words = jieba.lcut(txt)     # 使用精確模式對文本進行分詞
counts = {}     # 通過鍵值對的形式存儲詞語及其出現(xiàn)的次數(shù)

for word in words:
    if  len(word) == 1:    # 單個詞語不計算在內(nèi)
        continue
    else:
        counts[word] = counts.get(word, 0) + 1    # 遍歷所有詞語,每出現(xiàn)一次其對應的值加 1
        
items = list(counts.items())     #將鍵值對轉換成列表
items.sort(key=lambda x: x[1], reverse=True)    # 根據(jù)詞語出現(xiàn)的次數(shù)進行從大到小排序 

for i in range(15):
    word, count = items[i]
    print("{0:<10}{1:>5}".format(word, count))
import jieba

excludes = {"將軍","卻說","荊州","二人","不可","不能","如此","如何"}
txt = open("三國演義.txt", "r", encoding='utf-8').read()
words  = jieba.lcut(txt)
counts = {}

for word in words:
    if len(word) == 1:
        continue
    elif word == "諸葛亮" or word == "孔明曰":
        rword = "孔明"
    elif word == "關公" or word == "云長":
        rword = "關羽"
    elif word == "玄德" or word == "玄德曰":
        rword = "劉備"
    elif word == "孟德" or word == "丞相":
        rword = "曹操"
    else:
        rword = word
        counts[rword] = counts.get(rword,0) + 1
    
for i in excludes:
    del counts[i]
    
items = list(counts.items())
items.sort(key=lambda x:x[1], reverse=True) 

for i in range(10):
    word, count = items[i]
    print ("{0:<10}{1:>5}".format(word, count))


網(wǎng)站欄目:python-jieba分詞庫
文章轉載:http://m.jcarcd.cn/article/dsojsdo.html
主站蜘蛛池模板: 午夜福利一区在线 | 日韩欧美在线综合 | 国产色秀视| 日韩午夜基地 | 最新国产成人盗摄精品视频 | 欧美性爱综合 | 国产愉拍99线观看 | 97国产在线 | 韩国床戏激情戏裸戏 | 国产综合精品在线 | 日韩欧美在线不卡 | 福利导航网站 | 日韩乱伦一二三区 | 欧洲番茄影院 | 欧美日韩一级国产 | 绿巨人视频官网在线 | 91福利电影 | 国产乱子伦l精品 | 精品国自产拍视频 | 国产韩日欧美在线 | 国产网站91| 日韩精品在线电影 | 韩国日本在线电影 | 91香蕉小视频 | 欧美性凶猛xx | 国产亚洲综合 | 国产在线观看 | 精品一区二区视频 | 中文字幕va一区二 | 日韩女神精品自拍 | 日韩在线视频观看 | 国产精品一区二 | 日韩专区中文字幕 | 国产婬妇視频网站 | 欧美一区2区 | 国产人妖一区=区 | 日韩成人在 | 成人性毛 | 日本特级婬片免费 | 国产女女| 最新上映电影免费抢先 |