結巴中文分詞的學習和使用 - 程式人生
文章推薦指數: 80 %
jieba.cut 方法接受三個輸入引數: 需要分詞的字串;cut_all 引數用來控制 ... :https://github.com/fxsjy/jieba/blob/master/extra_dict/idf.txt.big ...
程式人生>>結巴中文分詞的學習和使用
結巴中文分詞的學習和使用
阿新••發佈:2019-01-04
結巴分詞
演算法
(1)基於Trie樹結構實現高效的詞圖掃描,生成句子中漢字所有可能成詞情況所構成的有向無環圖(DAG);
(2)採用了動態規劃查詢最大概率路徑,找出基於詞頻的最大切分組合;
(3)對於未登入詞,採用了基於漢字成詞能力的HMM模型,使用了Viterbi演算法。
三種分詞模式
(1)精確模式:試圖將句子最精確地切開,適合文字分析;
(2)全模式:把句子中所有的可以成詞的詞語都掃描出來,速度非常快,但是不能解決歧義問題;
(3)搜尋引擎模式:在精確模式的基礎上,對長詞再次切分,提高召回率,適合用於搜尋引擎分詞。
安裝
程式碼對Python2/3均相容
全自動安裝:easy_installjieba或者pipinstalljieba/ pip3installjieba
半自動安裝:先下載 http://pypi.python.org/pypi/jieba/,解壓後執行 pythonsetup.pyinstall
手動安裝:將jieba目錄放置於當前目錄或者site-packages目錄
通過 importjieba來引用
使用手動安裝的方式
使用
jieba.cut方法接受三個輸入引數:需要分詞的字串;cut_all引數用來控制是否採用全模式;HMM引數用來控制是否使用HMM模型
jieba.cut_for_search方法接受兩個引數:需要分詞的字串;是否使用HMM模型。
該方法適合用於搜尋引擎構建倒排索引的分詞,粒度比較細
待分詞的字串可以是unicode或UTF-8字串、GBK字串。
注意:不建議直接輸入GBK字串,可能無法預料地錯誤解碼成UTF-8
jieba.cut以及 jieba.cut_for_search返回的結構都是一個可迭代的generator,可以使用for迴圈來獲得分詞後得到的每一個詞語(unicode),或者用
jieba.lcut以及jieba.lcut_for_search直接返回list
jieba.Tokenizer(dictionary=DEFAULT_DICT)新建自定義分詞器,可用於同時使用不同詞典。
jieba.dt為預設分詞器,所有全域性分詞相關函式都是該分詞器的對映。
例項:
#encoding=utf-8
importjieba
seg_list=jieba.cut("我來到北京清華大學",cut_all=True)
print("FullMode:"+"/".join(seg_list))#全模式
seg_list=jieba.cut("我來到北京清華大學",cut_all=False)
print("DefaultMode:"+"/".join(seg_list))#精確模式
seg_list=jieba.cut("他來到了網易杭研大廈")#預設是精確模式
print(",".join(seg_list))
seg_list=jieba.cut_for_search("小明碩士畢業於中國科學院計算所,後在日本京都大學深造")#搜尋引擎模式
print(",".join(seg_list))
結果:
=============RESTART:/Users/zhanglipeng/Documents/testjieba.py=============Buildingprefixdictfromthedefaultdictionary...Dumpingmodeltofilecache/var/folders/kp/3zwp94853sg8jtb7cjrywlxw0000gn/T/jieba.cacheLoadingmodelcost0.818seconds.Prefixdicthasbeenbuiltsuccesfully.FullMode:我/來到/北京/清華/清華大學/華大/大學DefaultMode:我/來到/北京/清華大學他,來到,了,網易,杭研,大廈小明,碩士,畢業,於,中國,科學,學院,科學院,中國科學院,計算,計算所,,,後,在,日本,京都,大學,日本京都大學,深造
借鑑其他博文,程式碼如下:
importjieba
importjieba.analyse
importxlwt#寫入Excel表的庫
if__name__=="__main__":
wbk=xlwt.Workbook(encoding='utf-8')
sheet=wbk.add_sheet("wordCount")#Excel單元格名字
word_lst=[]
key_list=[]
forlineinopen('xiaoshuo.txt','r',encoding="utf-8"):#test.txt是需要分詞統計的文件
item=line.strip('\n\r').split('\t')#製表格切分
#printitem
tags=jieba.analyse.extract_tags(item[0])#jieba分詞
fortintags:
word_lst.append(t)
word_dict={}
withopen("wordCount.txt",'w',encoding="utf-8")aswf2:#開啟檔案
foriteminword_lst:
ifitemnotinword_dict:#統計數量
word_dict[item]=1
else:
word_dict[item]+=1
orderList=list(word_dict.values())
orderList.sort(reverse=True)
#printorderList
foriinrange(len(orderList)):
forkeyinword_dict:
ifword_dict[key]==orderList[i]:
wf2.write(key+''+str(word_dict[key])+'\n')#寫入txt文件
key_list.append(key)
word_dict[key]=0
foriinrange(len(key_list)):
sheet.write(i,1,label=orderList[i])
sheet.write(i,0,label=key_list[i])
wbk.save('wordCount.xls')#儲存為wordCount.xls檔案
執行,報錯:
=================RESTART:/Users/zhanglipeng/Desktop/ok.py=================Traceback(mostrecentcalllast): File"/Users/zhanglipeng/Desktop/ok.py",line2,in
。
。
執行結果:
本次僅使用分詞功能、詞頻統計功能,更多請見官方文件:https://github.com/fxsjy/jieba
官方原文如下:
主要功能
分詞
jieba.cut 方法接受三個輸入引數:需要分詞的字串;cut_all引數用來控制是否採用全模式;HMM引數用來控制是否使用HMM模型
jieba.cut_for_search 方法接受兩個引數:需要分詞的字串;是否使用HMM模型。
該方法適合用於搜尋引擎構建倒排索引的分詞,粒度比較細
待分詞的字串可以是unicode或UTF-8字串、GBK字串。
注意:不建議直接輸入GBK字串,可能無法預料地錯誤解碼成UTF-8
jieba.cut 以及 jieba.cut_for_search 返回的結構都是一個可迭代的generator,可以使用for迴圈來獲得分詞後得到的每一個詞語(unicode),或者用
jieba.lcut 以及 jieba.lcut_for_search 直接返回list
jieba.Tokenizer(dictionary=DEFAULT_DICT) 新建自定義分詞器,可用於同時使用不同詞典。
jieba.dt 為預設分詞器,所有全域性分詞相關函式都是該分詞器的對映。
程式碼示例
輸出:
新增自定義詞典
載入詞典
開發者可以指定自己自定義的詞典,以便包含jieba詞庫裡沒有的詞。
雖然jieba有新詞識別能力,但是自行新增新詞可以保證更高的正確率
用法:jieba.load_userdict(file_name)#file_name為檔案類物件或自定義詞典的路徑
詞典格式和 dict.txt 一樣,一個詞佔一行;每一行分三部分:詞語、詞頻(可省略)、詞性(可省略),用空格隔開,順序不可顛倒。
file_name 若為路徑或二進位制方式開啟的檔案,則檔案必須為UTF-8編碼。
詞頻省略時使用自動計算的能保證分出該詞的詞頻。
例如:
更改分詞器(預設為 jieba.dt)的 tmp_dir 和 cache_file 屬性,可分別指定快取檔案所在的資料夾及其檔名,用於受限的檔案系統。
範例:
自定義詞典:https://github.com/fxsjy/jieba/blob/master/test/userdict.txt
用法示例:https://github.com/fxsjy/jieba/blob/master/test/test_userdict.py
之前:李小福/是/創新/辦/主任/也/是/雲/計算/方面/的/專家/
載入自定義詞庫後: 李小福/是/創新辦/主任/也/是/雲端計算/方面/的/專家/
調整詞典
使用 add_word(word,freq=None,tag=None) 和 del_word(word) 可在程式中動態修改詞典。
使用 suggest_freq(segment,tune=True) 可調節單個詞語的詞頻,使其能(或不能)被分出來。
注意:自動計算的詞頻在使用HMM新詞發現功能時可能無效。
程式碼示例:
"通過使用者自定義詞典來增強歧義糾錯能力"--- https://github.com/fxsjy/jieba/issues/14
關鍵詞提取
基於TF-IDF演算法的關鍵詞抽取
importjieba.analyse
jieba.analyse.extract_tags(sentence,topK=20,withWeight=False,allowPOS=())
sentence為待提取的文字
topK為返回幾個TF/IDF權重最大的關鍵詞,預設值為20
withWeight為是否一併返回關鍵詞權重值,預設值為False
allowPOS僅包括指定詞性的詞,預設值為空,即不篩選
jieba.analyse.TFIDF(idf_path=None)新建TFIDF例項,idf_path為IDF頻率檔案
程式碼示例(關鍵詞提取)
https://github.com/fxsjy/jieba/blob/master/test/extract_tags.py
關鍵詞提取所使用逆向檔案頻率(IDF)文字語料庫可以切換成自定義語料庫的路徑
用法:jieba.analyse.set_idf_path(file_name)#file_name為自定義語料庫的路徑
自定義語料庫示例:https://github.com/fxsjy/jieba/blob/master/extra_dict/idf.txt.big
用法示例:https://github.com/fxsjy/jieba/blob/master/test/extract_tags_idfpath.py
關鍵詞提取所使用停止詞(StopWords)文字語料庫可以切換成自定義語料庫的路徑
用法:jieba.analyse.set_stop_words(file_name)#file_name為自定義語料庫的路徑
自定義語料庫示例:https://github.com/fxsjy/jieba/blob/master/extra_dict/stop_words.txt
用法示例:https://github.com/fxsjy/jieba/blob/master/test/extract_tags_stop_words.py
關鍵詞一併返回關鍵詞權重值示例
用法示例:https://github.com/fxsjy/jieba/blob/master/test/extract_tags_with_weight.py
基於TextRank演算法的關鍵詞抽取
jieba.analyse.textrank(sentence,topK=20,withWeight=False,allowPOS=('ns','n','vn','v'))直接使用,介面相同,注意預設過濾詞性。
jieba.analyse.TextRank()新建自定義TextRank例項
演算法論文: TextRank:BringingOrderintoTexts
基本思想:
將待抽取關鍵詞的文字進行分詞
以固定視窗大小(預設為5,通過span屬性調整),詞之間的共現關係,構建圖
計算圖中節點的PageRank,注意是無向帶權圖
使用示例:
見 test/demo.py
詞性標註
jieba.posseg.POSTokenizer(tokenizer=None) 新建自定義分詞器,tokenizer 引數可指定內部使用的 jieba.Tokenizer 分詞器。
jieba.posseg.dt 為預設詞性標註分詞器。
標註句子分詞後每個詞的詞性,採用和ictclas相容的標記法。
用法示例
並行分詞
原理:將目標文字按行分隔後,把各行文字分配到多個Python程序並行分詞,然後歸併結果,從而獲得分詞速度的可觀提升
基於python自帶的multiprocessing模組,目前暫不支援Windows
用法:
jieba.enable_parallel(4) #開啟並行分詞模式,引數為並行程序數
jieba.disable_parallel() #關閉並行分詞模式
例子:https://github.com/fxsjy/jieba/blob/master/test/parallel/test_file.py
實驗結果:在4核3.4GHzLinux機器上,對金庸全集進行精確分詞,獲得了1MB/s的速度,是單程序版的3.3倍。
注意:並行分詞僅支援預設分詞器 jieba.dt 和 jieba.posseg.dt。
Tokenize:返回詞語在原文的起止位置
注意,輸入引數只接受unicode
預設模式
搜尋模式
ChineseAnalyzerforWhoosh搜尋引擎
引用: fromjieba.analyseimportChineseAnalyzer
用法示例:https://github.com/fxsjy/jieba/blob/master/test/test_whoosh.py
命令列分詞
使用示例:python-mjiebanews.txt>cut_result.txt
命令列選項(翻譯):
--help 選項輸出:
延遲載入機制
jieba採用延遲載入,importjieba 和 jieba.Tokenizer() 不會立即觸發詞典的載入,一旦有必要才開始載入詞典構建字首字典。
如果你想手工初始jieba,也可以手動初始化。
在0.28之前的版本是不能指定主詞典的路徑的,有了延遲載入機制後,你可以改變主詞典的路徑:
例子: https://github.com/fxsjy/jieba/blob/master/test/test_change_dictpath.py
其他詞典
佔用記憶體較小的詞典檔案 https://github.com/fxsjy/jieba/raw/master/extra_dict/dict.txt.small
支援繁體分詞更好的詞典檔案 https://github.com/fxsjy/jieba/raw/master/extra_dict/dict.txt.big
下載你所需要的詞典,然後覆蓋jieba/dict.txt即可;或者用 jieba.set_dictionary('data/dict.txt.big')
其他語言實現
結巴分詞Java版本
作者:piaolingxue地址:https://github.com/huaban/jieba-analysis
結巴分詞C++版本
作者:yanyiwu地址:https://github.com/yanyiwu/cppjieba
結巴分詞Node.js版本
作者:yanyiwu地址:https://github.com/yanyiwu/nodejieba
結巴分詞Erlang版本
作者:falood地址:https://github.com/falood/exjieba
結巴分詞R版本
作者:qinwf地址:https://github.com/qinwf/jiebaR
結巴分詞iOS版本
作者:yanyiwu地址:https://github.com/yanyiwu/iosjieba
結巴分詞PHP版本
作者:fukuball地址:https://github.com/fukuball/jieba-php
結巴分詞.NET(C#)版本
作者:anderscui地址:https://github.com/anderscui/jieba.NET/
結巴分詞Go版本
作者:wangbin地址: https://github.com/wangbin/jiebago
作者:yanyiwu地址: https://github.com/yanyiwu/gojieba
結巴分詞Android版本
作者Dongliang.W地址:https://github.com/452896915/jieba-android
系統整合
Solr: https://github.com/sing1ee/jieba-solr
分詞速度
1.5MB/SecondinFullMode
400KB/SecondinDefaultMode
測試環境:Intel(R)Core(TM)[email protected];《圍城》.txt
常見問題
1.模型的資料是如何生成的?
詳見: https://github.com/fxsjy/jieba/issues/7
2.“臺中”總是被切成“臺中”?(以及類似情況)
P(臺中)<P(臺)×P(中),“臺中”詞頻不夠導致其成詞概率較低
解決方法:強制調高詞頻
jieba.add_word('臺中') 或者 jieba.suggest_freq('臺中',True)
3.“今天天氣不錯”應該被切成“今天天氣不錯”?(以及類似情況)
解決方法:強制調低詞頻
jieba.suggest_freq(('今天','天氣'),True)
或者直接刪除該詞 jieba.del_word('今天天氣')
4.切出了詞典中沒有的詞語,效果不理想?
解決方法:關閉新詞發現
jieba.cut('豐田太省了',HMM=False) jieba.cut('我們中出了一個叛徒',HMM=False)
更多問題請點選:https://github.com/fxsjy/jieba/issues?sort=updated&state=closed
修訂歷史
https://github.com/fxsjy/jieba/blob/master/Changelog
jieba
"Jieba"(Chinesefor"tostutter")Chinesetextsegmentation:builttobethebestPythonChinesewordsegmentationmodule.
Features
Supportthreetypesofsegmentationmode:
AccurateModeattemptstocutthesentenceintothemostaccuratesegmentations,whichissuitablefortextanalysis.
FullModegetsallthepossiblewordsfromthesentence.Fastbutnotaccurate.
SearchEngineMode,basedontheAccurateMode,attemptstocutlongwordsintoseveralshortwords,whichcanraisetherecallrate.Suitableforsearchengines.
SupportsTraditionalChinese
Supportscustomizeddictionaries
MITLicense
Onlinedemo
http://jiebademo.ap01.aws.af.cm/
(PoweredbyAppfog)
Usage
Fullyautomaticinstallation: easy_installjieba or pipinstalljieba
Semi-automaticinstallation:Download http://pypi.python.org/pypi/jieba/ ,run pythonsetup.pyinstall afterextracting.
Manualinstallation:placethe jieba directoryinthecurrentdirectoryorpython site-packages directory.
importjieba.
Algorithm
Basedonaprefixdictionarystructuretoachieveefficientwordgraphscanning.Buildadirectedacyclicgraph(DAG)forallpossiblewordcombinations.
Usedynamicprogrammingtofindthemostprobablecombinationbasedonthewordfrequency.
Forunknownwords,aHMM-basedmodelisusedwiththeViterbialgorithm.
MainFunctions
Cut
The jieba.cut functionacceptsthreeinputparameters:thefirstparameteristhestringtobecut;thesecondparameteris cut_all,controllingthecutmode;thethirdparameteristocontrolwhethertousetheHiddenMarkovModel.
jieba.cut_for_search acceptstwoparameter:thestringtobecut;whethertousetheHiddenMarkovModel.Thiswillcutthesentenceintoshortwordssuitableforsearchengines.
Theinputstringcanbeanunicode/strobject,orastr/bytesobjectwhichisencodedinUTF-8orGBK.NotethatusingGBKencodingisnotrecommendedbecauseitmaybeunexpectlydecodedasUTF-8.
jieba.cut and jieba.cut_for_search returnsangenerator,fromwhichyoucanusea for looptogetthesegmentationresult(inunicode).
jieba.lcut and jieba.lcut_for_search returnsalist.
jieba.Tokenizer(dictionary=DEFAULT_DICT) createsanewcustomizedTokenizer,whichenablesyoutousedifferentdictionariesatthesametime. jieba.dt isthedefaultTokenizer,towhichalmostallglobalfunctionsaremapped.
Codeexample:segmentation
Output:
Addacustomdictionary
Loaddictionary
Developerscanspecifytheirowncustomdictionarytobeincludedinthejiebadefaultdictionary.Jiebaisabletoidentifynewwords,butyoucanaddyourownnewwordscanensureahigheraccuracy.
Usage: jieba.load_userdict(file_name) #file_nameisafile-likeobjectorthepathofthecustomdictionary
Thedictionaryformatisthesameasthatof dict.txt:onewordperline;eachlineisdividedintothreepartsseparatedbyaspace:word,wordfrequency,POStag.If file_name isapathorafileopenedinbinarymode,thedictionarymustbeUTF-8encoded.
ThewordfrequencyandPOStagcanbeomittedrespectively.Thewordfrequencywillbefilledwithasuitablevalueifomitted.
Forexample:
ChangeaTokenizer's tmp_dir and cache_file tospecifythepathofthecachefile,forusingonarestrictedfilesystem.
Example:
Modifydictionary
Use add_word(word,freq=None,tag=None) and del_word(word) tomodifythedictionarydynamicallyinprograms.
Use suggest_freq(segment,tune=True) toadjustthefrequencyofasinglewordsothatitcan(orcannot)besegmented.
NotethatHMMmayaffectthefinalresult.
Example:
KeywordExtraction
importjieba.analyse
jieba.analyse.extract_tags(sentence,topK=20,withWeight=False,allowPOS=())
sentence:thetexttobeextracted
topK:returnhowmanykeywordswiththehighestTF/IDFweights.Thedefaultvalueis20
withWeight:whetherreturnTF/IDFweightswiththekeywords.ThedefaultvalueisFalse
allowPOS:filterwordswithwhichPOSsareincluded.Emptyfornofiltering.
jieba.analyse.TFIDF(idf_path=None) createsanewTFIDFinstance, idf_path specifiesIDFfilepath.
Example(keywordextraction)
https://github.com/fxsjy/jieba/blob/master/test/extract_tags.py
DeveloperscanspecifytheirowncustomIDFcorpusinjiebakeywordextraction
Usage: jieba.analyse.set_idf_path(file_name)#file_nameisthepathforthecustomcorpus
CustomCorpusSample:https://github.com/fxsjy/jieba/blob/master/extra_dict/idf.txt.big
SampleCode:https://github.com/fxsjy/jieba/blob/master/test/extract_tags_idfpath.py
Developerscanspecifytheirowncustomstopwordscorpusinjiebakeywordextraction
Usage: jieba.analyse.set_stop_words(file_name)#file_nameisthepathforthecustomcorpus
CustomCorpusSample:https://github.com/fxsjy/jieba/blob/master/extra_dict/stop_words.txt
SampleCode:https://github.com/fxsjy/jieba/blob/master/test/extract_tags_stop_words.py
There'salsoa TextRank implementationavailable.
Use: jieba.analyse.textrank(sentence,topK=20,withWeight=False,allowPOS=('ns','n','vn','v'))
NotethatitfiltersPOSbydefault.
jieba.analyse.TextRank() createsanewTextRankinstance.
PartofSpeechTagging
jieba.posseg.POSTokenizer(tokenizer=None) createsanewcustomizedTokenizer. tokenizer specifiesthejieba.Tokenizertointernallyuse. jieba.posseg.dt isthedefaultPOSTokenizer.
TagsthePOSofeachwordaftersegmentation,usinglabelscompatiblewithictclas.
Example:
ParallelProcessing
Principle:Splittargettextbyline,assignthelinesintomultiplePythonprocesses,andthenmergetheresults,whichisconsiderablyfaster.
BasedonthemultiprocessingmoduleofPython.
Usage:
jieba.enable_parallel(4) #Enableparallelprocessing.Theparameteristhenumberofprocesses.
jieba.disable_parallel() #Disableparallelprocessing.
Example: https://github.com/fxsjy/jieba/blob/master/test/parallel/test_file.py
Result:Onafour-core3.4GHzLinuxmachine,doaccuratewordsegmentationonCompleteWorksofJinYong,andthespeedreaches1MB/s,whichis3.3timesfasterthanthesingle-processversion.
Note thatparallelprocessingsupportsonlydefaulttokenizers, jieba.dt and jieba.posseg.dt.
Tokenize:returnwordswithposition
Theinputmustbeunicode
Defaultmode
Searchmode
ChineseAnalyzerforWhoosh
fromjieba.analyseimportChineseAnalyzer
Example: https://github.com/fxsjy/jieba/blob/master/test/test_whoosh.py
CommandLineInterface
Initialization
Bydefault,Jiebadon'tbuildtheprefixdictionaryunlessit'snecessary.Thistakes1-3seconds,afterwhichitisnotinitializedagain.IfyouwanttoinitializeJiebamanually,youcancall:
Youcanalsospecifythedictionary(notsupportedbeforeversion0.28):
UsingOtherDictionaries
ItispossibletouseyourowndictionarywithJieba,andtherearealsotwodictionariesreadyfordownload:
Asmallerdictionaryforasmallermemoryfootprint: https://github.com/fxsjy/jieba/raw/master/extra_dict/dict.txt.small
ThereisalsoabiggerdictionarythathasbettersupportfortraditionalChinese(繁體):https://github.com/fxsjy/jieba/raw/master/extra_dict/dict.txt.big
Bydefault,anin-betweendictionaryisused,called dict.txt andincludedinthedistribution.
Ineithercase,downloadthefileyouwant,andthencall jieba.set_dictionary('data/dict.txt.big') orjustreplacetheexisting dict.txt.
Segmentationspeed
1.5MB/SecondinFullMode
400KB/SecondinDefaultMode
TestEnv:Intel(R)Core(TM)[email protected];《圍城》.txt
.
多目標影象分割
«上一篇
iOS-手繪點下一篇»
相關推薦
python機器學習庫——結巴中文分詞
結巴中文分詞
安裝:
pipinstalljieba1
特點:
支援三種分詞模式:
精確模...
結巴中文分詞的學習和使用
結巴分詞
演算法
(1)基於Trie樹結構實現高效的詞圖掃描,生成句子中漢字所有可能成詞情況所構成的有向無環圖(DAG);
(2)...
中文分詞學習整理
存儲常用riphar開發ictgithuberb數據主要分為兩大類
1.字符串匹配(掃描字符串),發現...
Python第三方庫jieba(結巴-中文分詞)入門與進階(官方文檔)
修改demo特點pypinlpCA動態修改tag官方文檔jieba
“結巴”中文分詞:做最好的Pytho...
“結巴”中文分詞簡介jieba
jieba“結巴”中文分詞:做最好的Python中文分片語件"Jieba"(Chinesefor"tostutte...
【資料彙編】結巴中文分詞官方文件和原始碼分析系列文章
作者:白寧超
2016年11月23日16:49:36
摘要:結巴中文分詞的特點如下:支援三種分詞模式:(精確模式,試圖將句子最精確地切開,適合文字分...
【結巴分詞資料彙編】結巴中文分詞原始碼分析(2)
如下演算法實現分詞:
1.基於字首詞典實現高效的詞圖掃描,生成句子中漢字所有可能成詞情況所構成的有向無環圖(DAG);
作者這個版本中使用字...
結巴中文分詞用法
特點
支援三種分詞模式:
精確模式,試圖將句子最精確地切開,適合文字分析;
全模式,把句子中所有的可以成詞的詞語...
scws中文分詞安裝和使用
pretexgbk文件logwithdefaultpatlib一、下載源碼
wgethttp://ww...
中文分詞原理和實現
三大主流分詞方法:基於詞典的方法、基於規則的方法和基於統計的方法。
1、基於規則或詞典的方法
定義...
搜尋
基礎教學
Mysql入門
Sql入門
Android入門
Docker入門
Go語言入門
Ruby程式入門
Python入門
Python進階
Django入門
Python爬蟲入門
最近訪問
延伸文章資訊
- 1python爬虫学习笔记——5. jieba库中文分词用法 - 知乎专栏
1.jieba 分词有三种模式,并且支持新建自定义分词器 ... 支持繁体分词更好的词典文件https://github.com/fxsjy/jieba/raw/master/extra_dic...
- 2jieba 詳細介紹 - 程式庫
jieba. "結巴"中文分詞:做最好的Python中文分片語件"Jieba" ... 佔用記憶體較小的詞典檔案 https://github.com/fxsjy/jieba/raw/maste...
- 3Jieba 中文分詞-二- ——詞性標註與關鍵詞提取 - 閱坊
extra_dict/idf.txt.big"); tags = jieba.analyse.extract_tags(content, topK=topK) print(", ".join(t...
- 4LiveMirror/jieba: 结巴中文分词做最好的Python分词组件 - GitHub
Contribute to LiveMirror/jieba development by creating an account on GitHub. ... 词典文件https://gith...
- 5結巴中文分詞原理分析1 - 古詩詞庫
jieba.Tokenizer(dictionary=DEFAULT_DICT) 新建自定義分詞器,可用於 ... :https://github.com/fxsjy/jieba/blob/ma...