说明
1、Spacy语言模型包含一些强大的文本分析功能,如词性标记和命名实体识别。
2、导入spacy相关模块后,需要加载中文处理包。然后阅读小说数据,nlp处理天龙八部小说,包括单词分割、定量、单词标记、语法分析、命名实体识别、符号/分离小说。最后,通过is_stop函数判断单词中的单词是否无效。删除无效单词后,将结果写入txt文件。
实例
importspacy importpandasaspd importtime fromspacy.lang.zh.stop_wordsimportSTOP_WORDS nlp=spacy.load('zh_core_web_sm') deffenci_stopwords(data,newdata1): fenci=[] qc_stopwords=[] article=pd.read_table(data,encoding="utf-8") start1=time.time() withopen(newdata1,'w',encoding='utf-8')asf1: foriinarticle["天龙八部"]:#分词 doc=nlp(i) result1='/'.join([t.textfortindoc]) fenci.append(result1) forjinfenci:#去除停用词 words=nlp.vocab[j] ifwords.is_stop==False: qc_stopwords.append(j) result2='/'.join(qc_stopwords) f1.write(result2) end1=time.time() returnend1-start1
以上是Python用Spacy分词的方法,希望对大家有所帮助。更多Python学习指导:python基础教程
本文教程操作环境:windows7系统Python 3.9.1,DELL G3电脑。