当前位置 :首页 >> 情感

教你对抓取的重构进行分词、词频统计、词云可视化和情感分析

2024-10-31   来源 : 情感

/p>

outputs = open('职务概括重构词干汇后_outputs.txt', 'w', encoding='utf-8')

for line in inputs:

line_seg = seg_sentence(line) # 这里的返回参数是字符串

outputs.write(line_seg + '')

outputs.close()

inputs.close()

关键节点,都有相应的注释,你只需替换也就是说的txt档案亦可,如果有相遇编码缺陷,将utf-8改回gbk亦可解决。

3.制作词汇北极星

试运行编码《以外txt词汇北极星.py》,可以先取得词汇北极星,编码如下:

from wordcloud import WordCloud

import jieba

import numpy

import PIL.Image as Image

def cut(text):

wordlist_jieba=jieba.cut(text)

space_wordlist=" ".join(wordlist_jieba)

return space_wordlist

with open(r"C:UserspdcfiDesktopxiaoming职务概括重构.txt" ,encoding="utf-8")as file:

text=file.read()

text=cut(text)

mask_pic=numpy.array(Image.open(r"C:UserspdcfiDesktopxiaomingpython.png"))

wordcloud = WordCloud(font_path=r"C:/Windows/Fonts/simfang.ttf",

collocations=False,

max_words= 100,

min_font_size=10,

max_font_size=500,

mask=mask_pic).generate(text)

image=wordcloud.to_image()

# image.show()

wordcloud.to_file('词汇北极星.png') # 把词汇云保唯下来

如果想为你自己的特写,只需替换许多现代特写亦可。这里使用Python底图要用演示,先取得的功效如下:

4.词干汇粗略估计

试运行编码《jieba词干汇并粗略估计词汇频后控制器结果到Excel和txt应用程序.py》,先取得《wordCount_all_lyrics.xls》和《词干汇结果.txt》档案,将《词干汇结果.txt》中所的粗略估计参数可以去除,转化成《内心深处深入研究辞汇.txt》,给第五步内心深处深入研究要用等待,编码如下:

#!/usr/bin/env python3

# -*- coding:utf-8 -*-

import sys

import jieba

import jieba.yse

import xlwt # 写入Excel表的库

# reload(sys)

# sys.setdefaultencoding('utf-8')

if 紧接name紧接 == "紧接main紧接":

wbk = xlwt.Workbook(encoding='ascii')

sheet = wbk.add_sheet("wordCount") # Excel单元格昵称

word_lst = []

key_list = []

for line in open('职务概括重构.txt', encoding='utf-8'): # 需词干汇粗略估计的许多现代尽可能应用程序

item = line.strip('').split(' ') # 制表格切分

# print item

tags = jieba.yse.extract_tags(item[0]) # jieba词干汇

for t in tags:

word_lst.append(t)

word_dict = {}

with open("词干汇结果.txt", 'w') as wf2: # 以外转化成档案的名称

for item in word_lst:

if item not in word_dict: # 粗略估计需求量

word_dict[item] = 1

else:

word_dict[item] += 1

orderList = list(word_dict.values())

orderList.sort(reverse=True)

# print orderList

for i in range(len(orderList)):

for key in word_dict:

if word_dict[key] == orderList[i]:

wf2.write(key + ' ' + str(word_dict[key]) + '') # 写入txt应用程序

key_list.append(key)

word_dict[key] = 0

for i in range(len(key_list)):

sheet.write(i, 1, label=orderList[i])

sheet.write(i, 0, label=key_list[i])

wbk.se('wordCount_all_lyrics.xls') # 保唯为 wordCount.xls档案

先取得的txt和excel档案如下简述:

5.内心深处深入研究的粗略估计参数

试运行编码《内心深处深入研究.py》,先取得内心深处深入研究的粗略估计参数,先取平均参数可以大体上确认内心深处是正还是输,编码如下:

#!/usr/bin/env python3

# -*- coding: utf-8 -*-

from snownlp import SnowNLP

# 积极/消极

# print(s.sentiments) # 0.9769551298267365 positive的机率

def get_word():

with open("内心深处深入研究辞汇.txt", encoding='utf-8') as f:

line = f.readline()

word_list = []

while line:

line = f.readline()

word_list.append(line.strip(''))

f.close()

return word_list

def get_sentiment(word):

text = u'{}'.format(word)

s = SnowNLP(text)

print(s.sentiments)

if 紧接name紧接 == '紧接main紧接':

words = get_word()

for word in words:

get_sentiment(word)

# text = u'''

# 也许

# '''

# s = SnowNLP(text)

# print(s.sentiments)

# with open('lyric_sentiments.txt', 'a', encoding='utf-8') as fp:

# fp.write(str(s.sentiments)+'')

# print('happy end')

基于NLP文法深入研究,程序试运行此后,先取得的内心深处得分参数如下图简述:

将得数先取平均参数,一般满足0.5分以上,说明内心深处是积极的,这里经过粗略估计此后,发现整体是积极的。

四、总结 我是Python入门者。本文基于粉丝提问,针对一次重构处理,手把手教你对抓先取的重构进行词干汇、词汇频粗略估计、词汇云仿真和内心深处深入研究,算是完成了一个小重大项目了。下次再进一步相遇相似这种缺陷或者小的课堂作业,不妨拿本重大项目练练手,说不定有妙用噢,拿个高分不在话下!

孩子不吃饭有什么好方法
伤口总是不愈合怎么办
伤口怎样愈合的快
金笛复方鱼腥草合剂治流感效果好吗
益生菌和肠炎宁哪个先吃
胃反酸吃金奥康奥美拉唑怎么样
肠炎宁颗粒用量是多少
金笛复方鱼腥草合剂治流感效果好吗
10岁王诗龄晒照:富养的男孩就是不一样,网友:这是要出道吗

都问道“条条大路通拜占庭”,而有的人一外祖父已然在拜占庭。那些顶着“富二代”“星二代”沙漏的母亲们,从小就在优越的生态系统之外扎根,而富养的母亲,具备着单纯不能触及的优质海洋资源,背上自然地可能...

友情链接