您当前的位置:首页 > IT编程 > python
| C语言 | Java | VB | VC | python | Android | TensorFlow | C++ | oracle | 学术与代码 | cnn卷积神经网络 | gnn | 图像修复 | Keras | 数据集 | Neo4j | 自然语言处理 | 深度学习 | 医学CAD | 医学影像 | 超参数 | pointnet | pytorch | 异常检测 | Transformers | 情感分类 | 知识图谱 |

自学教程:Python爬虫分析微博热搜关键词的实现代码

51自学网 2021-10-30 22:55:39
  python
这篇教程Python爬虫分析微博热搜关键词的实现代码写得很实用,希望能帮到您。

1,使用到的第三方库
requests
BeautifulSoup 美味汤
worldcloud 词云
jieba 中文分词
matplotlib 绘图
2,代码实现部分

import requestsimport wordcloudimport jiebafrom bs4 import BeautifulSoupfrom matplotlib import pyplot as pltfrom pylab import mpl#设置字体mpl.rcParams['font.sans-serif'] = ['SimHei']mpl.rcParams['axes.unicode_minus'] = Falseurl = 'https://s.weibo.com/top/summary?Refer=top_hot&topnav=1&wvr=6'try:  #获取数据  r = requests.get(url)  r.raise_for_status()  r.encoding = r.apparent_encoding  soup = BeautifulSoup(r.text,'html.parser')  data = soup.find_all('a')  d_list = []  for item in data:    d_list.append(item.text)  words = d_list[4:-11:]  #中文分词  result = list(jieba.cut(words[0]))  for word in words[1::]:    result.extend(jieba.cut(word))  redata = []  for it in result:    if len(it) <= 1:      continue    else:      redata.append(it)  result_str = ' '.join(redata)  #输出词云图  font = r'C:/Windows/Fonts/simhei.ttf'  w = wordcloud.WordCloud(font_path=font,width=600,height=400)  w.generate(result_str)  w.to_file('微博热搜关键词词云.png')  key = list(set(redata))  x,y = [],[]  #筛选数据  for st in key:    count = redata.count(st)    if count <= 1:      continue    else:      x.append(st)      y.append(count)  x.sort()  y.sort()  #绘制结果图  plt.plot(x,y)  plt.show()except Exception as e:  print(e)

 

3,运行结果

在这里插入图片描述
在这里插入图片描述

到此这篇关于Python爬虫分析微博热搜关键词的文章就介绍到这了,更多相关Python爬虫微博热搜内容请搜索51zixue.net以前的文章或继续浏览下面的相关文章希望大家以后多多支持51zixue.net!


anaconda升级sklearn版本的实现方法
sklearn中的交叉验证的实现(Cross-Validation)
万事OK自学网:51自学网_软件自学网_CAD自学网自学excel、自学PS、自学CAD、自学C语言、自学css3实例,是一个通过网络自主学习工作技能的自学平台,网友喜欢的软件自学网站。