前言
本文的文字及图片来源于网络, 仅供学习、交流使用, 不具有任何商业用途, 版权归原作者所有, 如有问题请及时联系我们以作处理。
最近一直在关注百度明星吧,发现很多有趣的帖子,于是我就想用 python 把这些帖子都爬下来,并对内容进行分析。
本文的知识点:
- 介绍了 mysql 数据库内容插入及提取的简单应用;
- 介绍了如何从 mysql 数据库提取文本并进行分析;
- 介绍了数据分析的切入点及思路。
对于初学者想更轻松的学好 Python 开发技术,Python 爬虫,Python 大数据分析, 人工智能等技术,这里给大家分享一套系统教学资源,加一下我建的 Python 技术的学习裙;七八四七五八二一四,一起学习。有相关开发工具,学习教程,每天还有专业的老司机在线直播分享知识与技术答疑解惑!
下面给大家详细介绍一下实现过程:
一、网站分析
贴吧的翻页通过 url 的变化来实现,主要是 pn 参数:
https://tieba.baidu.com/f?kw= 明星 &ie=utf-8&pn= 页数 *50
帖子的内容、发帖者及跟帖数量都可以在网页中找到:
所以,我们只需要用 requests 模拟请求获得,再用 bs4 解析就可以获得想要的内容了
二、python 编程实现
1. 爬取数据
用了静态网页爬虫的老套路,根据网页源码的特点,用 find_all 函数提取了帖子、发帖人及跟帖数量等信息,并将 3 类信息放入列表中,最终生成 1 个二维列表 result,主要为了方便存入数据库,代码如下:
for t in range(250): print('第 {0} 页'.format(t+1))
url='https://tieba.baidu.com/f?kw= 明星 &ie=utf-8&pn={0}'.format(t*50)
header = {'User-Agent': 'Mozilla/5.0(Windows NT 6.1; Win64; x64; rv:69.0) Gecko/20100101 Firefox/69.0' }
response = requests.get(url, header)
soup = BeautifulSoup(response.text, 'html.parser')
items_content = soup.find_all('a', class_='j_th_tit') #内容
items_user = soup.find_all('span', class_='tb_icon_author') #昵称
items_comment = soup.find_all(class_='threadlist_rep_num center_text') #跟帖数量
for i, j, k in zip(items_content, items_user, items_comment):
result.append([i.get('title'), j.get('title')[5:], k.text])
time.sleep(1)
2. 存入数据库
先创建 1 个新表,命名为‘STAR’,然后再创建 3 列,分别命名为“title”、‘author’和‘num’,用于存放 1 中怕的内容,最后将二维列表 result 中的内容存入数据库:
conn=pymysql.connect(
host='127.0.0.1',
port=3306,
user='root',
password='数据库密码',
db='test1',
charset='utf8mb4' )
cur = conn.cursor() #如果存在 TIEBA 表,则删除
cur.execute("DROP STAR IF EXISTS STAR") #创建 TIEBA 表
sql = """ create table STAR(title char(255),
author char(100),
num char(20)) """ cur.execute(sql) for i in result:
cur.execute("INSERT INTO STAR(title,author,num) VALUES ('{0}','{1}','{2}')".
format(i[0].replace('\'','').replace('\"','').replace('\\',''), i[1], i[2]))
conn.commit()
由于帖子内容中存在表情等符号,所以选择用 ’utf8mb4’ 这样就可以把表情也存入数据库了,但是还有一些标点符号在写入过程会出错,所以用 replace 给替换掉了。
总共爬了 250 页数据,最后的结果如下:
总共爬了 1 万 3 千多条数据,基本把最近两年的帖子都爬完了。
三、可视化展示
用 create_engine 模块读取数据库表中的内容,代码如下:
import pandas as pd from sqlalchemy importcreate_engine # 初始化数据库连接,使用 create_engine 模块
engine =create_engine('mysql+pymysql://root: 密码 @127.0.0.1:3306/test1') # 查询语句,选出 STAR 表中的所有数据
sql = '''select *from STAR;'''
# read_sql_query 的两个参数: sql 语句,数据库连接
df =pd.read_sql_query(sql, engine) # 输出 STAR 表的查询结果
df['num']=[int(i) for i in list(df['num'])]
df=df.drop_duplicates(subset=['title','author','num'], keep='first')
因为跟帖数量是以字符格式存入的,所以先将其转为整数,再用 drop_duplicates 模块对数据进行去重,这样就把数据整理完毕了。
上万条数据放在你面前,用肉眼是看不出什么名堂的,所以我这里选择了几个角度,用 python 统计分析这个贴吧里到底隐藏着什么秘密
1. 找出发帖数量最多的 20 个人
说简单点就是创建 1 个空字典,然后把 df[‘author’]转成列表,统计列表中元素个数,将元素及个数存入字典中,再对字典进行排序,将前十个画成柱状图,代码如下:
# 发帖数量排名
rank_num={} for i in list(set(list(df['author']))):
rank_num[i.replace('','')] = list(df['author']).count(i)
rank_num = sorted(rank_num.items(), key=lambda x: x[1], reverse=True)
bar = Bar("柱状图", "发帖数量 - 昵称")
bar.add("发帖数量 - 昵称", [i[0] for i in rank_num[:10]], [i[1] for i in rank_num[:10]],
xaxis_rotate=45, mark_line=["average"], mark_point=["max", "min"])
bar.render('发帖数量 - 昵称.html')
结果如下:
这个猎头发帖有点猛啊,单人最高发了 751 个,真厉害。
2. 找出跟帖数最多的 20 个帖子
dff=df.sort_values(by='num', ascending=False).head(10)
bar = Bar('跟帖数量排名',width=1000,height=400)
bar.use_theme('dark')
bar.add('',dff['title'][::-1], dff['num'][::-1], is_convert=True, is_yaxis_inverse=False, xaxis_rotate=45,is_label_show=True,label_pos='right')
bar.render("跟帖数量排名.html")
结果如下:
跟帖最多的竟然是个水贴,数量高达 73459 次
3. 制作所有帖子的词云图
先把所有帖子连接成字符,用 jieba 进行分词,插入背景图片,代码如下:
import matplotlib.pyplot as plt import jieba from wordcloud importwordcloud
text=''for i in list(df['title']):
text+=i print(text)
cut_text = jieba.cut(text)
result=[] for i in cut_text:
result.append(i)
result = " ".join(result)
wc = wordcloud.WordCloud(
font_path='C:\Windows\Fonts\FZBWKSJW.TTF', # 字体路径
background_color='white', # 背景颜色
width=1000,
height=600,
max_font_size=1000, # 字体大小
min_font_size=10,
mask=plt.imread('水滴.jpg'), # 背景图片
max_words=100000)
wc.generate(result)
wc.to_file('result.png') # 图片保存
效果如下:
看了这张词云图,可以确定贴吧基本已经被猎头占领了,连肖战、李现等流量小生都被压下去了。