你爱我,我爱你,蜜雪冰城甜蜜蜜…最近被蜜雪冰城的宣传洗脑了,相关视频播放量很高,b站视频评论区都是人才说话好听,写个爬虫爬取一下b站评论区用户信息和评论内容。(修改于2021-06-25)
1.工具
(1)Chrome 谷歌浏览器 安装地址: https://www.google.cn/chrome/ (插件:json-handle 下载地址: http://jsonhandle.sinaapp.com/,json-handle安装方法:
用于分析网页结构 (2)python 3.x 安装地址: https://www.python.org/ 用于编写代码,开发工具:JetBrains PyCharm Professional下载地址: https://www.jetbrains.com/pycharm/ (3)Mongodb 数据库存储数据 安装地址: https://www.mongodb.com/try/download/community, 数据库可视化工具MongoDB Compass 用于动态管理数据库,安装教程详见:
https://blog.csdn.net/weixin_41466575/article/details/105326230
1.整体思路
2.爬虫思路
要想写好爬虫,一定要先把网页结构分析透彻。
1.分析网页加载方式
我们要爬取用户信息和评论,所以先打开一个视频。
鼠标右击 查看源代码 ,在源代码中搜索相关评论内容,并没有找到相关数据,可以判断此页面为ajax异步加载数据渲染出来的。
2.分析数据接口
回到视频页面F12打开开发者工具,刷新一下,ctrl+f搜索一下,发现评论数据都在这个json中。
这个json指向了下面这个接口地址:
https://api.bilibili.com/x/v2/reply?callback=jQuery1720631904798407396_1605664873948&jsonp=jsonp&pn=1&type=1&oid=248489241&sort=2&_=1605664874976
使用jsonhandle查看这个json可以看到用户信息在member里,评论信息在message里。
回到这个接口,此接口需要传以下参数:
callback: jQuery1720631904798407396_1605664873948 #经测试可以不传
jsonp: jsonp #经测试可以不传
pn: 1 #页码标识
type: 1 #所属类型
oid: 248489241 #视频标识,现在确定为视频av号
sort: 2 #所属分类
_: 1605664874976 #当前时间戳,经测试可以不传
通过分析发现关键参数为oid和pn,sort,个人猜测oid为视频标识,pn为评论所在页数,sort为类别,我们要获取到oid。
3.获取oid
如果视频url类似
则需要将BV号转化为av号 如果视频url类似
直接使用字符串切割出av后面的数字就可以啦。
这样我们就把视频评论信息加载方式、加载接口搞清楚了,可以去撰写爬虫了。
废话不说,直接上源码
import requests
import os
import re
import json
import pymongo
import time
""" test= https://www.bilibili.com/video/BV1wv41157Rr?from=search&seid=6132990751586623785 """
class BCommentParse(object):
def __init__(self,base_url):
self.headers={ 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Safari/537.36'}
self.base_url=base_url
def my_init(self):
id = self.base_url.split('video/')[-1].split('?')[0]
if id.startswith('av'):
id = id.split('av')[-1]
self.oid = self.get_avid_title(id)
else:
self.oid = self.get_avid_title(id, av=False)
self.set_page()
def get_avid_title(self,id_number,av=True):
""" 获取av号以及视频标题 :param id_number: av/bv号 :param av: 是否为av号 :return: av号 """
if av==True:
api=f'https://api.bilibili.com/x/web-interface/view?aid={id_number}'
else:
api=f'https://api.bilibili.com/x/web-interface/view?bvid={id_number}'
r=requests.get(api,headers=self.headers)
_json=json.loads(r.text)
self.video_title=_json['data']['title']
avid=_json['data']['aid']
return avid
def set_page(self):
""" 配置数据库 :return: """
host = '127.0.0.1'
port = 27017
myclient = pymongo.MongoClient(host=host, port=port)
mydb = 'Bilibili'
sheetname = self.video_title
db = myclient[mydb]
self.post = db[sheetname]
def parse_comment(self):
self.my_init()
base_url=f'https://api.bilibili.com/x/v2/reply?jsonp=jsonp&type=1&oid={self.oid}&sort=2'
n=0
url=base_url+'&pn={}'
headers={ 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Safari/537.36'}
try:
while True:
r=requests.get(url.format(n),headers=headers)
_json=json.loads(r.text)
replies=_json.get('data').get('replies')
item={ }
n+=1
if len(replies)!=0:
print(f'\033[34;47m--------------------正在爬取{n}页--------------------')
for replie in replies:
item['user_id']=replie.get('member').get('mid')#用户id
item['user_name']=replie.get('member').get('uname')#用户名
item['user_sex']=replie.get('member').get('sex')#性别
item['user_level']=replie.get('member').get('level_info').get('current_level')#等级
vip=replie.get('member').get('vip').get('vipStatus')#是否vip
if vip==1:
item['user_is_vip']='Y'
elif vip==0 :
item['user_is_vip']='N'
comment_date=replie.get('member').get('ctime')#评论日期
timeArray = time.localtime(comment_date)
otherStyleTime = time.strftime("%Y-%m-%d %H:%M:%S", timeArray)
item['apprecate_count']=replie.get('like')#点赞数
item['reply_count']=replie.get('rcount')#回复数
item['comment_date']=otherStyleTime
item['comment']=replie.get('content').get('message')#评论内容
#判断数据库中有无此文档,也可用于断点续
res=self.post.count_documents(item)
if res==0:
data = dict(item)
self.post.insert(data)
print(f'\033[35;46m{item}\033[0m')
else:
print('\033[31;44m pass\033[0m')
time.sleep(0.5)
else:
print(f'\033[31;44m--------------------程序在第{n}页正常退出!--------------------\033[0m')
break
except:
pass
if __name__ == '__main__':
video_url='https://www.bilibili.com/video/BV1wv41157Rr?from=search&seid=6132990751586623785'
if video_url.startswith('https://www.bilibili.com/video/'):
b=BCommentParse(video_url)
b.parse_comment()
else:
print('请输入正确地址!')
这里要说一下,开始我简单判断了一下输入内容,而且我并没有将api所有参数都传过去,像_这样的时间戳可以用time.time()去构造,用户信息的话,可以按需去抽取。
控制台一直在输出数据,直到结束。
数据存储,我选择mongodb数据库,您可以自行选择存储方式。
一共1w3千多条,您可自行选择导出数据为json或者csv格式。
- 本次爬取的是b站视频评论用户信息和评论数据,不只适用于代码所示视频,是通用的,修改网址或者av/BV号就行。b站对ip访问频率有限制,所以保险起见,加入了限速,此爬虫的重点在于寻找评论api接口,url构造完成以后数据抽取就简单容易了,一共1w3千多条数据,思路、代码方面有什么不足欢迎各位大佬指正、批评!