给女朋侪的电脑上写了个Python剧本!自动爬取Bilibili小视频!
发表时间:2023年02月09日浏览量:
女朋侪喜欢二次元的工具,可是二次元我就知道一个b站上面有许多的二次元视频,女朋侪也喜欢,我也喜欢她二次元的妆扮,呀,真的可爱!所以我就有了这样的一出!我身边的许多小同伴们在朋侪圈内里晒着出去游玩的照片,简直了,人多的不要不要的,长城被堵到水泄不通,老实人想想啊,既然人这么多,哪都不去也是件好事,没事还可以刷刷 B 站 23333。这时候老实人也有了一个斗胆地想法,能不能让这些在旅游景点排队的小同伴们更快地打发时间呢?思量到视频的娱乐性和公共寓目量,我决议对 B 站新推出的小视频功效下手,于是我跑到B站去找API接口,果不起然,B站在小视频功效处提供了 API 接口,小同伴们有福了哟!私信小编007即可获取数十套PDF的获取方式哦!B 站小视频网址在这里哦:http://vc.bilibili.com/p/eden/rank#/?tab=全部此次实验,我们爬取的是逐日的小视频排行榜前 top100我们该如何去爬取呢???实验情况准备Chrome 浏览器 (能使用开发者模式的浏览器都行)Vim (编辑器任选,老实人比力喜欢Vim界面,所以才用这个啦)Python3 开发情况Kali Linux (其实随便一个操作系统都行啦)API 寻找 && 提取我们通过 F12 打开开发者模式,然后在 Networking -> Name 字段下找到这个链接:http://api.vc.bilibili.com/board/v1/ranking/top?page_size=10&next_offset=&tag=%E4%BB%8A%E6%97%A5%E7%83%AD%E9%97%A8&platform=pc我们检察一下 Headers 属性我们可以看到Request URL这个属性值,我们向下滑动加载视频的历程中,发现只有这段url是稳定的。http://api.vc.bilibili.com/board/v1/ranking/top?next_offset 会一直变化,我们可以推测,这个可能就是获取下一个视频序号,我们只需要把这部门参数取出来,把 next_offset 写成变量值,用 JSON 的花样返回到目的网页即可。
代码实现我们通过上面的实验写了段代码,发现 B 站在一定水平上做了反爬虫操作,所以我们需要先获取 headers 信息,否则下载下来的视频是空的,然后界说 params 参数存储 JSON 数据,然后通过 requests.get 去获取其参数值信息,用 JSON 的花样返回到目的网页即可,实现代码如下:def get_json(url): headers = { 'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36' } params = { 'page_size': 10, 'next_offset': str(num), 'tag': '今日热门', 'platform': 'pc' } try: html = requests.get(url,params=params,headers=headers) return html.json() except BaseException: print('request error') pass为了能够清楚的看到我们下载的情况,我们折腾了一个下载器上去,实现代码如下:def download(url,path): start = time.time() # 开始时间 size = 0 headers = { 'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36' } response = requests.get(url,headers=headers,stream=True) # stream属性必须带上 chunk_size = 1024 # 每次下载的数据巨细 content_size = int(response.headers['content-length']) # 总巨细 if response.status_code == 200: print('[文件巨细]:%0.2f MB' %(content_size / chunk_size / 1024)) # 换算单元 with open(path,'wb') as file: for data in response.iter_content(chunk_size=chunk_size): file.write(data) size += len(data) # 已下载的文件巨细效果如下:将上面的代码举行汇总,整个实现历程如下:#!/usr/bin/env python#-*-coding:utf-8-*-import requestsimport randomimport timedef get_json(url): headers = { 'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36' } params = { 'page_size': 10, 'next_offset': str(num), 'tag': '今日热门', 'platform': 'pc' } try: html = requests.get(url,params=params,headers=headers) return html.json() except BaseException: print('request error') passdef download(url,path): start = time.time() # 开始时间 size = 0 headers = { 'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36' } response = requests.get(url,headers=headers,stream=True) # stream属性必须带上 chunk_size = 1024 # 每次下载的数据巨细 content_size = int(response.headers['content-length']) # 总巨细 if response.status_code == 200: print('[文件巨细]:%0.2f MB' %(content_size / chunk_size / 1024)) # 换算单元 with open(path,'wb') as file: for data in response.iter_content(chunk_size=chunk_size): file.write(data) size += len(data) # 已下载的文件巨细 if __name__ == '__main__': for i in range(10): url = 'http://api.vc.bilibili.com/board/v1/ranking/top?' num = i*10 + 1 html = get_json(url) infos = html['data']['items'] for info in infos: title = info['item']['description'] # 小视频的标题 video_url = info['item']['video_playurl'] # 小视频的下载链接 print(title) # 为了防止有些视频没有提供下载链接的情况 try: download(video_url,path='%s.mp4' %title) print('乐成下载一个!') except BaseException: print('凉凉,下载失败') pass time.sleep(int(format(random.randint(2,8)))) # 设置随机等候时间爬取效果图如下:似乎爬取的效果还可以,固然喜欢的朋侪不要忘记点赞分享转发哦。
本文关键词:给,女朋,侪,的,电脑,上,写了,个,Python,剧本,博亚app最新官方入口
本文来源:博亚app最新官方入口-www.shengyigj.com