Python爬虫---爬取抖音短视频
前言
最近一直想要写一个抖音爬虫来批量下载抖音的短视频,但是经过几天的摸索我发现了一个很严重的问题...... 抖音实在是难爬!从一开始的网页分析中就有着很多的坑,但是这几天的摸索也不是一无所获,我鼓捣出来了一个问题版的抖音爬虫(操作较为复杂),所以我也想通过这篇博客来记录下我分析网页的过程,也想请教一下路过大佬们,欢迎各位大佬指出问题!( 这篇文章的分析比较麻烦了,但是也可以当做分析其他网页的一个参考吧, 想要爬抖音的朋友们可以看这一篇的代码改良版抖音爬虫)
抖音爬虫制作
选定网页
想要爬取抖音上面的视频,就要先找到可以刷小视频的地址,于是我就开始在网上寻找网页版的抖音。经过一番寻找,发现抖音根本就没有网页版的这个板块,打开的网页大多都是如下图所示提示你下载 app 的网页:
想要爬取小视频的内容,没有网页地址可不行。于是我又想到了另一种寻找网页的方法:
首先我打开了手机抖音,选定了一个喜欢的抖音号,使用复制链接的方法来尝试是否可以在网页中打开:
将链接粘贴到记事本中,发现它是长这个样子的
ok,到现在为止,我已经选定了将这个页面作为我获取数据的起始页面
选定起始页之后,我的下一步想法是要去获取这些小视频的单独的网页地址,于是我又点击了下面的这些小视频。这里恶心的地方出现了,无论我点击哪一个小视频,弹出来的都是强迫你下载 app 的界面
于是我又想尝试上面获取到网页的操作来获取视频的地址,再次打开手机上的抖音,在这个漫威的账号下随便打开一个视频,点击右下角的分享,复制它的链接:
这个链接地址长这个样子:
#黑寡妇 北美终极预告!黑暗过往揭晓,2020 即将强势开启漫威电影宇宙第四阶段!
https://v.douyin.com/wGqCNG/ 复制此链接,打开【抖音短视频】,直接观看视频!
打开的确实是视频页,点击播放按钮也可以播放视频,所以这就是我们需要记住的第二个页面。
分析网页
现在又出现了一个比较麻烦的事情,在浏览器中输入网址过后,跳转到了视频的播放页,但是此时的播放页地址经过了重定向生成了非常长的一串地址,乍一看毫无规律可讲
正常来说请求第一种链接https://v.douyin.com/wGqCNG/和第二种重定向之后的链接都可以获取到信息,但是我发现第一种链接地址是找不到规律的,所以我猜测第二种网址的规律会更加的好找,先把链接地址复制到记事本中:
https://www.iesdouyin.com/share/video/6802189485015633160/?region=CN&mid=6802184753988471559&u_code=388k48lba520&titleType=title&utm_source=copy_link&utm_campaign=client_share&utm_medium=android
&app=aweme
看了这么长一串的链接,链接包含的内容也是非常多的,对分析规律有着很大的干扰,于是我试着精简一下这个链接(删掉链接里面的一些内容,看看是否还能找到页面)经过了一次又一次的尝试,我所得到的最简单的网址如下:
这个网址依旧可以打开视频页,如果在删掉一点东西,出来的就是抖音的宣传页,所以这个网址就是我所需要的最简单网址
就一个网址当然是分析不出规律的,于是我又用同样的方法来得到两个新网址:
精简网址之后,将三个网址放在一起观察:
不难发现,这三个网址的区别就在于数字的不同
接下来猜测:这串数字会不会是每个视频的 Id 值?
随后我打开漫威影业抖音号,右击检查,按下 ctrl+f 搜索内容,在搜索框内分别搜索https://www.iesdouyin.com/share/video/6802189485015633160/?mid=6802184753988471559链接中的 6802189485015633160 和 6802189485015633160 两个值
第一个值顺利找到,就是我们所猜测的 id 值,但是搜索第二个值却得不到任何的返回
这就叫我非常苦恼了,我开始想其他的办法来获取到这个值,我尝试了抓包和其他的一些方法,但是都没有找到这个值的相关信息。
我经过了一番思考,突然间冒出了一个想法:这个值是不是随机生成的?
然后我做了一个小小的尝试,我将这个值改成了随便的一个数
然而神奇的是,这个网址请求出了数据(去掉这个 mid 键不出数据,将 mid 随机赋值却可以得到数据 emmm)
提取 id 构造网址
经过刚刚的分析,我发现我们想要提取的数据就只有一个 id 值,然后再用 Id 值替换掉网址中的数字就可以得到相应的视频页面了
id 是这段代码的最重要的部分,经过前面曲折又困难的网页分析之后,我认为提取 id 只需要从网页中用表达式提取数据就可以了,但是我没想到的是这一步也是比较困难的
我先是在主页右击了检查,然后仔细的观察了 elements 里面的元素,我发现 id 就储存在 elements 之中
接着我就想办法获得这个页面中的 id 信息,我尝试了直接请求,发现输出的数据中没有 Id 信息; 我又加上了请求头,依旧没有 id 值输出(这个页面的元素是动态加载的,虽然不能一次获取全部 Id,但是也不至于一个没有) ;然后我想到了 selenium 自动化测试模块,使用 webdriver 打开网址打印源码,可是输出还是没变
我查了百度的一些方法,也做了一些尝试,发现这个页面所做的反爬确实很难破解。于是我就只能换一条路去尝试
在谷歌开发者工具中,点击 network 选项卡,刷新界面 随着我刷新的操作,在 XHR 选项卡下出现了一个名字很奇怪的数据包
点击他的 preview 选项卡,点出他的下拉菜单,这里面存储的正是小视频的 Id 信息。但是需要注意的是,这个包里面只存储了 0-20 序列的共 21 条信息
但是从这个主页中我可以知道,它一共发布了 64 个短视频,所以我推断他还有三个数据包没有加载出来 ----> 我滚动下拉条,观察有没有数据包
滚动到最后,验证了我的猜想, 这个页面有四个数据包且为动态加载
好了,我们已经分析出来了这个网页的构造,先不要管一共有几个数据包,先以一个数据包为例提取 id 信息:
将 user-agaent 加到请求头中(这个网页必须要加请求头,不然获取不到数据)
请求得到数据:
当前乍一看好像这个代码没有问题,但是在执行四五次之后,会出现请求不到数据或返回 False 的情况,一开始我以为是 ip 被限制的原因,但是加上了 ip 池之后也是一样的结果,后来我才发现:请求不到数据是因为之前请求的 url 被禁用了,要在抖音详情页刷新一下,再把新的数据包的网址复制过来才能重新得到数据(我也不知道这是什么类型的反爬,希望知道的老哥可以告诉我一下)
* 我之所以把这个网址分成两部分来写,是因为当网址请求不到数据的时候,改变的是末尾的 _signature=random_field 字段,在请求不到数据的时候只需重新复制一下这个字段就可以了,会简化一点点代码
拼接数据包链接
上面提取 Id 的时候讲到,我们先拿一个数据包做例子,但是我们要爬的这个用户的全部视频,所以就要将它所有的数据包地址都访问一遍
想要得到这些数据包的地址,就需要分析他们的网址构造,我把这四个数据包的网址全部复制到记事本中,逐个分析他们构造规律
不难看出,这四个数据包的区别就在于 max_cursor 后面的值的不同,而这个值正好就包包含在它前一个数据包之中,这就说明我们可以从前一个数据包中提取到下一个数据包的 max_curso 值,从而构造出下一个数据包的链接地址
可是第四个数据包也包含着 max_cursor 的值,我们该在何时停止构造下一个数据包呢?
我把最后一个数据包的 max_cursor 值复制下来并替换到构造的数据包链接中,发现可以跳转到一个新的网址,这个网址中也有 max_cursor 的值,但是这个值为 0
也可以多找几个网址测试,最后的结果指向都是 0,所以我们可以通过 if 语句来判断这个值为 0 的时候就终止循环
构造网址代码:
获取视频地址
现在我们已经可以成功的进入获取到视频页面了,复杂的网页分析基本已经结束了,后续操作就变得简单了
先打开小视频的页面,右击检查,查看元素
经过检查发现,这个源代码中并没有视频地址,点击了一下播放按键,视频的地址才会加载出来
看到这种动态加载的机制,我们首先就应该想到selenium 自动化测试工具,步骤是先用 selenium 打开视频页面,再点击播放按钮,将此时已经刷新完的网页源代码保存,
再从中提取到视频的真正网址,最后再将调试好的 webdriver 设置为无界面模式
实现代码:
from selenium import webdriver
from lxml import etree
from selenium.webdriver.chrome.options import Options
import requests
import json
import time
class Douyin:
def page_num(self,max_cursor):
#网址后面的随机参数(我实在分析不出规律)
# 设置谷歌无界面浏览器
chrome_options = Options()
chrome_options.add_argument('--headless')
chrome_options.add_argument('--disable-gpu')
# chromdriver 地址
path = r'/home/jmhao/chromedriver'
#随机码
random_field = 'IU4uXRAbf-iiAwnGoS-puCFOLk&dytk=a61cb3ce173fbfa0465051b2a6a9027e'
#网址的主体
url = 'https://www.iesdouyin.com/web/api/v2/aweme/post/?sec_uid=MS4wLjABAAAAF5ZfVgdRbJ3OPGJPMFHnDp2sdJaemZo3Aw6piEtkdOA&count=21&max_cursor=' + str(max_cursor) + '&aid=1128&_signature=' + random_field
#请求头
headers = {
'user-agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36',
}
response = requests.get(url,headers=headers).text
#转换成 json 数据
resp = json.loads(response)
#提取到 max_cursor
max_cursor = resp['max_cursor']
#遍历
for data in resp["aweme_list"]:
# id 值
video_id = data['aweme_id']
# 视频简介
video_title = data['desc']
# 构造视频网址
video_url = 'https://www.iesdouyin.com/share/video/{}/?mid=1'
# 填充内容
video_douyin = video_url.format(video_id)
driver = webdriver.Chrome(executable_path=path, options=chrome_options)
# 打开视频界面
driver.get(video_douyin)
# 点击播放按钮
driver.find_element_by_class_name('play-btn').click()
time.sleep(2)
# 将网页源码存放到变量中
information = driver.page_source
# 退出
driver.quit()html = etree.HTML(information)
# 提取视频地址
video_adress = html.xpath("//video[@class='player']/@src")print(video_adress)
#判断停止构造网址的条件
if max_cursor==0:
return 1
else:
#否则循环构造网址
douyin.page_num(max_cursor)
if __name__ == '__main__':
douyin = Douyin()
douyin.page_num(max_cursor=0)
下载视频
视频的真实网址我们已经获得了,接下来只剩下最后一步的操作了 ----> 下载视频
视频下载的操作就非常简单了:
全部代码
from selenium import webdriver
from lxml import etree
from selenium.webdriver.chrome.options import Options
import requests
import json
import time
class Douyin:
def page_num(self,max_cursor):
#网址后面的随机参数(我实在分析不出规律)
# 设置谷歌无界面浏览器
chrome_options = Options()
chrome_options.add_argument('--headless')
chrome_options.add_argument('--disable-gpu')
# chromdriver 地址
path = r'/home/jmhao/chromedriver'
#随机码
random_field = 'yo91eRAflEhJwlLiO2coYsqPdW&dytk=4a01c95562f1f10264fb14086512f919'
#网址的主体
url = 'https://www.iesdouyin.com/web/api/v2/aweme/post/?sec_uid=MS4wLjABAAAAU7Bwg8WznVaafqWLyLUwcVUf9LgrKGYmctJ3n5SwlOA&count=21&max_cursor=' + str(max_cursor) + '&aid=1128&_signature=' + random_field
#请求头
headers = {
'user-agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36',
}
response = requests.get(url,headers=headers).text
#转换成 json 数据
resp = json.loads(response)
#提取到 max_cursor
max_cursor = resp['max_cursor']
#遍历
for data in resp["aweme_list"]:
# id 值
video_id = data['aweme_id']
# 视频简介
video_title = data['desc']
# 构造视频网址
video_url = 'https://www.iesdouyin.com/share/video/{}/?mid=1'
# 填充内容
video_douyin = video_url.format(video_id)
driver = webdriver.Chrome(executable_path=path, options=chrome_options)
# 打开视频界面
driver.get(video_douyin)
# 点击播放按钮
driver.find_element_by_class_name('play-btn').click()
time.sleep(2)
# 将网页源码存放到变量中
information = driver.page_source
# 退出
driver.quit()html = etree.HTML(information)
# 提取视频地址
video_adress = html.xpath("//video[@class='player']/@src")
for i in video_adress:
# 请求视频
video = requests.get(i, headers=headers).content
with open('douyin/' + video_title, 'wb') as f:
print('正在下载:', video_title)f.write(video)
#判断停止构造网址的条件
if max_cursor==0:
return 1
else:
douyin.page_num(max_cursor)
return url
if __name__ == '__main__':
douyin = Douyin()
douyin.page_num(max_cursor=0)
实现结果
可以看到这些视频已经下载到本地了,我们在打开本地文件夹看一下
可以播放!至此我这个问题版的抖音爬虫就做完了
待解决的问题
- 如何获取主页中所有的 id 地址
- 为什么请求的 url 后缀会一直变化,该怎么破解
其实所有的问题都指向了一个地方:该怎么获取小视频的 id
如果大佬们有更好的方法可以获取 id 值,希望大佬们可以提出建议让我把这个爬虫的功能再完善!感谢各位!
EOF
本文链接:https://www.cnblogs.com/cherish-hao/p/12815603.html
关于博主:评论和私信会在第一时间回复。或者直接私信我。
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
声援博主:如果您觉得文章对您有帮助,可以点击文章右下角【推荐】一下。您的鼓励是博主的最大动力!