最新动态
python爬虫公众号所有信息,并批量下载公众号视频
2024-12-20 01:11

之前写过一篇类似的文章:

还有同学一直在问,可能中间有一些小细节不明确,这次彻底明确一下细节。

本篇添加一个批量下载公众号内视频的功能,可以实现完全复制一个公众号,危险动作,请不要操作!谢谢

主要功能 如何简单爬虫微信公众号 获取信息:标题、摘要、封面、文章地址 自动批量下载公众号内的视频

本次选取的公众号:熊孩子与萌宠

每天更新视频:熊孩子日常、萌宠日常、熊孩子和萌宠搞笑视频,笑声不断快乐常伴!

获取公众号信息

标题、摘要、封面、文章URL

操作步骤: 1、先自己申请一个公众号 2、登录自己的账号,新建文章图文,点击超链接

image

3、弹出搜索框,搜索自己需要的公众号,查看历史文章

image

image

4、通过抓包获取信息,定位请求的url

image

通过查看信息,找到了我们需要关键的内容:标题、摘要、封面和文章URL,确定这就是我们需要的URL,通过点击下一页,多次获取url发现,只有random和bengin的参数发生变化

image

所以主信息URL确定。

那就开始吧:

事实发现我们需要修改的参数为:token、random、cookie

这两个值的来源,获取url时的就可以

获取结果(成功):

image

获取文章内视频

实现批量下载通过对单篇视频文章分析,我找到了这个链接:

image

通过网页打开发现,是视频的网页下载链接:

image

image

哎,好像有点意思了,找到了视频的网页纯下载链接,那就开始吧。

发现链接里的有一个关键参数vid 不知道哪来的?

和获取到的其他信息也没有关系,那就只能硬来了。

通过对单文章的url请求信息里发现了这个参数,然后进行获取。

视频下载:

那么所有信息就都完成了,进行code组装。

a、获取公众号信息 b、筛选单篇文章信息 c、获取vid信息 d、拼接视频页面下载URL e、下载视频,保存

代码实验结果:

image

    以上就是本篇文章【python爬虫公众号所有信息,并批量下载公众号视频】的全部内容了,欢迎阅览 ! 文章地址:https://sicmodule.kub2b.com/quote/8837.html 
     栏目首页      相关文章      动态      同类文章      热门文章      网站地图      返回首页 企库往资讯移动站https://sicmodule.kub2b.com/mobile/,查看更多   
发表评论
0评