推广 热搜: page  数据  小红  红书  考试  论文  数据分析  关键词  哪些  搜索 

python爬虫公众号所有信息,并批量下载公众号视频

   日期:2024-12-20     移动:https://sicmodule.kub2b.com/mobile/quote/8837.html

之前写过一篇类似的文章:

还有同学一直在问,可能中间有一些小细节不明确,这次彻底明确一下细节。

本篇添加一个批量下载公众号内视频的功能,可以实现完全复制一个公众号,危险动作,请不要操作!谢谢

主要功能 如何简单爬虫微信公众号 获取信息:标题、摘要、封面、文章地址 自动批量下载公众号内的视频

本次选取的公众号:熊孩子与萌宠

每天更新视频:熊孩子日常、萌宠日常、熊孩子和萌宠搞笑视频,笑声不断快乐常伴!

获取公众号信息

标题、摘要、封面、文章URL

操作步骤: 1、先自己申请一个公众号 2、登录自己的账号,新建文章图文,点击超链接

image

3、弹出搜索框,搜索自己需要的公众号,查看历史文章

image

image

4、通过抓包获取信息,定位请求的url

image

通过查看信息,找到了我们需要关键的内容:标题、摘要、封面和文章URL,确定这就是我们需要的URL,通过点击下一页,多次获取url发现,只有random和bengin的参数发生变化

image

所以主信息URL确定。

那就开始吧:

事实发现我们需要修改的参数为:token、random、cookie

这两个值的来源,获取url时的就可以

获取结果(成功):

image

获取文章内视频

实现批量下载通过对单篇视频文章分析,我找到了这个链接:

image

通过网页打开发现,是视频的网页下载链接:

image

image

哎,好像有点意思了,找到了视频的网页纯下载链接,那就开始吧。

发现链接里的有一个关键参数vid 不知道哪来的?

和获取到的其他信息也没有关系,那就只能硬来了。

通过对单文章的url请求信息里发现了这个参数,然后进行获取。

视频下载:

那么所有信息就都完成了,进行code组装。

a、获取公众号信息 b、筛选单篇文章信息 c、获取vid信息 d、拼接视频页面下载URL e、下载视频,保存

代码实验结果:

image

本文地址:https://sicmodule.kub2b.com/quote/8837.html     企库往 https://sicmodule.kub2b.com/ , 查看更多

特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


0相关评论
相关最新动态
推荐最新动态
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号