20多个爬虫实战案例
在开始之前,我建议你先安装一下DecryptLoginExamples这个包,以方便测试下文中会逐一介绍到的各个爬虫项目的调用代码。具体而言,只需要执行如下命令即可:
pip install DecryptLoginExamples
1. 微博监控
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用户名, 'password': 密码, 'time_interval': 查询微博动态的间隔时间,}crawler_executor = client.Client()crawler_executor.executor('weibomonitor', cOnfig=config)
2. 生成QQ个人专属报告
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, 'savedir': 生成的报告保存的文件夹,}crawler_executor = client.Client()crawler_executor.executor('qqreports', cOnfig=config)
3. 下载B站指定UP主的所有视频
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, }crawler_executor = client.Client()crawler_executor.executor('bilibiliuservideos', cOnfig=config)
4. 网易云个人歌单下载器
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, }crawler_executor = client.Client()crawler_executor.executor('neteasesonglistdownloader', cOnfig=config)
5. 网易云个人听歌排行榜
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, }crawler_executor = client.Client()crawler_executor.executor('neteaselistenleaderboard', cOnfig=config)
6. 下载指定微博用户的所有微博数据
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用户名, 'password': 密码,}crawler_executor = client.Client()crawler_executor.executor('userweibospider', cOnfig=config)
7. 网易云音乐自动签到
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, }crawler_executor = client.Client()crawler_executor.executor('neteasesignin', cOnfig=config)
8. 微博表情包爬取
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用户名, 'password': 密码,}crawler_executor = client.Client()crawler_executor.executor('weiboemoji', cOnfig=config)
9. 大吼一声发微博
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用户名, 'password': 密码,}crawler_executor = client.Client()crawler_executor.executor('weibosender', cOnfig=config)
10. 淘宝商品数据小爬虫
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, }crawler_executor = client.Client()crawler_executor.executor('tbgoods', cOnfig=config)
11. 京东商品数据小爬虫
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, }crawler_executor = client.Client()crawler_executor.executor('jdgoods', cOnfig=config)
12. 批量删除微博
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用户名, 'password': 密码,}crawler_executor = client.Client()crawler_executor.executor('delallweibos', cOnfig=config)
13. 批量删除QQ空间说说
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, }crawler_executor = client.Client()crawler_executor.executor('clearqzone', cOnfig=config)
14. 在终端看网易云每日歌曲推荐
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, }crawler_executor = client.Client()crawler_executor.executor('neteaseeveryday', cOnfig=config)
15. 网易云音乐刷歌曲播放量
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, }crawler_executor = client.Client()crawler_executor.executor('neteaseclickplaylist', cOnfig=config)
16. 天翼云盘自动签到+抽奖
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用户名, 'password': 密码,}crawler_executor = client.Client()crawler_executor.executor('cloud189signin', cOnfig=config)
17. 中国大学MOOC下载器
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'url': 课程链接, 例如: ***/course/SJTU-1003381021, }crawler_executor = client.Client()crawler_executor.executor('moocdl', cOnfig=config)
18. 修改小米运动中的步数
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用户名, 'password': 密码, 'steps': 想要刷到的目标步数,}crawler_executor = client.Client()crawler_executor.executor('modifymihealthsteps', cOnfig=config)
19. 淘宝抢购脚本
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, 'trybuy_interval': 抢购商品时查询商品是否可以购买的时间间隔(单位秒), 'server_key': Server酱的Key,}crawler_executor = client.Client()crawler_executor.executor('taobaosnap', cOnfig=config)
20. 京东抢购脚本
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, 'trybuy_interval': 抢购商品时查询商品是否可以购买的时间间隔(单位秒), 'server_key': Server酱的Key, 'paywd': 支付密码, 部分商品需要支付密码才能提交订单, 输入密码不会导致你直接购买商品, 请放心使用,}crawler_executor = client.Client()crawler_executor.executor('jingdongsnap', cOnfig=config)
21. B站UP主监控
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, 'up_ids': 监控的UP主ID, 例如: ['406756145'], 'time_interval': 查询UP主的动态的间隔时间, 'server_key': Server酱的Key,}crawler_executor = client.Client()crawler_executor.executor('bilibiliupmonitor', cOnfig=config)
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, 'time_interval': 查询UP主的动态的间隔时间,}crawler_executor = client.Client()crawler_executor.executor('bilibililottery', cOnfig=config)
23. 微博水军
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用户名, 'password': 密码, 'targetid': 想要流量造假服务的明星微博ID, 例如: '1776448504',}crawler_executor = client.Client()crawler_executor.executor('weibowater', cOnfig=config)
24. 微博批量拉黑脚本
调用方式:
from DecryptLoginExamples import clientcOnfig= { 'username': 用户名, 'password': 密码, 'blacklist_ids': 想要批量拉黑的用户列表, 例如: ['1776448504', '1792951112', '2656274875'],}crawler_executor = client.Client()crawler_executor.executor('weiboblacklist', cOnfig=config)
声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:dandanxi6@qq.com