淘宝直播python爬虫(爬虫电商平台)

集成淘宝、京东、B站、网易云音乐等二十多个爬虫小项目的开源包

20多个爬虫实战案例

在开始之前,我建议你先安装一下DecryptLoginExamples这个包,以方便测试下文中会逐一介绍到的各个爬虫项目的调用代码。具体而言,只需要执行如下命令即可:

pip install DecryptLoginExamples

1. 微博监控

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用户名, 'password': 密码, 'time_interval': 查询微博动态的间隔时间,}crawler_executor = client.Client()crawler_executor.executor('weibomonitor', cOnfig=config)

2. 生成QQ个人专属报告

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, 'savedir': 生成的报告保存的文件夹,}crawler_executor = client.Client()crawler_executor.executor('qqreports', cOnfig=config)

3. 下载B站指定UP主的所有视频

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, }crawler_executor = client.Client()crawler_executor.executor('bilibiliuservideos', cOnfig=config)

4. 网易云个人歌单下载器

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, }crawler_executor = client.Client()crawler_executor.executor('neteasesonglistdownloader', cOnfig=config)

5. 网易云个人听歌排行榜

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, }crawler_executor = client.Client()crawler_executor.executor('neteaselistenleaderboard', cOnfig=config)

6. 下载指定微博用户的所有微博数据

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用户名, 'password': 密码,}crawler_executor = client.Client()crawler_executor.executor('userweibospider', cOnfig=config)

7. 网易云音乐自动签到

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, }crawler_executor = client.Client()crawler_executor.executor('neteasesignin', cOnfig=config)

8. 微博表情包爬取

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用户名, 'password': 密码,}crawler_executor = client.Client()crawler_executor.executor('weiboemoji', cOnfig=config)

9. 大吼一声发微博

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用户名, 'password': 密码,}crawler_executor = client.Client()crawler_executor.executor('weibosender', cOnfig=config)

10. 淘宝商品数据小爬虫

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, }crawler_executor = client.Client()crawler_executor.executor('tbgoods', cOnfig=config)

11. 京东商品数据小爬虫

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, }crawler_executor = client.Client()crawler_executor.executor('jdgoods', cOnfig=config)

12. 批量删除微博

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用户名, 'password': 密码,}crawler_executor = client.Client()crawler_executor.executor('delallweibos', cOnfig=config)

13. 批量删除QQ空间说说

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, }crawler_executor = client.Client()crawler_executor.executor('clearqzone', cOnfig=config)

14. 在终端看网易云每日歌曲推荐

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, }crawler_executor = client.Client()crawler_executor.executor('neteaseeveryday', cOnfig=config)

15. 网易云音乐刷歌曲播放量

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, }crawler_executor = client.Client()crawler_executor.executor('neteaseclickplaylist', cOnfig=config)

16. 天翼云盘自动签到+抽奖

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用户名, 'password': 密码,}crawler_executor = client.Client()crawler_executor.executor('cloud189signin', cOnfig=config)

17. 中国大学MOOC下载器

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'url': 课程链接, 例如: ***/course/SJTU-1003381021, }crawler_executor = client.Client()crawler_executor.executor('moocdl', cOnfig=config)

18. 修改小米运动中的步数

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用户名, 'password': 密码, 'steps': 想要刷到的目标步数,}crawler_executor = client.Client()crawler_executor.executor('modifymihealthsteps', cOnfig=config)

19. 淘宝抢购脚本

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, 'trybuy_interval': 抢购商品时查询商品是否可以购买的时间间隔(单位秒), 'server_key': Server酱的Key,}crawler_executor = client.Client()crawler_executor.executor('taobaosnap', cOnfig=config)

20. 京东抢购脚本

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, 'trybuy_interval': 抢购商品时查询商品是否可以购买的时间间隔(单位秒), 'server_key': Server酱的Key, 'paywd': 支付密码, 部分商品需要支付密码才能提交订单, 输入密码不会导致你直接购买商品, 请放心使用,}crawler_executor = client.Client()crawler_executor.executor('jingdongsnap', cOnfig=config)

21. B站UP主监控

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, 'up_ids': 监控的UP主ID, 例如: ['406756145'], 'time_interval': 查询UP主的动态的间隔时间, 'server_key': Server酱的Key,}crawler_executor = client.Client()crawler_executor.executor('bilibiliupmonitor', cOnfig=config)

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用于存储历史COOKIEs的唯一标识ID, 'time_interval': 查询UP主的动态的间隔时间,}crawler_executor = client.Client()crawler_executor.executor('bilibililottery', cOnfig=config)

23. 微博水军

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用户名, 'password': 密码, 'targetid': 想要流量造假服务的明星微博ID, 例如: '1776448504',}crawler_executor = client.Client()crawler_executor.executor('weibowater', cOnfig=config)

24. 微博批量拉黑脚本

调用方式:

from DecryptLoginExamples import clientcOnfig= { 'username': 用户名, 'password': 密码, 'blacklist_ids': 想要批量拉黑的用户列表, 例如: ['1776448504', '1792951112', '2656274875'],}crawler_executor = client.Client()crawler_executor.executor('weiboblacklist', cOnfig=config)

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:dandanxi6@qq.com

(0)
上一篇 2023年 5月 11日 下午1:16
下一篇 2023年 5月 11日 下午1:25

相关推荐