手把手教你从零开始开办公司,怎么写java爬虫


本文将手把手地教大家从零开始用Java写一个简单地爬虫!

手把手教你从零开始用Java写爬虫

目标

爬取全景网图片,并下载到本地

收获

通过本文,你将复习到:

  • IDEA创建工程
  • IDEA导入jar包
  • 爬虫的基本原理
  • Jsoup的基本使用
  • File的基本使用
  • FileOutputStream的基本使用
  • ArrayList的基本使用
  • foreach的基本使用

说明

爬虫所用的HTM解析器为Jsoup。Jsoup可直接解析某个URL地址、HTML文本内容。它提供了一套非常省力的API,可通过DOM,CSS以及类似于jQuery的操作方法来取出和操作数据。

Jsoup相关API整理见文末附录一。

开始

一、前端分析

1、使用Chrome或其他浏览器,打开全景网,按F12进入调试模式,分析网页结构。(这里选的是“创意”=>“优山美地”)

手把手教你从零开始用Java写爬虫

2、找规律,看图片对应的结构是什么。可以发现,每个图片的结构都如下图红框所示。

手把手教你从零开始用Java写爬虫

3、找到结构后再找图片链接。进一步分析后发现,图片链接可以是下图红框部分。

手把手教你从零开始用Java写爬虫

4、复制到浏览器打开看看验证下。(好吧,访问这个URL直接给我下载了…)

手把手教你从零开始用Java写爬虫手把手教你从零开始用Java写爬虫

5、前端部分分析完毕,接下来就可以用Java编码了!

二、爬取思路

通过Java向全景网发送GET请求,以获取HTML文件。Jsoup解析后寻找class=item lazy的a标签,他的child节点(即<img>)就是我们要找的目标节点了,搜索到的应当是一个ArrayList。然后遍历集合,从中搜寻图片的URL,并下载到本地保存。(更深一步,可以下载完一页后,继续下载后一页,直至全部下完。本文直讲下载第一页。提示一下,链接后面的topic/1其实就是当前页数)

三、Java编码

1、先下载Jsoup jar包,并导入到IDEA工程中。

手把手教你从零开始用Java写爬虫手把手教你从零开始用Java写爬虫

2、新建Java工程。

手把手教你从零开始用Java写爬虫手把手教你从零开始用Java写爬虫手把手教你从零开始用Java写爬虫

3、简单测试下get请求,若请求成功,则进入下一步;若报错,检查URL是否带了中文。

注意:链接没给,否则文章审核不过,注意自己添加!!!

package com.sxf;import org.jsoup.Jsoup;import org.jsoup.nodes.Document;public class Main { public static void main(String[] args) { try { Document doc = Jsoup.connect("").get(); //这里加链接 System.out.println(doc); }catch (Exception e){ e.printStackTrace(); } }}

手把手教你从零开始用Java写爬虫

4、寻找class为item lazy的元素,找到他的child节点,返回ArrayList。并将图片的URL单独提取出来。

注意:链接没给,否则文章审核不过,注意自己添加!!!

注意:链接没给,否则文章审核不过,注意自己添加!!!

手把手教你从零开始用Java写爬虫

5、我们先尝试用Jsoup下载一张图片试试效果。

注意:链接没给,否则文章审核不过,注意自己添加!!!

// 获取responseConnection.Response imgRes = Jsoup.connect(URLS.get(0)).ignoreContentType(true).execute();FileOutputStream out = (new FileOutputStream(new java.io.File("demo.jpg")));// imgRes.body() 就是图片数据out.write(imgRes.bodyAsBytes());out.close();

可以看到在当前工程路径下,生成了demo.jpg图片,并且显示正常!

手把手教你从零开始用Java写爬虫

6、接下来,我们要创建一个文件夹,用来专门存放图片。

File相关API整理见文末附录二。

//当前路径下创建Pics文件夹File file = new File("Pics");file.mkdir();System.out.println(file.getAbsolutePath());

手把手教你从零开始用Java写爬虫

7、接下来开始遍历图片并下载。由于图片较多,为了简单起见,我们保存图片时候的名称,就从1开始依次增吧。

// 遍历图片并下载int cnt = 1;for (String str : URLS) { System.out.println(">> 正在下载:"+str); // 获取response Connection.Response imgRes = Jsoup.connect(str).ignoreContentType(true).execute(); FileOutputStream out = (new FileOutputStream(new java.io.File(file, cnt+".jpg"))); // imgRes.body() 就是图片数据 out.write(imgRes.bodyAsBytes()); out.close(); cnt ++;}

运行结果

手把手教你从零开始用Java写爬虫

到此编码部分也结束了,完整代码见文末附件三!

附录一

Jsoup(HTML解析器)

继承关系:Document继承Element继承Node。TextNode继承Node。->java.lang.Object ->org.jsoup.nodes.Node ->org.jsoup.nodes.Element ->org.jsoup.nodes.Documenthtml文档:Document元素操作:Element节点操作:Node官方API:***/apidocs/org/jsoup/nodes/Document.html 一、解析HTML并取其内容 Document doc = Jsoup.parse(html);二、解析一个body片断 Document doc = Jsoup.parseBodyFragment(html); Element body = doc.body();三、从一个URL加载一个Document Document doc = Jsoup.connect("***") .data("query", "Java") .userAgent("Mozilla") .COOKIE("auth", "token") .timeout(3000) .post(); String title = doc.title();四、从一个文件加载一个文档 File input = new File("/tmp/input.html"); // baseUri 参数用于解决文件中URLs是相对路径的问题。如果不需要可以传入一个空的字符串 Document doc = Jsoup.parse(input, "UTF-8", "***/"); 五、使用DOM方法来遍历一个文档 1、查找元素 getElementById(String id) getElementsByTag(String tag) getElementsByClass(String className) getElementsByAttribute(String key) // 和相关方法 // 元素同级 siblingElements() firstElementSibling() lastElementSibling() nextElementSibling() previousElementSibling() // 关系 parent() children() child(int index) 2、元素数据 // 获取属性attr(String key, String value)设置属性 attr(String key) // 获取所有属性 attributes() id() className() classNames() // 获取文本内容text(String value) 设置文本内容 text() // 获取元素内HTMLhtml(String value)设置元素内的HTML内容 html() // 获取元素外HTML内容 outerHtml() // 获取数据内容(例如:script和style标签) data() tag() tagName() 3、操作HTML和文本 append(String html) prepend(String html) appendText(String text) prependText(String text) appendElement(String tagName) prependElement(String tagName) html(String value) 六、使用选择器语法来查找元素(类似于CSS或jquery的选择器语法) //带有href属性的a元素 Elements links = doc.select("a[href]"); //扩展名为.png的图片 Elements pngs = doc.select("img[src$=.png]"); //class等于masthead的div标签 Element masthead = doc.select("div.masthead").first(); //在h3元素之后的a元素 Elements resultLinks = doc.select("h3.r > a"); 七、从元素抽取属性、文本和HTML 1、要取得一个属性的值,可以使用Node.attr(String key) 方法 2、对于一个元素中的文本,可以使用Element.text()方法 3、对于要取得元素或属性中的HTML内容,可以使用Element.html(), 或 Node.outerHtml()方法 4、其他: Element.id() Element.tagName() Element.className() Element.hasClass(String className)

附录二

File类

*java.io.File类用于表示文件或目录。*创建File对象:// 文件/文件夹路径对象File file = new File("E:/...");// 父目录绝对路径 + 子目录名称File file = new File("..." ,"");// 父目录File对象 + 子目录名称 File file = new File("...","...");file.exists():判断文件/文件夹是否存在file.delete():删除文件/文件夹file.isDirectory():判读是否为目录file.isFile():判读是否为文件夹file.mkdir():创建文件夹(仅限一级目录)file.mkdirs():创建多及目录文件夹(包括但不限一级目录)file.createNewFile():创建文件file.getAbsolutePath():得到文件/文件夹的绝对路径file.getName():得到文件/文件夹的名字file.String():同样是得到文件/文件夹的绝对路径等于file.getAbsolutePath()file.getParent():得到父目录的绝对路径

附录三

完整代码

package com.sxf;​import org.jsoup.Connection;import org.jsoup.Jsoup;import org.jsoup.nodes.Document;import org.jsoup.nodes.Element;import org.jsoup.select.Elements;import java.io.File;import java.io.FileOutputStream;import java.util.ArrayList;​public class Main { public static void main(String[] args) { try { Document doc = Jsoup.connect("***/creative/topic/1").get(); // 寻找class为item lazy的元素,返回ArrayList。 Elements items = doc.getElementsByClass("item lazy"); ArrayList<String> URLS = new ArrayList<>(); // 将图片的URL单独提取出来。 for (Element i : items) { URLS.add(i.child(0).attr("src")); } // 当前路径下创建Pics文件夹 File file = new File("Pics"); file.mkdir(); String rootPath = file.getAbsolutePath(); System.out.println(">> 当前路径:"+rootPath); // 遍历图片并下载 int cnt = 1; for (String str : URLS) { System.out.println(">> 正在下载:"+str); // 获取response Connection.Response imgRes = Jsoup.connect(str).ignoreContentType(true).execute(); FileOutputStream out = (new FileOutputStream(new java.io.File(file, cnt+".jpg"))); // imgRes.body() 就是图片数据 out.write(imgRes.bodyAsBytes()); out.close(); cnt ++; } }catch (Exception e){ e.printStackTrace(); } }}

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:dandanxi6@qq.com

(0)
上一篇 2023年 8月 29日 上午8:59
下一篇 2023年 8月 29日 上午9:09

相关推荐

  • 可以手机上传的自媒体平台

    省时省力,一键上传到各大自媒体平台,现在的自媒体已经成为了现代社会的一种重要的信息传播方式,越来越多的人开始关注和使用自媒体平台。 但是,对于许多自媒体从业者来说,一个最常见的问题…

    2023年 10月 8日
  • U盘文件丢失怎么恢复,u盘文件丢失在哪恢复

    U盘文件丢失怎么恢复?公司职员小李​负责年会策划,他精心制作了一个快闪视频准备在年会开场播放,不料到了公司一看U盘里的视频文件却消失了,急得小李满头大汗,赶忙打来求助电话。很多人也…

    2022年 12月 27日
  • 微信新功能再次升级一键开启(让微信升级到最新版本)

    日前 #微信青少年模式#再次升级 将微信设置为“青少年模式” 现在一键就能搞定 ↓↓↓ 用户在聊天的时候,输入“青少年模式”“微信青少年模式”,前面加 # 就能直达设置页面,一键开…

    2023年 3月 22日
  • 微信里朋友圈发布的内容如何删除

    分享生活小妙招,享受科技新生活!大家好,欢迎来到今天的知识分享!我是你们的好朋友小俊! 微信朋友圈对于我们大家来说相信都不陌生,我们在外出游玩看到好看的风景时,吃到好吃的美食以及遇…

    2023年 9月 24日
  • qq无保号怎么快速上保,qq申诉技巧教程绝对成功

    申诉技巧(号码无保快速上保方法) 关于无保和一代号码,申诉的几个要点! 1,凡是你不知道的资料,例如那些,一代有证扣扣号,号码买了以后就绑定有邮箱和#S#F证的,在申诉的时候,不知…

    2023年 2月 28日
  • 淘宝消费退款体验新升级

    2月24日,有网友报料称,对未发货的淘宝和天猫商品订单申请退款,无需商家审核,可以秒到账。 母婴个人护理品牌红色小象负责人表示,因为开通了AG未发自动退、七天无理由退货等功能,70…

    2023年 1月 29日
  • 混凝土泵常见故障及排除技巧

    混凝土泵,又名混凝土输送泵,由泵体和输送管组成。是一种利用压力,将混凝土沿管道连续输送的机械,主要应用于房建、桥梁及隧道施工。主要分为闸板阀混凝土输送泵和S阀混凝土输送泵。再一种就…

    2023年 4月 25日
  • 百度积分换爱奇艺会员(爱奇艺怎么用联通积分兑换vip会员)

    备选:百度浏览器就是这么任性 对视频插播广告say NO 随着互联网技术突飞猛进的发展,给用户也带来了不少麻烦。就拿现在用户广泛接触也最为令人头疼的视频网站“插播广告”来举例。从以…

    2023年 9月 28日
  • 如何把颜体写出威武霸气的感觉呢

    颜体有100多种碑帖,每个碑帖字体不尽相同,甚至完全不同风格。比如 《郭虚己碑》、《多宝塔碑》结体严谨,清丽俊秀。 《颜勤礼碑》外拓开张,刚劲雄强。 《麻姑山仙坛记》用笔结体多古拙…

    2023年 10月 19日
  • 如何让你花费一小时肯德基app订餐呢

    记得第一次使用肯德基手机订餐是在2020年的一月份 那时 充了200 得了很多券 点了一个套餐 然后各种免费 买一赠一券点了一圈 非常实惠 最近看到有吮指原味鸡半价桶 又充值了20…

    2023年 3月 11日