Hawk: 20分钟无编程抓取大众点评17万数据

简介:

1. 主角出场:Hawk介绍

Hawk是沙漠之鹰开发的一款数据抓取和清洗工具,目前已经在Github开源。详细介绍可参考:http://www.cnblogs.com/buptzym/p/5454190.html
强烈建议先读这篇文章,该文介绍了详细原理和抓取链家二手房的攻略,以此为基础,才能较好的理解整个操作。
GitHub地址:https://github.com/ferventdesert/Hawk
本文将讲解通过本软件,获取大众点评的所有美食数据,可选择任一城市,也可以很方便地修改成获取其他生活门类信息的爬虫。
在这个过程中你可以学会:

  • 自动登录
  • 自动翻页
  • 组合多种情况,以破解翻页限制
  • 自动获取页面的表格数据

本文将省略原理,一步步地介绍如何在20分钟内完成爬虫的设计,基本不需要编程,还能自动并行抓取。
看完这篇文章,你应该就能举一反三地抓取绝大多数网站的数据了。Hawk是一整套工具,它的能力取决于你的设计和思路。希望你会喜欢它。
详细过程视频可参考:http://v.qq.com/page/z/g/h/z01891n1rgh.html,值得注意的是,由于软件不断升级,因此细节和视频可能有所出入
准备好了么?Let's do it!

2. 菜场买菜:编译和安装

编译可使用VS2015(推荐),否则可直接从网盘下载可执行程序:
http://pan.baidu.com/s/1c8zBiQ 密码:4iy0
之后双击Hawk.exe,即可运行。
依赖环境要求.NET Framework 4.5, win7和以上版本。没有其他依赖项。

3. 做饭先生火:自动设置cookie:

我们先打开大众点评的美食列表页面:
http://www.dianping.com/search/category/2/10/g311
image_1airusse2977232s23148o1pi9.png-224.2kB
这是北京的"北京菜"列表,但你会注意到,只能抓取前50页数据(如箭头所示),是一种防爬虫策略,我们之后来破解它。
我们双击打开一个网页采集器:
image_1airv085o1pdf5u1egvuerjgnm.png-31.3kB
之后在最上方的地址栏里填写地址:
image_1airv1slp1qnb1abtginug2kc913.png-20.2kB
但会发现远程服务器拒绝了请求,原因是大众点评认为Hawk是爬虫而不是浏览器。
没有关系,我们让Hawk来监控浏览器的行为,在右侧的自动嗅探窗口中,填写url过滤和内容筛选,之后点击开始。浏览器会自动打开该网页,程序后台自动记录了所有的行为,之后点击关闭按钮(切记点击关闭)。
image_1airvo473v1h1rj61f3c1fvt9nq37.png-17.8kB
(此处大概介绍原理:Hawk在点击开始之后,会自动成为代理,所有的浏览器请求都会经过Hawk,在输入特定的URL筛选前缀和关键字,则Hawk会自动拦截符合要求的Request,并将其详细信息记录下来,并最终模拟它)。

之后,我们点击右方的“高级设置”里,能够看到Hawk已经把这次访问的cookie和headers自动保存下来:
image_1airves3k7bs44uo0112o01l381t.png-336.8kB
我们再次点击刷新网页,可以看到已经能成功获取网页内容:
image_1airvksaq19ac1ml84d92661rff2a.png-259.1kB
完成这一步之后,我们就能够像普通网页那样免登陆抓取信息了。这也适合需要登录的各类网站。

4.洗菜切菜:获取门店列表

我们通过自动和手动两种方式来获取门店列表,你可以两种都试试。

4.1 全自动获取

直接点击手气不错即可,不需要其他操作:
image_1aiss9bm91n5fvcto85i7b1q8nm.png-141.7kB

4.2 纯手工获取

我们先手工输入筛选条件吧:
image_1airusse2977232s23148o1pi9.png-224.2kB
输入上面的关键字3774,命名为点评
image_1airvuu8ef54a78mmd7anvit4h.png-37.3kB
接着,填入89,你会发现是下面这样:
image_1ais0256617201p1d1ilv1na6rur4u.png-31.8kB
注意XPath表达式和点评的表达式不大一样,这是因为89太普通,在网页中出现多次,再次点击搜索XPath,即可找到正确的位置。
类似地,将所有你认为需要的属性添加进去,加上合适的命名,大概是这个样子:
image_1ais08cp4dr31nmqr78u7u1lc85b.png-25.3kB
当然,我们还需要门店的ID,但在页面上并不提供,那在浏览器上点击那个“四季民福烤鸭店”(沙漠君厌恶吃鸭子),你会看到它的链接为:
image_1ais0br53kf7175t7du1pm210fo65.png-13.3kB
我们将18002657添加并搜索,发现不论怎么点都搜索不到,此时勾选提取标签,系统会在标签中搜索:
image_1aissgnhl1ga3bm3m610g1uml13.png-18.4kB

之后获取了全部属性后,点击提取测试,系统会自动优化XPath,列表父节点会显示在下方。

笔者建议自动加手动配合的方式,自动抓取大部分数据,再用手动修改调整,手气不错虽然智能,但并不是什么时候都管用

将本模块命名为门店列表,供之后备用:
image_1aissqg3s1vp01pjg1rnibqjdgj1g.png-5.5kB

5.餐前甜点:获取50页数据

我们先用50页数据试试手,在刚才那个浏览器页面的最下方,点击翻页,可以发现是如下的结构:

http://www.dianping.com/search/category/2/10/g311p2
http://www.dianping.com/search/category/2/10/g311p3
http://www.dianping.com/search/category/2/10/g311p4
...

好,新建数据清洗,随便给它起个名字,从左面拖入生成区间数,双击配置列名为page,最大值填50,再拖入合并多列到page列,配置如下:
image_1aiu7pia11jtv1fs1crf1eu41fg39.png-40.4kB
其中Format设置为:
http://www.dianping.com/search/category/2/10/g311p{0}
这是C#的一种字符串替换语法,{0}会被依次替换为1,2,3...
最后,拖从爬虫转换到url列,奇迹出现了吧?
为了保存结果,我们拖写入数据表任意一列,这里选择了名称列,配置如下:
image_1aiu81b8s1jic1eu3vnp1m5517i1m.png-51.8kB
之后,在右侧选择并行或串行模式(随你),点击执行即可。
image_1aiu84m21n836rr12jgqgt1b4b13.png-183.8kB
数据采集完成了!

如果看到这一步累了,可以不看下面的内容,但如果想获取全部内容,步骤就复杂多了,如果你下决心学习,我们接着往下看

5. 准备葱蒜:获取城市的美食门类

解决问题的办法是分而治之,获取每个区县(如北京的海淀区)下的某一种美食门类(东北菜),自然就没50页那么多了。所以,要获取美食门类,再获取所有的区域。

先找到所有美食门类的位置:
http://www.dianping.com/shopall/2/0
为了获取此页面上的信息,我们再新建一个网页采集器,命名为通用采集器,它的目标是获取整个HTML页面,因此
读取模式改成One,将刚才门店列表采集器里的高级设置->Parameters的内容拷贝到本采集器对应的窗口中。
(其实也可以做嗅探,但这个更快一些)。
之后,我们来获取这个页面上的所有美食门类,新建数据清洗,命名为门类,然后从左侧拖从文本生成到右侧任意一列,命名如下:
image_1aistmi1i1fibku21ni1loc66s2n.png-21.9kB
再拖入从爬虫转换,配置如下:
image_1aistobto1jstlqfduiv7aihq34.png-23.9kB
即可调用刚才的通用采集器。另外,左侧的工具栏支持搜索,直接关键字即可快速定位,结果如下:
image_1aistqm3s333b775vr1fsvif3h.png-25.2kB

image_1aistrkufs37jsm1o9c1opsgv53u.png-56.7kB
为了获取下图的北京菜所在的位置,虽然可以用Hawk,但为了方便可以使用Chrome,搜狗和360浏览器的F12开发者工具功能,找到对应的元素,点击右键,拷贝XPath:
image_1aisuaq7ib2k8blb5h3r51p5q4b.png-23kB
内容为://*[@id="top"]/div[6]/div/div[1]/dl[1]/dd/ul/li[1]
因为要获取所有的子li,在刚才的数据清洗中,向Content列拖入XPath筛选器,配置如下:
image_1aisui6polg49f134f1rvo8s94o.png-28.3kB
由于要获取所有的li子节点,所以去掉了最后的1,可以适当复习XPath语法。
奇迹出现了:
image_1aisujo637p1iptteav57ct55.png-55.6kB
接下来步骤很简单,我不截图了:

  • 拖入HTML字符转义到Text列,可以清除该列的乱码
  • 再拖入字符串分割到Text,勾选空格分割,可对该数据用空格分割,并获取默认的第一个子串
  • 拖入删除该列到OHTML,该列没有用
  • 再拖入正则转换器到HTML,配置如下:
    image_1aiu937op1opn1u6a19tr1fppd8h19.png-42.7kB
    g\d+代表匹配那个门类的ID,比如刚才的g311

  • 拖入删除该列到HTML
  • 直接在Text列的上方修改名称为门类

最终结果如下:
image_1aiu979h42tg9pg1uembp81fip1m.png-31.4kB

6.获取北京的区域

这一步和上一步非常类似,因此我很简明地介绍一下。
区域在这个页面:
http://www.dianping.com/search/category/2/10/g311p2
image_1aiu9bfftljg1lmi63h18d7r7823.png-48.1kB
这些节点的XPath是://*[@id="region-nav"]/a
你可以按照刚才类似的步骤进行,也是创建新的数据清洗,把这个子模块命名为区域,最终结果如下:
image_1aiu9omeh1k1bf9pp1g10v51b3330.png-46.7kB

如果自己做不下来,也没有关系,加载Github上大众点评的教程.xml,可以直接用这个现成的模块,也可以单步调试之,看看它是怎么写的。

7.正菜开始:主流程

下面是最难也是最复杂的部分。我们的思路是,组合所有的门类和区域,构成m*n的一组序对,如海淀区-北京菜朝阳区-火锅等等,获取对应序对的页数,再将所有结果拼接起来。
准备好了么?我们继续。

新建数据清洗,命名为主流程,我们要调用刚才定义的模块,拖入子流-生成到任意一列,配置如下:
image_1aiua4trfd641198v121hpt1cma3t.png-26.1kB
记得要勾选启用,这些模块默认是不启用的。
再拖入子流-生成到任意一列,配置如下:
image_1aiua70q350rgop1tljiud1ovk4a.png-54.4kB
注意生成模式改为Cross。
具体不同模式的工作方式,可参考这篇文章:http://www.cnblogs.com/buptzym/p/5501003.html
之后,就是这个样子:
image_1aiua9pco128h1qsanbe1g3u12i54n.png-97.6kB
我们将两列组合起来,可看到Url为如下的形式:
http://www.dianping.com/search/category/2/10/**g311r14**
合并多列到type,配置如下:
image_1aiuaeshc14pib744751r5vfp554.png-27.6kB
{0}{1}相当于组合了多个元素,拖入的当前列为第0元素,其他项用空格分割,分别代表第1,2...个元素。
为了获取每个门类的页数,需要在页面上找一下:
image_1aiuajl6nhdrdgh1t3sikl3a95h.png-120.9kB
它的XPath是/html[1]/body[1]/div[6]/div[1]/span[7]

  • 拖入从爬虫转换到url列,配置爬虫选择为通用采集器,就能获取对应的HTML
  • 拖入XPath筛选器到HTML所在的Content列,XPath表达式如上/html[1]/body[1]/div[6]/div[1]/span[7]。只获取一个数据,新列名为count
  • 拖入删除该列到Content列。
    image_1aiub6nl319v01bo714su63p1gkq5u.png-65.5kB
  • 拖入提取数字到count列
  • 拖入Python转换器到count列,这是本文唯一要写的代码:
    配置如下:
    image_1aiubbcsg1qeg1l0712u216gu1me46b.png-28.8kB
    代码在下面:

    v=int(value)
    50 if v>750 else int(v/15)+1

    Python代码很好理解吧,大概是说超过750个就按50页处理,页数等于数量除以每页15个,取整后+1,截图中的代码是错误的,感谢热心网友提醒
    image_1aiubggfv15qt1ot719b5d3l1de69.png-64.2kB
    你会发现即使这样,每个门类还是超过了50页,这个问题我们之后再讨论。
    为了方便并行,拖入流实例化到任意一列,配置如下:
    image_1aiublrdv1nio6a1l5k1vj5riom.png-69kB
    执行器会将每一个门类区县对分配一个独立的线程,注意方括号[url]的写法,系统会把url列的内容赋值到这里,如果你只写url,那所有的线程名称都叫url了。你可以不添加流实例化,看看系统最后是怎么工作的。

接下来,我们要把page列展开,生成[0-page]的区间数,一页一页去抓取。拖生成区间数到page列,配置如下:
image_1aiubrrau2rpdb61m7rcno1si113.png-38.8kB
注意Cross和[page],我就不多解释了。
把刚才的url和现在的p列合并,就构成了每一页的真实url.
拖入合并多列到url,配置如下:
image_1aiuc0p8pv4p18ks1rts1nfh1ivf1t.png-19.4kB
仔细理解一下配置的意思,尤其是{0}p{1},我觉得读者到了这一步,已经对整个系统有点感觉了。
雄关漫道真如铁,我们马上到达目的地了。
现在url列已经是这个样子了(点击查看样例即可)
image_1aiuc41shkp2cju10rgrji1h942q.png-26.7kB
从爬虫转换到url,配置爬虫来源为门店列表!然后等待奇迹出现
(卖个关子,我就不截图了)
然后拖入写入数据表到任意一列,为表名起个名字,点击执行去跑就可以了。
如果你到这一步就满意了,那么文章可以不用往下看了。

8.注重细节

一道大菜要非常注意细节,爬虫也一样。

8.1 保留原始表的信息

你看到数据表里没有这家店的区县,也没有所在的页数,感觉从爬虫转换丢失了原始表的一部分信息,事实上它在1转多的时候,原始表默认都会丢掉。
因此在下图的位置,点击编辑集合,选择最后的那个从爬虫转换,配置如下:
image_1aiucj94dqir1rlt19n51n41ue63k.png-6.9kB
它会将p和区域两列,添加到新表中。

8.2 我想写入数据库

目前Hawk没有强的自动建表功能,因此建议使用MongoDB,如果你已经安装了,在模块管理的数据源哪里,点击右键,可新建MongoDB连接器。
可以在主流程的最后位置,在拖入写入数据库,即可。

8.3 还是没有获取所有数据

即使是刚才这样的复杂操作,依然不能获取所有的美食,因为火锅太火,朝阳海淀的火锅都超过了50页,解决方法是再细分商区,比如朝阳的三元桥,国贸,望京...这样就能完整解决了。但本文限于篇幅就不讨论了。

8.4 如何将数据表导出到文件?

在右下角的数据管理,在要导出的表上点右键,建议输出为xml,json和txt文件,excel文件在数据量较大(5万以上)会有性能问题。

8.5 这种图形化操作有什么优势?

效率!所见即所得!你可以试着用任意一种代码去写,烦死你

8.6 如何保存所有操作?

image_1aiuctvts8qq1l7nn291lvk1ol841.png-33.7kB
会将所有刚才的操作保存在工程文件中。

8.6 我的服务器在Linux上,怎么办

Hawk是WPF,C#开发的,因此只能在Windows上运行,不过它生成的xml可以被Python解释,参考github上的etlpy.

8.7 Hawk是你一个人写的吗?用了多久

目前来看是这样的。业余时间四年

8.8我想获取各个城市的,不限于美食的数据

这个就更复杂了,可以借助脚本实现,这是下一篇的话题。

9.总结

为了方便大家学习使用,刚才的整个操作已经上传到了Github。地址为https://github.com/ferventdesert/Hawk-Projects
大众点评-教程.xml

本软件是我在.NET领域最后的绝唱,估计以后不会再继续开发C#相关的东西了。
有任何问题,欢迎留言。


作者:热情的沙漠
出处:http://www.cnblogs.com/buptzym/
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。

分类: 开源项目

本文转自FerventDesert博客园博客,原文链接:http://www.cnblogs.com/buptzym/p/5500979.html,如需转载请自行联系原作者
目录
相关文章
|
3月前
|
数据采集 数据挖掘 数据处理
探索数据世界之门:Python爬虫与数据抓取技术
在信息爆炸的时代,数据成为了无处不在、无所不包的珍贵资源。而Python爬虫与数据抓取技术作为一道通向数据世界的大门,为我们提供了强大的工具和方法。本文将深入探讨Python爬虫的原理与应用,以及数据抓取技术的重要性,帮助读者更好地了解并利用这一技术。
|
3月前
|
数据采集 存储 机器学习/深度学习
解密网络爬虫与数据抓取技术的奇妙世界
在信息时代,网络爬虫与数据抓取技术扮演着重要角色,它们能够帮助我们从庞杂的网络数据中提取有用信息。本文将深入探讨网络爬虫的工作原理、应用场景以及技术挑战,并展望未来发展方向。
|
数据采集 Python
通过爬取豆瓣浅聊反爬策略的重要性
通过爬取豆瓣浅聊反爬策略的重要性
|
数据采集 自然语言处理 前端开发
Python爬虫:网络信息爬取与处理知识梳理
Python爬虫:网络信息爬取与处理知识梳理
173 0
|
数据采集 存储 Python
Python爬虫系列9-非诚勿扰等婚恋网数据批量抓取!
一般当大家遇到不顺心的时候,总是会焦虑,抱怨,我知道,这也是人软弱的一面,但是我们越是遇到困难,越是要振作起来,不要放弃自己,然后悄悄努力,只有这样才能让自己越来越好,如果一直沉浸在痛苦中,只会越来越糟。 适当的逼一逼自己,你会发现,人的潜力是无限的。
Python爬虫系列9-非诚勿扰等婚恋网数据批量抓取!
|
Web App开发 数据采集 存储
Python网络爬虫实战-抓取百合网真实相亲数据
百合网是一个相亲网站,里面拥有一些真实的妹子数据,如何抓取该网站的数据内容呢,接下来随我一探糗竟吧!
Python网络爬虫实战-抓取百合网真实相亲数据
|
Android开发
Python爬虫入门教程 45-100 Charles抓取兔儿故事-下载小猪佩奇故事-手机APP爬虫部分
1. Charles抓取兔儿故事背景介绍 之前已经安装了Charles,接下来我将用两篇博客简单写一下关于Charles的使用,今天抓取一下兔儿故事里面关于小猪佩奇的故事。爬虫编写起来核心的重点是分析到链接,只要把链接分析到,剩下的就好办了。
1220 0
|
数据采集 Python
如何利用Python网络爬虫爬取微信朋友圈动态--附代码(下)
前天给大家分享了如何利用Python网络爬虫爬取微信朋友圈数据的上篇(理论篇),今天给大家分享一下代码实现(实战篇),接着上篇往下继续深入。
2436 0
|
数据采集 JSON 数据格式
如何利用Python网络爬虫抓取微信朋友圈的动态(上)
今天小编给大家分享一下如何利用Python网络爬虫抓取微信朋友圈的动态信息,实际上如果单独的去爬取朋友圈的话,难度会非常大,因为微信没有提供向网易云音乐这样的API接口,所以很容易找不到门。
2567 0