玩玩小爬虫——试搭小架构

本文涉及的产品
云数据库 MongoDB,通用型 2核4GB
简介:

     第一篇我们做了一个简单的页面广度优先来抓取url,很显然缺点有很多,第一:数据结构都是基于内存的,第二:单线程抓取

速度太慢,在实际开发中肯定不会这么做的,起码得要有序列化到硬盘的机制,对于整个爬虫架构来说,构建好爬虫队列相当重要。

     先上一幅我自己构思的架构图,不是很完善,算是一个雏形吧。

一:TODO队列和Visited集合

     在众多的nosql数据库中,mongodb还是很不错的,这里也就选择它了,做集群,做分片轻而易举。

二:中央处理器

     群架,斗殴都是有带头的,那中央处理器就可以干这样的事情,它的任务很简单,

    第一: 启动时,根据我们定义好的规则将种子页面分发到各个执行服务器。

    第二: 定时轮询”TODO——MongoDB“,将读取的新Url根据规则分发到对应的执行服务器中。

三:分发服务器

    中央处理器将url分发到了执行服务器的内存中,分发服务器可以开启10个线程依次读取队列来获取url,然后解析url,

第一:如果url是外链,直接剔除。

第二:如果url不是本机负责抓取的,就放到”TODO——MongoDB“中。

第三:如果是本机负责的,将新提取的url放入本机内存队列中。

 

 四:代码实现

 首先下载mongodb http://www.mongodb.org/downloads,简单起见就在一个database里面建两个collection。迫不及

待了,我要爬一个美女网站,http://www.800meinv.com ,申明一下,并非推广网站,看下”中央处理器“的实现。

namespace CrawlerCPU
{
    /* 根据规格,一个服务爬取3个导航页(由 中央处理器 统一管理)
     * 第一个服务:日韩时装,港台时装
     * 第二个服务:,欧美时装,明星穿衣,显瘦搭配
     * 第三个服务:少女搭配,职场搭配,裙装搭配
     */
    public class Program
    {
        static Dictionary<string, string> dicMapping = new Dictionary<string, string>();

        static void Main(string[] args)
        {
            //初始Url的分发
            foreach (var key in ConfigurationManager.AppSettings)
            {
                var factory = new ChannelFactory<ICrawlerService>(new NetTcpBinding(), new EndpointAddress(key.ToString()))
                                 .CreateChannel();

                var urls = ConfigurationManager.AppSettings[key.ToString()]
                                               .Split(new char[] { ';' }, StringSplitOptions.RemoveEmptyEntries)
                                               .ToList();

                factory.AddRange(urls);

                //将网址和“WCF分发地址“建立Mapping映射
                foreach (var item in urls)
                    dicMapping.Add(item, key.ToString());
            }

            Console.WriteLine("爬虫 中央处理器开启,正在监视TODO列表!");

            //开启定时监视MongoDB
            Timer timer = new Timer();

            timer.Interval = 1000 * 10; //10s轮询一次
            timer.Elapsed += new ElapsedEventHandler(timer_Elapsed);
            timer.Start();

            Console.Read();
        }

        static void timer_Elapsed(object sender, ElapsedEventArgs e)
        {
            //获取mongodb里面的数据
            MongodbHelper<Message> mongodb = new MongodbHelper<Message>("todo");

            //根据url的类型分发到相应的服务器中去处理
            var urls = mongodb.List(100);

            if (urls == null || urls.Count == 0)
                return;

            foreach (var item in dicMapping.Keys)
            {
                foreach (var url in urls)
                {
                    //寻找正确的 wcf 分发地址
                    if (url.Url.StartsWith(item))
                    {
                        var factory = new ChannelFactory<ICrawlerService>(new NetTcpBinding(),
                                      new EndpointAddress(dicMapping[item]))
                                      .CreateChannel();

                        //向正确的地方分发地址
                        factory.Add(url.Url);

                        break;
                    }
                }
            }

            //删除mongodb中的TODO表中指定数据
            mongodb.Remove(urls);
        }
    }
}

接下来,我们开启WCF服务,当然我们可以做10份,20份的copy,核心代码如下:
/// <summary>
        /// 开始执行任务
        /// </summary>
        public static void Start()
        {
            while (true)
            {
                //监视工作线程,如果某个线程已经跑完数据,则重新分配任务给该线程
                for (int j = 0; j < 10; j++)
                {
                    if (tasks[j] == null || tasks[j].IsCompleted || tasks[j].IsCanceled || tasks[j].IsFaulted)
                    {
                        //如果队列还有数据
                        if (todoQueue.Count > 0)
                        {
                            string currentUrl = string.Empty;

                            todoQueue.TryDequeue(out currentUrl);

                            Console.WriteLine("当前队列的个数为:{0}", todoQueue.Count);

                            tasks[j] = Task.Factory.StartNew((obj) =>
                            {
                                DownLoad(obj.ToString());

                            }, currentUrl);
                        }
                    }
                }
            }
        }

然后我们把”分发服务器“和”中央处理器“开启:

好了,稍等会,我们就会看到,数据已经哗啦啦的往mongodb里面跑了。

 

五:不足点

    有的时候会出现某些机器非常free,而某些机器非常busy,这时就要实现双工通讯了,当执行服务器的内存队列到达

一个量级的时候就应该通知中央处理器,要么减缓对该执行服务器的任务分发,要么将任务分给其他的执行服务器。

最后是工程代码,有什么好的建议可以提出来,大家可以一起研究研究:ConsoleApplication1.rar

相关实践学习
MongoDB数据库入门
MongoDB数据库入门实验。
快速掌握 MongoDB 数据库
本课程主要讲解MongoDB数据库的基本知识,包括MongoDB数据库的安装、配置、服务的启动、数据的CRUD操作函数使用、MongoDB索引的使用(唯一索引、地理索引、过期索引、全文索引等)、MapReduce操作实现、用户管理、Java对MongoDB的操作支持(基于2.x驱动与3.x驱动的完全讲解)。 通过学习此课程,读者将具备MongoDB数据库的开发能力,并且能够使用MongoDB进行项目开发。 &nbsp; 相关的阿里云产品:云数据库 MongoDB版 云数据库MongoDB版支持ReplicaSet和Sharding两种部署架构,具备安全审计,时间点备份等多项企业能力。在互联网、物联网、游戏、金融等领域被广泛采用。 云数据库MongoDB版(ApsaraDB for MongoDB)完全兼容MongoDB协议,基于飞天分布式系统和高可靠存储引擎,提供多节点高可用架构、弹性扩容、容灾、备份回滚、性能优化等解决方案。 产品详情: https://www.aliyun.com/product/mongodb
相关文章
|
30天前
|
IDE 安全 程序员
揭秘如何用C编写出无敌的程序代码,你绝对会后悔错过!
揭秘如何用C编写出无敌的程序代码,你绝对会后悔错过!
14 1
|
2月前
|
前端开发 JavaScript Java
童年回忆——捕鱼达人(内含源码inscode一键运行)
童年回忆——捕鱼达人(内含源码inscode一键运行)
|
8月前
|
小程序 前端开发 JavaScript
小程序之吸星大法-搬部分页面为我用--【浅入深出系列004】
小程序之吸星大法-搬部分页面为我用--【浅入深出系列004】 这是我的CSDN 的文章 转过来,可能有些许错误。请留言
|
9月前
|
搜索推荐 小程序 程序员
看过很多教程,却依然写不好一个程序,怎么破?
最近在和学员的沟通中,发现不少初学者面临这样一个问题:了解了一些基本的语法,看得懂书上的示例,但是面临一个新的编程问题时,依然感到无从下手。
|
11月前
|
算法 Python
以为是高性能神仙算法,一看源代码才发现...
以为是高性能神仙算法,一看源代码才发现...
76 0
|
文字识别 测试技术 API
验证码识别最佳方案,你不来试试?
验证码识别最佳方案,你不来试试?
ADS2020安装陷阱你学废了吗,小白狂喜教程
ADS2020安装陷阱你学废了吗,小白狂喜教程
666 0
ADS2020安装陷阱你学废了吗,小白狂喜教程
|
编译器 C语言 C++
C++入门<一> (跑路人笔记2)
C++入门<一> (跑路人笔记)
C++入门<一> (跑路人笔记2)
|
自然语言处理 C语言 C++
C++入门<一> (跑路人笔记1)
C++入门<一> (跑路人笔记)
C++入门<一> (跑路人笔记1)
|
移动开发 小程序 IDE
小程序测试全攻略,还学不会你来找我(含实操代码)
小程序测试全攻略,还学不会你来找我(含实操代码)
422 0

热门文章

最新文章