-
玩玩小爬虫——试搭小架构
第一篇我们做了一个简单的页面广度优先来抓取url,很显然缺点有很多,第一:数据结构都是基于内存的,第二:单线程抓取
速度太慢,在实际开发中肯定不会这么做的,起码得要有序列化到硬盘的机制,对于整个爬虫架构来说,构建好爬虫队列相当重要。
先上一幅我自己构思的架构图,不是很完善,算是一个雏形吧。
一:TODO队列和Visited集合
在众多的nosql数据库中,mongodb还是很不错的,这里也就选择它了,做集群,做分片轻而易举。
二:中央处理器
群架,斗殴都是有带头的,那中央处理器就可以干这样的事情,它的任务很简单,
第一: 启动时,根据我们定义好的规则将种子页面分发到各个执行服务器。
第二: 定时轮询”TODO——MongoDB“,将读取的新Url根据规则分发到对应的执行服务器中。
三:分发服务器
中央处理器将url分发到了执行服务器的内存中,分发服务器可以开启10个线程依次读取队列来获取url,然后解析url,
第一:如果url是外链,直接剔除。
第二:如果url不是本机负责抓取的,就放到”TODO——MongoDB“中。
第三:如果是本机负责的,将新提取的url放入本机内存队列中。
四:代码实现
首先下载mongodb http://www.mongodb.org/downloads,简单起见就在一个database里面建两个collection。迫不及
待了,我要爬一个美女网站,http://www.800meinv.com ,申明一下,并非推广网站,看下”中央处理器“的实现。
1 namespace CrawlerCPU 2 { 3 /* 根据规格,一个服务爬取3个导航页(由 中央处理器 统一管理) 4 * 第一个服务:日韩时装,港台时装 5 * 第二个服务:,欧美时装,明星穿衣,显瘦搭配 6 * 第三个服务:少女搭配,职场搭配,裙装搭配 7 */ 8 public class Program 9 { 10 static Dictionary<string, string> dicMapping = new Dictionary<string, string>(); 11 12 static void Main(string[] args) 13 { 14 //初始Url的分发 15 foreach (var key in ConfigurationManager.AppSettings) 16 { 17 var factory = new ChannelFactory<ICrawlerService>(new NetTcpBinding(), new EndpointAddress(key.ToString())) 18 .CreateChannel(); 19 20 var urls = ConfigurationManager.AppSettings[key.ToString()] 21 .Split(new char[] { ';' }, StringSplitOptions.RemoveEmptyEntries) 22 .ToList(); 23 24 factory.AddRange(urls); 25 26 //将网址和“WCF分发地址“建立Mapping映射 27 foreach (var item in urls) 28 dicMapping.Add(item, key.ToString()); 29 } 30 31 Console.WriteLine("爬虫 中央处理器开启,正在监视TODO列表!"); 32 33 //开启定时监视MongoDB 34 Timer timer = new Timer(); 35 36 timer.Interval = 1000 * 10; //10s轮询一次 37 timer.Elapsed += new ElapsedEventHandler(timer_Elapsed); 38 timer.Start(); 39 40 Console.Read(); 41 } 42 43 static void timer_Elapsed(object sender, ElapsedEventArgs e) 44 { 45 //获取mongodb里面的数据 46 MongodbHelper<Message> mongodb = new MongodbHelper<Message>("todo"); 47 48 //根据url的类型分发到相应的服务器中去处理 49 var urls = mongodb.List(100); 50 51 if (urls == null || urls.Count == 0) 52 return; 53 54 foreach (var item in dicMapping.Keys) 55 { 56 foreach (var url in urls) 57 { 58 //寻找正确的 wcf 分发地址 59 if (url.Url.StartsWith(item)) 60 { 61 var factory = new ChannelFactory<ICrawlerService>(new NetTcpBinding(), 62 new EndpointAddress(dicMapping[item])) 63 .CreateChannel(); 64 65 //向正确的地方分发地址 66 factory.Add(url.Url); 67 68 break; 69 } 70 } 71 } 72 73 //删除mongodb中的TODO表中指定数据 74 mongodb.Remove(urls); 75 } 76 } 77 }
接下来,我们开启WCF服务,当然我们可以做10份,20份的copy,核心代码如下:
1 /// <summary> 2 /// 开始执行任务 3 /// </summary> 4 public static void Start() 5 { 6 while (true) 7 { 8 //监视工作线程,如果某个线程已经跑完数据,则重新分配任务给该线程 9 for (int j = 0; j < 10; j++) 10 { 11 if (tasks[j] == null || tasks[j].IsCompleted || tasks[j].IsCanceled || tasks[j].IsFaulted) 12 { 13 //如果队列还有数据 14 if (todoQueue.Count > 0) 15 { 16 string currentUrl = string.Empty; 17 18 todoQueue.TryDequeue(out currentUrl); 19 20 Console.WriteLine("当前队列的个数为:{0}", todoQueue.Count); 21 22 tasks[j] = Task.Factory.StartNew((obj) => 23 { 24 DownLoad(obj.ToString()); 25 26 }, currentUrl); 27 } 28 } 29 } 30 } 31 }
然后我们把”分发服务器“和”中央处理器“开启:
好了,稍等会,我们就会看到,数据已经哗啦啦的往mongodb里面跑了。
五:不足点
有的时候会出现某些机器非常free,而某些机器非常busy,这时就要实现双工通讯了,当执行服务器的内存队列到达
一个量级的时候就应该通知中央处理器,要么减缓对该执行服务器的任务分发,要么将任务分给其他的执行服务器。
最后是工程代码,有什么好的建议可以提出来,大家可以一起研究研究:
http://files.cnblogs.com/huangxincheng/ConsoleApplication1.rar
出处:https://www.cnblogs.com/huangxincheng/archive/2012/11/04/2754059.html