VB.net 2010 视频教程 VB.net 2010 视频教程 python基础视频教程
SQL Server 2008 视频教程 c#入门经典教程 Visual Basic从门到精通视频教程
当前位置:
首页 > 编程开发 > python爬虫 >
  • 爬虫之博客园精华客户端

 在博客园学习知识是很方便的,但若做成客户端,自定义获取数据,那就更好啦!

  那么需求有哪些呢,第一,我只查看推荐数大于2的文章;第二,我想要只查看C#或者Java的文章;第三,我想要查看推荐数大于2的新闻;第四,我还想搜索文章,并且只搜索推荐数大于2的文章。

  先来预览一下成品吧

  其中列表里左边是推荐数,反正我是优先看推荐数多的,中间是标题,右边是日期,至于其他信息,额,我其实不太关心,点击一行后直接在浏览器打开。

  额,大体先这样吧,那么实现这些功能需要什么技能呢,首先我得准备一下通用类,大概需要web请求的帮助类、Gzip格式网页的加解密帮助类、html字符串解析的帮助类。

  • web请求的帮助类:WebHelper
复制代码
    public class WebHelper
    {
        public readonly WebClient Web = new WebClient();
        //错误重试次数
        private int _tryTimes;

        public Encoding Encoding
        {
            set
            {
                Web.Encoding = value;
            }
        }

        public WebHelper()
        {
            Web.Encoding = Encoding.UTF8;
        }

        public WebHelper(Encoding encoding)
        {
            Web.Encoding = encoding;
        }

        /// <summary>
        /// 下载请求的资源
        /// </summary>
        /// <param name="url">URL</param>
        /// <returns></returns>
        public string DownloadString(string url)
        {
            try
            {
                return Web.DownloadString(url);
            }
            catch(WebException e)
            {
                if (e.Message.Contains("404") || e.Status == WebExceptionStatus.ConnectFailure || e.Status == WebExceptionStatus.ProtocolError || _tryTimes == 2)
                {
                    _tryTimes = 0;
                    return null;
                }

                _tryTimes++;
                return DownloadString(url);
            }
        }

        /// <summary>
        /// 将指定的字符串上载到指定的资源
        /// </summary>
        /// <param name="address">地址</param>
        /// <param name="data">参数</param>
        /// <returns></returns>
        public string UploadString(string address, string data)
        {
            Web.Headers.Add("Content-Type", "application/x-www-form-urlencoded");

            try
            {
                return Web.UploadString(address, "POST", data);
            }
            catch
            {
                if (_tryTimes == 2)
                {
                    _tryTimes = 0;
                    return null;
                }

                _tryTimes++;
                return UploadString(address, data);
            }
        }


        /// <summary>
        ///     下载请求的资源(资源采用Gzip压缩)
        /// </summary>
        /// <param name="url">URL</param>
        /// <param name="encoding">页面编码格式</param>
        /// <returns></returns>
        public string DownloadGzipString(string url, Encoding encoding)
        {
            Web.Headers.Add("Accept-Encoding", "gzip");
            try
            {
                return encoding.GetString(ZipHelper.GzipDecompress(Web.DownloadData(url)));
            }
            catch (WebException e)
            {
                if (e.Message.Contains("404") || e.Status == WebExceptionStatus.ConnectFailure ||
                    e.Status == WebExceptionStatus.ProtocolError || _tryTimes == 2)
                {
                    _tryTimes = 0;
                    return null;
                }

                _tryTimes++;
                return DownloadGzipString(url, encoding);
            }
            finally
            {
                Web.Headers.Remove("Accept-Encoding");
            }
        }
    }
复制代码

这里有三个方法,其中的DownloadString和UploadString和.net Framework的WebClient的方法用法一样,多了一个DownloadGzipString方法,这个方法用于get一个用Gzip压缩的页面,之所以重复写DownloadString和UploadString是因为我懒,有时候请求网页出现异常并不是该网页不能请求,多请求几次就能获取,这里自动尝试3次请求,3次请求过后依然失败则返回null。当然还有一种情况是需要用代理的,考虑到需要用代理的地方不多,并且代理的IP端口一般需要花钱来买,这里就不贴用代理来请求页面的代码了,之前买过两天耍过代理,我那时候的实现思路就是加一个ProxyPool代理池类,代理池从代理网站获取当前可用的代理,一般是一次获取十几个,然后放入代理池,请求需要代理的网站时就去代理池获取代理,WebClient.Proxy = new WebProxy(host, port);加了这个再去请求页面就可以了,当然代理不一定可靠,所以当失败后不要灰心,再用其他代理试试,总有一个成功的,当需要多线程请求网页时,就new多个WebHelper类,他们都会共用一个ProxyPool代理池的。

  • Gzip格式网页的加解密帮助类ZipHelper
复制代码
    public class ZipHelper
    {
        /// <summary>
        /// Gzip压缩
        /// </summary>
        /// <param name="cbytes">需压缩的数据</param>
        /// <returns></returns>
        public static byte[] GzipCompress(byte[] cbytes)
        {
            using (MemoryStream cms = new MemoryStream())
            {
                using (GZipStream gzip = new GZipStream(cms, CompressionMode.Compress))
                {
                    //将数据写入基础流,同时会被压缩
                    gzip.Write(cbytes, 0, cbytes.Length);
                }
                return cms.ToArray();
            }
        }

        /// <summary>
        /// Gzip解压
        /// </summary>
        /// <param name="cbytes">需解压的数据</param>
        /// <returns></returns>
        public static byte[] GzipDecompress(byte[] cbytes)
        {
            using (MemoryStream dms = new MemoryStream())
            {
                using (MemoryStream cms = new MemoryStream(cbytes))
                {
                    using (GZipStream gzip = new GZipStream(cms, CompressionMode.Decompress))
                    {
                        byte[] bytes = new byte[1024];
                        int len = 0;
                        //读取压缩流,同时会被解压
                        while ((len = gzip.Read(bytes, 0, bytes.Length)) > 0)
                        {
                            dms.Write(bytes, 0, len);
                        }
                        return dms.ToArray();
                    }
                }
            }
        }
    }
复制代码
  • html字符串解析的帮助类StringHelper
 View Code

这里主要包含了GetList、RemoveHTMLTags和GetVal方法,爬虫解析数据就靠他们了,具体的使用方法下面会有讲解。

 

  到这里通用类大体就介绍完了,现在开始实地施工。

  • 首先获取文章、获取新闻和查找文章的关键方法
复制代码
        /// <summary>
        /// 获取推荐数大于2的博客
        /// </summary>
        /// <param name="pageIndex"></param>
        private bool AddPost(int pageIndex)
        {
            var url = "https://www.cnblogs.com/mvc/AggSite/PostList.aspx";
            var html = _web.UploadString(url, GetUrl() + pageIndex);
            var posts = StringHelper.GetList(html, "\"post_item", "\"article_comment");
            if (posts.Count == 0)
            {
                return false;
            }
            foreach (var item in posts)
            {
                var n = StringHelper.GetVal(item, "\"diggnum", "/span>");
                var diggnum = Convert.ToInt32(StringHelper.GetVal(n, ">", "<"));
                if (diggnum < 3)
                {
                    continue;
                }
                var t = StringHelper.GetVal(item, "\"titlelnk", "/a>");
                var title = StringHelper.GetVal(t, ">", "<");
                var time = StringHelper.GetVal(item, "发布于 ", 16);
                _urls.Add(StringHelper.GetUrl(t));
                lstPost.Items.Add($"{diggnum} {title} {time}");
            }
            return true;
        }
        /// <summary>
        /// 添加搜索的博客
        /// </summary>
        /// <param name="pageIndex">页数</param>
        private bool AddSearchPost(int pageIndex)
        {
            var url = $"http://zzk.cnblogs.com/s/blogpost?Keywords={txtSearch.Text.Trim()}&pageindex={pageIndex}";var html = _web.DownloadGzipString(url, Encoding.UTF8);
            var posts = StringHelper.GetList(html, "\"searchItem", "\"searchItemInfo-comments");
            if (posts.Count == 0)
            {
                return false;
            }
            foreach (var item in posts)
            {
                var diggnum = StringHelper.GetVal(item, ">推荐(", ")");
                var n = StringHelper.GetVal(item, "searchItemTitle\">", "</h3>");
                var title = StringHelper.RemoveHTMLTags(StringHelper.GetVal(n, "\">", "</a>"));
                var date = StringHelper.GetVal(item, "searchItemInfo-publishDate\">", "</span>");
                _urls.Add(StringHelper.GetUrl(n));
                lstPost.Items.Add($"{diggnum} {title} {date}");
            }
            return true;
        }
        /// <summary>
        /// 获取推荐数大于2的新闻
        /// </summary>
        /// <param name="pageIndex"></param>
        private bool AddNews(int pageIndex)
        {
            var url = "https://www.cnblogs.com/mvc/AggSite/NewsList.aspx";
            var html = _web.UploadString(url, $"CategoryId=-1&CategoryType=News&ItemListActionName=NewsList&ItemListActionName=NewsList&PageIndex=" + pageIndex);
            var posts = StringHelper.GetList(html, "\"post_item", "\"article_comment");
            if (posts.Count == 0)
            {
                return false;
            }
            foreach (var item in posts)
            {
                var n = StringHelper.GetVal(item, "\"diggnum", "/span>");
                var diggnum = Convert.ToInt32(StringHelper.GetVal(n, ">", "<"));
                if (diggnum < 3)
                {
                    continue;
                }
                var t = StringHelper.GetVal(item, "\"titlelnk", "/a>");
                var title = StringHelper.GetVal(t, ">", "<");
                var time = StringHelper.GetVal(item, "发布于 ", 16);
                var link = StringHelper.GetUrl(t);
                if (!link.Contains("http"))
                {
                    link = "https:" + link;
                }
                _urls.Add(link);
                lstPost.Items.Add($"{diggnum} {title} {time}");
            }
            return true;
        }
复制代码

  授人以鱼不然授人以渔,这些是怎么回事呢

在博客园首页按下F12,点击下一页,看看那些请求,瞄一瞄,就知道PostList.aspx是数据关键,里面的参数中CategoryId是分类ID,CategoryType是分类种类,暂时发现SiteHome和TopSiteCategory两个值,当点击母分类时,这个值就是TopSiteCategory,当点击子分类时,这个值就是SiteHome,PageIndex当前页这个众所周知啦,ParentCategoryId是父分类的ID,只有点击子分类时需要把父分类的ID赋值到这个字段。说了这么多,这个还只是获取文章的接口,另外两个查询文章的和获取新闻的也大同小异啦,大家自己研究。另外贴出的代码里有个GetUrl方法,这个就是为了赋值这些参数的,也贴出来吧

 View Code

  功能大体介绍完了,末了还有个小惊喜,就是提示框,怎么在Winform中弹出提示框,过段时间自动消失呢,像这样

其实这个不难,弄个定时器就好啦

但需要注意的是,怎么才能弹出提示在最顶层呢,不然看不到呢,其实把TopMost属性设为True就好了,另外ShowIcon、ShowInTaskbar、MaximizeBox和MinimizeBox也要设为false,StartPosition设为CenterScreen,这样才专业。

  由于刚弄成,难免会有疏忽八哥,大家看到后要帮忙指正,本项目已开源:https://github.com/ihambert/test。

出处:https://www.cnblogs.com/hambert/p/6118299.html


相关教程