ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

示例 - 数据仓库的妙用

2019-07-30 15:04:51  阅读:225  来源: 互联网

标签:妙用 示例 Default de 数据仓库 采集 news.163 var com


原文链接:http://www.cnblogs.com/iamzyf/p/3507367.html

当初为了在SS中设置数据仓库这个功能, 团队中有一些争议. 主要是集中在为啥要提供这个功能, 到底有没有必要等问题上, 但最终这个功能还是上了. 相信初用者也会有同样的疑问, 我想介绍一下数据仓库的一些妙用, 也顺便为大家解析一下这个疑惑.

用处1, 临时保存中间数据:

以采集网易国际新闻为例. 打开http://news.163.com/world/, 可以看到这是一个列表页面, 每页有几十条新闻, 还有很多很多页. 每条新闻点开之后可以看到正文, 这个正文就是我们最终要采集的内容. 如果在一个脚本中完成刚才的流程, 会显得有点复杂, 纵使各位技术高超, 估计开始之前也要构思一番. 我推荐一个简单步骤, 可以无需经过大脑, 提笔就干!

1. 在数据仓库中创建数据集 NEWS.163.COM.LIST

2. 编写脚本A完成对http://news.163.com/world/的采集, 结果 (标题, URL) 都输出到 NEWS.163.COM.LIST

DataManager.AppendData("news.163.com.list", DataEntry.Create().Set("Title", ...).Set("Url", ...));

3. 编写脚本B从 NEWS.163.COM.LIST 中读取链接 (标题, URL), 然后逐一打开来采集正文

var de = DataManager.ReadData("news.163.com.list");
var title = de.Get("Title");
var url = de.Get("Url");

4. 运行

是不是很便捷? 手脚麻利一点的话, 估计在别人构思完成之前, 你的脚本都写好了 :)

用处2, 并行运行提升采集性能:

SS中集成了采集小精灵, 这是一个有趣的小程序. 它可以独立运行SS中的脚本, 并将结果写回到数据仓库中. 如果我们同时运行多个采集精灵, 就能够实现并行抓取. 不用担心它们会重复抓取, 因为DataManager.ReadData是根据游标来工作的, 它只进不退, 每读取一次, 就往前移一格, 所以每次读取的都不一样.

 

下面给出一个比较完整的脚本范例供大家参考:

脚本A

public void Run()
{
    Default.Navigate("http://news.163.com/world/");
    Default.Ready();
    while(Default.Available)
    {
        var rows = Default.SelectNodes("...");
        foreach(var r in rows)
        {
            var title = r.SelectSingleNode("a").Text();
            var url = r.SelectSingleNode("a").Attr("href");
            DataManager.AppendData("news.163.com.list", DataEntry.Create().Set("Title", title).Set("Url", url));
        }
        var nextPage = Default.SelectSingleNode("...");
        if(nextPage.IsEmpty()) return;
        nextPage.Click();
        Default.Reset();
        Default.Ready();
    }
}

 

脚本B

public void Run()
{
    while(Default.Available)
    {
        var de = DataManager.ReadData("news.163.com.list");
        if(de == null) return;
        var url = de.Get("Url");
        Default.Navigate(url);
        Default.Ready();
        var content = Default.SelectSingleNode("...");
        DataManager.AppendData("news.163.com.content", de.Set("Content", content)); //请预先创建数据集 NEWS.163.COM.CONTENT
    }
}

 

然后, 多个采集精灵同时运行起来是不是很有赶脚? (体验版虽然只能运行一个采集精灵, 但还是可以通过让SS和采集精灵同时运行脚本B来提高效率的).

最后, enjoy~!

 

 

 

转载于:https://www.cnblogs.com/iamzyf/p/3507367.html

标签:妙用,示例,Default,de,数据仓库,采集,news.163,var,com
来源: https://blog.csdn.net/weixin_30642305/article/details/97783508

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有