You can not select more than 25 topics Topics must start with a chinese character,a letter or number, can include dashes ('-') and can be up to 35 characters long.

dataCollection.md 5.1 kB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153
  1. ## 项目简述
  2. <br><br>
  3. ## 开源技术栈
  4. - Java EE
  5. - SpringBoot
  6. - HttpClient
  7. - webMagic
  8. - Spider-flow
  9. - Redis
  10. - MySQL
  11. - VUE
  12. ## 总体架构
  13. ![输入图片说明](ProIMG/Qon4S9stvKHpWoe8RSYMLw.png)
  14. (这是最早期系统架构图)
  15. ## 数据处理流程
  16. ![输入图片说明](ProIMG/-SaHmZ-9GeADfc121RJbqw.png)
  17. (这是最早期系统设计图)
  18. ## 信源管理
  19. 信源,信息来源的简称。
  20. <br><br>
  21. 我们需要对采集 类型,内容,平台,地区 等多种属性进行管理。我们对此开发了三代信源管理平台。
  22. ##### 一代产品形态
  23. ![输入图片说明](ProIMG/spider-factory-1.png)
  24. ##### 二代产品形态
  25. ![输入图片说明](ProIMG/spider-factory-2.png)
  26. ##### 三代产品形态
  27. ![输入图片说明](ProIMG/spider-factory-3.png)
  28. ## 站点画像
  29. 采用模拟浏览器请求技术实现深度和广度抓取算法,总体分3个环节,对整个站点进行 1)全站扫描、2)数据储存、3)特性分析。 <br>
  30. - siteMeta <br>
  31. 识别整个网站的结构,并且解析存储,给每一个抓取的网站都建立一个“小档案”库。 <br><br>
  32. - siteIndex <br>
  33. 在识别基础上把所有网页都预存储下来,并且提取各种特征值进行分析计算,从站点目录,到站点栏目,以及每个抓取目标页面都会标记不同的特性参数。 <br><br>
  34. - siteFeatures<br>
  35. 最后将整体分析演算的结果,还原成这个网站的抓取画像和特性,以便于机器将会知道采用哪种抓取策略自动去匹配这个网站的特性抓取,基于这样的设计可以实现大规模数据采集无人值守的效果,也就是百度、谷歌 这些大型搜索引擎实现的数据效果。<br>
  36. 用“探头机器人”对整个网站预抓取一遍,相当于一个先头部队,把抓取网站的情况搞清楚以后,很快机器就知道采取哪种采集策略,大量需要采集的网站,只有极小的部分需要人工干预采集,而且更不需要编写一行爬虫采集代码,完全是自动化及低代码化大规模数据采集。
  37. ## 数据抓取
  38. - 自动抓取 <br>
  39. 有了网站的画像属性,就知道匹配那种采集抓取策略了,大部分网站就能自动抓取就自动识别抓取数据,无需人工干预。<br>
  40. - 人工配置 <br>
  41. 有的网站抓取难度大,采用可视化技术将整个站点的标签提取出来给开发工程师,他们将可以快速的对网站的抓取进行配置。
  42. 我们在采集任何一个网站的时候将会有各种“探头”对网站的结构,广告位,关键性内容,导航栏,分页,列表,站点特性,站点数据量,抓取难易度,站点更新频率,等等。
  43. <br>
  44. - 采集模板 <br>
  45. 为了简化人工操作,提高工作效率,我们还提供了爬虫模板。爬虫模板的意义在于,用户遇到一个配置繁琐的站点,不用从头开始,只需要到爬虫模板库里面找类似的模板即可,如图所示:
  46. ![输入图片说明](ProIMG/spider-factory-templeta.png)
  47. <br>
  48. ## 数据暂存
  49. - 暂存 <br>
  50. 如果把数据直接储存到系统大数据库里,一旦有大量采集的脏数据下来就是浪费时间和精力,所有数据都会预演储存一遍,储存完成后会有程序对此核对监测,以免数据字段漏存,错存。
  51. - 预警 <br>
  52. 如果在暂存环节发现储存错误,将会及时通过邮件发送对研发工程师提醒,告知错误内容,让其对此修正。
  53. <br>
  54. ## 低代码开发
  55. - 配置<br>
  56. 目前的爬虫工厂已经一个低代码化开发的平台了,更准确的说,我们不是在上面开发,而且在上面进行爬虫配置对数据采集抓取。如图所示:
  57. ![输入图片说明](ProIMG/spider-factory-4.png)
  58. - 维护 <br>
  59. 通过低代码的方式的开发,我们对爬虫的维护更加方便,只需要在web管理界面中,修改爬虫抓取配置即可,同时还可以在线调试,查看具体的抓取错误日志。否则某一个站点抓取出现问题,都不知道是哪台服务器上的哪个爬虫抓取错误。各种站点爬虫的量一旦大起来,维护成本极高。
  60. ![输入图片说明](ProIMG/spider-work-err.png)
  61. <br>
  62. ## 分布式采集
  63. - 控制器(master)
  64. - 分发器(dispatch)
  65. - 执行器 (downloader)
  66. <br>
  67. ## 爬虫管理
  68. - 爬虫状态
  69. - 采集状态
  70. <br>
  71. ## 反爬策略
  72. - 模拟请求头
  73. - 代理IP池
  74. <br>
  75. ## 采集分类
  76. ##### 网站采集
  77. x
  78. ##### app 采集
  79. x
  80. ##### 公众号采集
  81. x
  82. ##### 小程序采集
  83. x
  84. ##### (短)视频采集
  85. x
  86. <br>
  87. ## 采集日志
  88. - 日志跟踪ID
  89. - 数据生命周期
  90. <br><br>
  91. ## 数据解析
  92. - 自动解析
  93. - 手动解析
  94. <br>
  95. ## 数据储存
  96. ##### 异步调用
  97. 通过kafka中间件将数据通过消息的形式发送给储存端子系统。
  98. <br><br>
  99. ##### 更多内容
  100. [【数据处理】技术架构说明文档](https://gitee.com/stonedtx/yuqing/blob/master/dataProcessing.md)
  101. <br><br><br><br>

一款开源免费的舆情系统。 支持本地化部署,支持在线体验。 支持对海量舆情数据分析和挖掘。