爬虫中断如何避免重复数据
举报 使用道具
| 回复

共 1 个关于本帖的回复 最后回复于 2016-10-22 16:43

沙发
xandy 论坛元老 发表于 2016-10-22 16:43:35 | 只看该作者
解决方法:
1)如果是翻页采集,而且每一页都有独立网址,那么可以把断掉的下一页网址重新添加线索,就能从断开的地方作为起点采集。
这样采集到的数据就不会重复了。
1.1)但如果页码网址是不变的话,这种只能激活线索后重新开始采集了。
这样采集到的数据会有重复,可以在Excel里面删除重复数据。
1.2)如果你知道在第几页断掉的话,对于有页码输入框的翻页,有一个解决方法:在规则里通过连续动作设置 “点击、输入页码” 的动作,参看连续动作教程http://www.gooseeker.com/doc/article-141-1.html
这样采集到的数据也不会重复。

2)不是翻页采集的话,有多条线索网址,再次采集时会自动从下条线索网址开始的。
举报 使用道具
您需要登录后才可以回帖 登录 | 立即注册

精彩推荐

  • 利用AI阅读和分析文本:扣子COZE记录用户反
  • 在网页片段内直观标注——以B站评论采集为
  • 利用AI阅读和分析文本:使用COZE建设游记文
  • 使用AI工具Kimi生成python代码为文本分析结
  • 苹果mac电脑安装集搜客网络爬虫软件失败的

热门用户

GMT+8, 2024-11-22 06:34