我的网页数据采集到100多页就停了,怎么解决啊


本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
举报 使用道具
| 回复

共 3 个关于本帖的回复 最后回复于 2016-10-20 10:55

沙发
ym 版主 发表于 2016-10-20 10:52:47 | 只看该作者
看到图片里的剩余线索旁边的状态是FIN,说明是采集完成了,估计是网站有限制翻页吧,也可能是采集多了不给翻更多页了。
可能的原因可以看看这篇文章http://www.gooseeker.com/doc/thread-616-1-1.html
举报 使用道具
板凳
Dave希泽 初级会员 发表于 2016-10-20 10:54:02 | 只看该作者
ym 发表于 2016-10-20 10:52
看到图片里的剩余线索旁边的状态是FIN,说明是采集完成了,估计是网站有限制翻页吧,也可能是采集多了不给 ...

是网站的原因,翻页多了就不行
举报 使用道具
地板
ym 版主 发表于 2016-10-20 10:55:47 | 只看该作者
如果每一页有独立网址的话,可以构造每页网址来采集。具体参考文章http://www.gooseeker.com/doc/thread-1299-1-1.html
举报 使用道具
您需要登录后才可以回帖 登录 | 立即注册

精彩推荐

  • 利用AI阅读和分析文本:使用COZE建设游记文
  • 使用AI工具Kimi生成python代码为文本分析结
  • 苹果mac电脑安装集搜客网络爬虫软件失败的
  • 下载支持win7的集搜客网络爬虫软件
  • 遇到“无法识别的应用”告警怎么办?

热门用户

GMT+8, 2024-9-8 08:41