百度这种,100页后面的信息都是一样的,是不是有反爬虫技术呢?那要怎么破解啊?


本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
举报 使用道具
| 回复

共 3 个关于本帖的回复 最后回复于 2016-10-27 16:23

沙发
Fuller 管理员 发表于 2016-10-27 16:22:00 | 只看该作者
可能是百度设置的上限,比如,淘宝的搜索结果也是只有100个分页。

百度搜索应该可以按照时间进行搜索,把过去的时候分成一段一段的,每一段里面的数据不要超过100页
举报 使用道具
板凳
ym 版主 发表于 2016-10-27 16:22:32 | 只看该作者
是的,超过一定页码出现重复数据就是一种反爬技术。
解决方法:每次爬取的页码要控制在一定范围内,例如,百度搜索,是可以通过工具,设置时间段,这样就可以控制好采集的页码数量

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
举报 使用道具
地板
评剑 新手上路 发表于 2016-10-27 16:23:44 | 只看该作者
长知识了,谢谢
举报 使用道具
您需要登录后才可以回帖 登录 | 立即注册

精彩推荐

  • 运行Apple无法验证的程序的方法
  • 文本聚类分析软件的安装和使用方法
  • 利用AI阅读和分析文本:扣子COZE记录用户反
  • 在网页片段内直观标注——以B站评论采集为
  • 利用AI阅读和分析文本:使用COZE建设游记文

热门用户

GMT+8, 2024-12-23 00:29