为什么刚刚我试了一下,我把 自定义Xpath取消了,然后就用的系统自动匹配的规则,竟然能正常抓取了。而之前就不行,这是为什么呢?每个页面的适配性不同么?还是每次系统自动匹配出来的规则可能会有变化?
举报 使用道具
| 回复

共 2 个关于本帖的回复 最后回复于 2016-12-19 22:46

沙发
quyixuan 金牌会员 发表于 2016-12-19 16:14:35 | 只看该作者
自动生成的规则是不会变的,除非你做定位标志或者调整定位选项
举报 使用道具
板凳
Fuller 管理员 发表于 2016-12-19 22:46:41 | 只看该作者
这里有一个自定义xpath的集锦 。一定要注意自定义xpath的基点,也就是相对于某个DOM节点往下写xpath。比如
/html/body/div  这是从最顶上的节点开始写的xpath
//div 也是从最顶上的节点开始写的
.//div 是相对于某个节点开始写的,也就是从某个基点开始的。

集搜客网络爬虫自动生成的规则会确定好基点,那么自定义xpath一定要从这个基点开始写。《怎样设置自定义xpath》写的很详细。


举报 使用道具
您需要登录后才可以回帖 登录 | 立即注册

精彩推荐

  • 360或火绒等杀毒软件导致GooSeeker爬虫软件
  • 话题分析(NMF模型和LDA模型)软件的安装和
  • 运行Apple无法验证的程序的方法
  • 文本聚类分析软件的安装和使用方法
  • 利用AI阅读和分析文本:扣子COZE记录用户反

热门用户

GMT+8, 2025-4-28 15:51