11#
hg946902208 初级会员 发表于 2017-3-14 17:13:15 | 只看该作者
现在扫出了340个,意思是我再把第18页的网址添加进去就可以继续扫非重复的数据吗
举报 使用道具
12#
HJLing 版主 发表于 2017-3-14 17:17:43 | 只看该作者
hg946902208 发表于 2017-3-14 17:13
现在扫出了340个,意思是我再把第18页的网址添加进去就可以继续扫非重复的数据吗 ...



举报 使用道具
13#
hg946902208 初级会员 发表于 2017-3-14 17:59:50 | 只看该作者

您好,我把数据包导出然后开始扫描详细信息了

不过为什么扫描了20分钟,已采集的数据却只有一条,是必须信息齐全才会被录入?
能不能设置成有数据就录入的模式

举报 使用道具
14#
Fuller 管理员 发表于 2017-3-14 18:54:05 | 只看该作者
hg946902208 发表于 2017-3-14 17:59
您好,我把数据包导出然后开始扫描详细信息了

不过为什么扫描了20分钟,已采集的数据却只有一条,是必须 ...

扫描详细信息的话,需要把详细信息的网址导入进去,要导入的这个文件就是一行行网址,你先检查一下这些网址是否是完整的网址,开头是 http:// 的完整网址。如果不是完整网址,网页就会打不开。另外,爬虫运行的时候,观察一下爬虫的浏览器窗口,有没有显示验证码,如果出现验证码,就是扫描的数量太多了,被网站察觉出来了
举报 使用道具
15#
Fuller 管理员 发表于 2017-3-14 18:57:16 | 只看该作者
还可以看看具体哪个网址失败了,如下图,在会员中心的DIY数据板块,选中天眼查采集任务,点击查看所添加的网址,既有详细网址,也有采集状态


举报 使用道具
16#
hg946902208 初级会员 发表于 2017-3-15 13:47:41 | 只看该作者
Fuller 发表于 2017-3-14 18:57
还可以看看具体哪个网址失败了,如下图,在会员中心的DIY数据板块,选中天眼查采集任务,点击查看所添加的 ...

恩,谢谢了,
我买了专业版怎么打包数据还是要分数,不是每月20w条数据吗

举报 使用道具
17#
HJLing 版主 发表于 2017-3-15 14:10:05 | 只看该作者
hg946902208 发表于 2017-3-15 13:47
恩,谢谢了,
我买了专业版怎么打包数据还是要分数,不是每月20w条数据吗

每月20万数据是指自己做规则把xml转换成excel的量
使用 DIY还是按照数据量扣积分的 旗舰版才是免费导出DIY数据

举报 使用道具
18#
scraper 论坛元老 发表于 2017-3-15 15:26:11 | 只看该作者
hg946902208 发表于 2017-3-15 13:47
恩,谢谢了,
我买了专业版怎么打包数据还是要分数,不是每月20w条数据吗

现在购买专业版和旗舰版都是全额返还积分, 积分可以用来下数据

举报 使用道具
您需要登录后才可以回帖 登录 | 立即注册

精彩推荐

  • Gephi社会网络分析-马蜂窝游记文本分词并同
  • Gephi社会网络分析-基于马蜂窝游记文本以词
  • 知乎话题文本根据词语间距筛选后生成共词矩
  • 马蜂窝游记文本分词后以词语间距为筛选条件
  • 学习使用apriori算法挖掘关联关系

热门用户

GMT+8, 2024-5-4 08:38