GooSeeker
产品
资源
教程
视频教程
使用交流
资讯
开启辅助访问
切换风格
请
登录
后使用快捷导航
没有帐号?
立即注册
登录
|
注册
快捷导航
资讯
常见问题
使用交流
python交流
视频教程
资源发布公告
数学建模交流
论坛
›
搜客社区
›
常见问题
1
6886
爬虫中断如何避免重复数据
中秋2016
于 2016-10-22 16:34
发表
[复制链接]
[只看楼主]
[打印]
[上一主题]
[下一主题]
中秋2016
积分
221
精华
0
威望
78
金钱
2
最后登录 1970-1-1
加为好友
发送消息
访问家园
爬虫中断如何避免重复数据
收藏
0
转播
支持
0
反对
0
举报
使用道具
|
回复
共 1 个关于本帖的回复 最后回复于 2016-10-22 16:43
xandy
积分
3345
精华
0
威望
1130
金钱
2
最后登录 1970-1-1
加为好友
发送消息
访问家园
个人资料
主题列表
发消息
沙发
xandy
论坛元老
发表于 2016-10-22 16:43:35
|
只看该作者
解决方法:
1)如果是翻页采集,而且每一页都有独立网址,那么可以把断掉的下一页网址重新添加线索,就能从断开的地方作为起点采集。
这样采集到的数据就不会重复了。
1.1)但如果页码网址是不变的话,这种只能激活线索后重新开始采集了。
这样采集到的数据会有重复,可以在Excel里面删除重复数据。
1.2)如果你知道在第几页断掉的话,对于有页码输入框的翻页,有一个解决方法:在规则里通过连续动作设置 “点击、输入页码” 的动作,参看连续动作教程
http://www.gooseeker.com/doc/article-141-1.html
这样采集到的数据也不会重复。
2)不是翻页采集的话,有多条线索网址,再次采集时会自动从下条线索网址开始的。
举报
使用道具
回复
支持
反对
返回列表
B
Color
Image
Link
Quote
Code
Smilies
高级模式
您需要登录后才可以回帖
登录
|
立即注册
发表回复
回帖并转播
回帖后跳转到最后一页
回复
推荐板块
使用交流
常见问题
数学建模交流
python交流
视频教程
精彩推荐
利用AI阅读和分析文本:扣子COZE记录用户反
在网页片段内直观标注——以B站评论采集为
利用AI阅读和分析文本:使用COZE建设游记文
使用AI工具Kimi生成python代码为文本分析结
苹果mac电脑安装集搜客网络爬虫软件失败的
热门话题
1
【集微库】微博采集工具箱使用常见问题
2
集搜客文本分词标注工具(V1版)
3
怎样使用快捷采集(以采集京东评论为例)
4
有没有办法采集机场的出租车信息?
5
获得积分的好方法:转发小程序、QQ群、微信
6
【求助】关于采集阿里巴巴国际站访客详情分
7
GooSeeker分词,情感分析和关键词抽取平台使
8
新浪微博_博主主页
9
怎样采集抖音关键词搜索后的数据
10
集搜客GooSeeker 网络爬虫版本发布公告
热门用户
Fuller
帖子:10559
访问主页>>
wangyong
帖子:1712
访问主页>>
gbkuce
帖子:0
访问主页>>
GMT+8, 2024-11-22 06:34
快速回复
快速发帖
返回顶部
返回列表
共 1 个关于本帖的回复 最后回复于 2016-10-22 16:43