目标是通过频繁爬某位博主微博主页,收集他新发出来的微博,以防止他删除看不到。目前实现了爬一次的功能,周期性还不知道怎么做,另外,如果频繁的爬比如1分钟一次,那岂不是一天内要生成n多垃圾文件,这个问题能不能解决。
举报 使用道具
| 回复

共 1 个关于本帖的回复 最后回复于 2016-5-27 23:35

沙发
Fuller 管理员 发表于 2016-5-27 23:35:37 | 只看该作者
1,周期性爬有两种方式:
a,在会员中心,找到这个规则,为他设置调度参数,那么它就被放到爬虫罗盘中了,就能周期性调度,而且知道他的运行状态。DS端设置成爬虫群模式就能自动获得调度任务。
b,在DS端,用crontab.xml调度爬虫
前一种方法目前只开放了按天调度,如果需要分钟级,需要开通收费的vip服务

2,重复内容过滤的方法需要在数据库中做,先都导入数据库,然后根据条件把重复的过滤掉。目前免费的会员中心不提供重复过滤,需要开通vip服务

如果需要开通vip服务,请留言
举报 使用道具
您需要登录后才可以回帖 登录 | 立即注册

精彩推荐

  • 运行Apple无法验证的程序的方法
  • 文本聚类分析软件的安装和使用方法
  • 利用AI阅读和分析文本:扣子COZE记录用户反
  • 在网页片段内直观标注——以B站评论采集为
  • 利用AI阅读和分析文本:使用COZE建设游记文

热门用户

GMT+8, 2024-12-20 01:46