同一个任务要采集数十万条网址,能否将上万条数据直接采集到1个xml中,不然的话,在本地文件夹中会生成数十万个xml,或者有没有其他方法能将结果保存到一个文件(xml,excel 或者数据库)中?
举报 使用道具
| 回复

共 2 个关于本帖的回复 最后回复于 2016-10-14 16:57

沙发
scraper 论坛元老 发表于 2016-10-14 15:07:25 | 只看该作者
用会员中心可以将xml转换成excel教程见http://www.gooseeker.com/doc/article-259-1.html
数十万条网址量较大 建议使用爬虫群模式 边采集边将结果导入到会员中心
举报 使用道具
板凳
Fuller 管理员 发表于 2016-10-14 16:57:42 | 只看该作者
10万条数据最好不要放在一个文件中了,xlsx格式的excel虽然能存储百万条数据,一般电脑内存量是打不开的。
举报 使用道具
您需要登录后才可以回帖 登录 | 立即注册

精彩推荐

  • 360或火绒等杀毒软件导致GooSeeker爬虫软件
  • 话题分析(NMF模型和LDA模型)软件的安装和
  • 运行Apple无法验证的程序的方法
  • 文本聚类分析软件的安装和使用方法
  • 利用AI阅读和分析文本:扣子COZE记录用户反

热门用户

GMT+8, 2025-4-24 19:01