同一个任务要采集数十万条网址,能否将上万条数据直接采集到1个xml中,不然的话,在本地文件夹中会生成数十万个xml,或者有没有其他方法能将结果保存到一个文件(xml,excel 或者数据库)中?
举报 使用道具
| 回复

共 2 个关于本帖的回复 最后回复于 2016-10-14 16:57

沙发
scraper 论坛元老 发表于 2016-10-14 15:07:25 | 只看该作者
用会员中心可以将xml转换成excel教程见http://www.gooseeker.com/doc/article-259-1.html
数十万条网址量较大 建议使用爬虫群模式 边采集边将结果导入到会员中心
举报 使用道具
板凳
Fuller 管理员 发表于 2016-10-14 16:57:42 | 只看该作者
10万条数据最好不要放在一个文件中了,xlsx格式的excel虽然能存储百万条数据,一般电脑内存量是打不开的。
举报 使用道具
您需要登录后才可以回帖 登录 | 立即注册

精彩推荐

  • Gephi社会网络分析-马蜂窝游记文本分词并同
  • Gephi社会网络分析-基于马蜂窝游记文本以词
  • 知乎话题文本根据词语间距筛选后生成共词矩
  • 马蜂窝游记文本分词后以词语间距为筛选条件
  • 学习使用apriori算法挖掘关联关系

热门用户

GMT+8, 2024-5-2 12:53