GooSeeker
产品
资源
教程
视频教程
使用交流
资讯
开启辅助访问
切换风格
请
登录
后使用快捷导航
没有帐号?
立即注册
登录
|
注册
快捷导航
资讯
常见问题
使用交流
python交流
视频教程
资源发布公告
数学建模交流
论坛
›
搜客社区
›
使用交流
1
9118
京东抓取电脑具体规格参数的问题
xiaobuwowo1993
于 2016-11-28 14:22
发表
[复制链接]
[只看楼主]
[打印]
[上一主题]
[下一主题]
xiaobuwowo1993
积分
103
精华
0
威望
34
金钱
2
最后登录 1970-1-1
加为好友
发送消息
访问家园
我需要采集京东电脑的具体规格参数,但是需要采集下来的参数不是网站上所列出的全部,只挑选一部分(例如,CPU,内存,显存,操作系统,重量,尺寸...)
他们的class值都为空白,所以我现在只做了这些参数的内容映射。对于这一个电脑这些参数还能与列名吻合,但是我要抓2000多个电脑参数,有的电脑没有某些参数(例如显存),所以会和列名不符合,想知道这种情况下如何精准匹配内容~
收藏
0
转播
支持
0
反对
0
举报
使用道具
|
回复
共 1 个关于本帖的回复 最后回复于 2016-11-28 14:55
xandy
积分
3345
精华
0
威望
1130
金钱
2
最后登录 1970-1-1
加为好友
发送消息
访问家园
个人资料
主题列表
发消息
沙发
xandy
论坛元老
发表于 2016-11-28 14:55:17
|
只看该作者
视情况而定。
你所说的电脑参数,如果这20多个电脑页面的参数页网页结构都是一样的,那么你一个规则就可以搞定(某些电脑的某个参数可能不存在,这个参数不要设置成关键内容,另外可以通过自定义xpathl来限定这个参数的采集范围)《
自定义xpath
》
如果这20多个电脑页面的参数页网页结构有区别,那么在同一个主题下做几个规则来同时采集这几类稍微不同的网页。《
怎么在同一个主题名下建立多个规则
》
举报
使用道具
回复
支持
反对
返回列表
B
Color
Image
Link
Quote
Code
Smilies
高级模式
您需要登录后才可以回帖
登录
|
立即注册
发表回复
回帖并转播
回帖后跳转到最后一页
回复
推荐板块
使用交流
常见问题
数学建模交流
python交流
视频教程
精彩推荐
360或火绒等杀毒软件导致GooSeeker爬虫软件
话题分析(NMF模型和LDA模型)软件的安装和
运行Apple无法验证的程序的方法
文本聚类分析软件的安装和使用方法
利用AI阅读和分析文本:扣子COZE记录用户反
热门话题
1
【集微库】微博采集工具箱使用常见问题
2
怎样使用快捷采集(以采集京东评论为例)
3
集搜客文本分词标注工具(V1版)
4
有没有办法采集机场的出租车信息?
5
获得积分的好方法:转发小程序、QQ群、微信
6
【求助】关于采集阿里巴巴国际站访客详情分
7
GooSeeker分词,情感分析和关键词抽取平台使
8
新浪微博_博主主页
9
怎样采集抖音关键词搜索后的数据
10
集搜客GooSeeker 网络爬虫版本发布公告
热门用户
Fuller
帖子:10607
访问主页>>
wangyong
帖子:1732
访问主页>>
gbkuce
帖子:0
访问主页>>
GMT+8, 2025-4-25 14:47
快速回复
快速发帖
返回顶部
返回列表
共 1 个关于本帖的回复 最后回复于 2016-11-28 14:55