发现更大的SEO世界
 找回密码
 注册
搜索
»首页»SEO培训 SEO论坛 SEO交流 帖子
发新帖
涂丹,这就是搜索引擎    

巧用robots避免蜘蛛黑洞

对于百度搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容雷同但具体参数不同的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了大量资源抓取的却是无效网页。
       比如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分检索价值不高,如“500-1000之间价格的租房”,首先网站(包括现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额。那么该如何避免这种情况呢?
       我们以北京某团购网站为例,看看该网站是如何利用robots巧妙避免这种蜘蛛黑洞的:

对于普通的筛选结果页,该网站选择使用静态链接,如:http://bj.XXXXX.com/category/zizhucan/weigongcun
       同样是条件筛选结果页,当用户选择不同排序条件后,会生成带有不同参数的动态链接,而且即使是同一种排序条件(如:都是按销量降序排列),生成的参数也都是不同的。如:http://bj.XXXXX.com/category/ziz ... %2Fpoi.0.0.i1afqhek
http://bj.XXXXX.com/category/ziz ... %2Fpoi.0.0.i1afqi5c

对于该团购网来说,只让搜索引擎抓取筛选结果页就可以了,而各种带参数的结果排序页面则通过robots规则拒绝提供给搜索引擎。
       robots.txt的文件用法中有这样一条规则:Disallow: /*?* ,即禁止搜索引擎访问网站中所有的动态页面。该网站恰是通过这种方式,对Baiduspider优先展示高质量页面、屏蔽了低质量页面,为Baiduspider提供了更友好的网站结构,避免了黑洞的形成。
发表于 2014-10-17 17:30:21
回复 收藏
ZERO,SEO执着爱好者    

转载内容记得标注。本文来自于http://zhanzhang.baidu.com/

XXXXX=meituan

有点纠结于百度没给留来源作者信息。
发表于 2014-10-17 17:50:36
回复 收藏
涂丹,这就是搜索引擎    

ZERO 发表于 2014-10-17 17:50
转载内容记得标注。本文来自于http://zhanzhang.baidu.com/

XXXXX=meituan

我第一眼就猜到了  哈哈  因为之前baidu引用亚马逊的信息被投诉了 所以他们不敢轻易用原来网站的真实名字
 楼主| 发表于 2014-10-17 18:52:00
回复 收藏
涂丹,这就是搜索引擎    

以后表注
 楼主| 发表于 2014-10-17 18:52:24
回复 收藏
涂丹,这就是搜索引擎    

涂丹 发表于 2014-10-17 18:52
我第一眼就猜到了  哈哈  因为之前baidu引用亚马逊的信息被投诉了 所以他们不敢轻易用原来网站的真实名字 ...

涉及到法务问题
 楼主| 发表于 2014-10-17 18:57:16
回复 收藏
ZERO,SEO执着爱好者    

涂丹 发表于 2014-10-17 10:57
涉及到法务问题

作者信息又不涉及法务,唉。。
发表于 2014-10-17 20:25:59
回复 收藏
52gcs,一条路走到黑    [ 版主 ]

ZERO 发表于 2014-10-17 20:25
作者信息又不涉及法务,唉。。

真不知道谷歌在米国怎么活的好好的
发表于 2014-10-18 09:57:27
回复 收藏
快速回复 返回顶部 返回列表