发现更大的SEO世界
 找回密码
 注册
搜索
»首页»SEO培训 SEO论坛 SEO交流 帖子
发新帖
fred,请到个人资料页面设置个人签名    [ 版主 ]

重复数据的处理

亲们,旧网站的数据有7千多,换系统,改版后,导入到新系统里,产生6w多的数据,很多同样的内容,多个URL。出现过这种情况的朋友,你们一般怎么处理的?
发表于 2014-5-30 17:06:24
回复 收藏
GoGo闯,不折腾不舒服斯基    

a、b、c三种url有着同样的内容,看日志,哪种url流量最多,假设a最多,b、c全部301到a
发表于 2014-5-30 17:12:24
回复 收藏
fred,请到个人资料页面设置个人签名    [ 版主 ]

GoGo闯 发表于 2014-5-30 17:12
a、b、c三种url有着同样的内容,看日志,哪种url流量最多,假设a最多,b、c全部301到a ...

问题是URL没有什么规律,这么多的量,怎么处理
 楼主| 发表于 2014-5-30 17:25:29
回复 收藏
ZERO,SEO执着爱好者    

其实我想说砍死技术。。。道理上这技术上完全能规避,尽量先找技术解决方案。
发表于 2014-5-30 17:48:44
回复 收藏
xfxdtt,不变初心。。    

删掉,重新导。。延用原来的URL。。
发表于 2014-5-30 17:53:16
回复 收藏
fred,请到个人资料页面设置个人签名    [ 版主 ]

ZERO 发表于 2014-5-30 17:48
其实我想说砍死技术。。。道理上这技术上完全能规避,尽量先找技术解决方案。 ...

是的,好吧,已经叫技术想办法解决了。我已经被技术多次出现N多重复数据的问题整死了。
 楼主| 发表于 2014-5-30 17:58:54
回复 收藏
zoro,爱op,爱zoro(海贼王的zoro)。    

fred 发表于 2014-5-30 17:58
是的,好吧,已经叫技术想办法解决了。我已经被技术多次出现N多重复数据的问题整死了。 ...

这技术 无力吐槽啊,7千多的数据都会出错,那要是有哦百万数据,不被他给整死才怪啊。不过这奇葩我遇到过。。。。
发表于 2014-6-1 16:17:13
回复 收藏
zoro,爱op,爱zoro(海贼王的zoro)。    

上面吐槽完了 顺便提下我的建议,
1.根据统计的来源“受访页面”确定不可删除url,
2,根据收录的url为不可删除的url

其他的不上上面2个合集的url按照一定规则,比如取旧的一条,其余全部删掉,删掉部分要是不放心,设置好404,同时robot里面不要禁止抓取,提交死链,其他的就只能等+贡献新的优质内容了。

评分

参与人数 1赞同 +4 收起 理由
guohezu + 4 赞一个!

查看全部评分

发表于 2014-6-1 16:20:58
回复 收藏
快速回复 返回顶部 返回列表