由于博主的博客曾经换过框架,固定链接有所更换,导致之前收录的文章都变成了死链。众所周知,死链太多,被搜索引擎蜘蛛爬到,可能会认为这个网站不可信等,所以我们要尽快清除死链。
只要在robots协议里加上一条 “disallow:死链接URL ”即可。不过缺点是,robots协议生效具有时间缓冲期,过多死链会增加robots协议体积。
当访问站内页面出错时,利用自定义404页面告诉蜘蛛此链接有损坏,并且不会出现大量的404错误返回码,具体设置大家基本都懂。缺憾在于,网站死链如果没有解决,继续存在,蜘蛛还是会爬行这个链接。
此方法可谓一劳永逸,只要提交过后,百度的蜘蛛就再也不会爬行这个链接。最主要的是,由于这是提交给百度的,不会占用网站任何空间,而且生效时效也很快。缺憾在于:只针对百度搜索引擎。
以上都是死链接的权宜解决方法。一般来说,网站出现大量死链接。要么是人为操作失误,添加了死链接;要么就是网站程序出现问题,由程序本身产生的错误。尽快解决死链存在,才是最好的方法。
1、通过robots协议解决死链问题。
只要在robots协议里加上一条 “disallow:死链接URL ”即可。不过缺点是,robots协议生效具有时间缓冲期,过多死链会增加robots协议体积。
2、通过自定义404页面解决死链问题
当访问站内页面出错时,利用自定义404页面告诉蜘蛛此链接有损坏,并且不会出现大量的404错误返回码,具体设置大家基本都懂。缺憾在于,网站死链如果没有解决,继续存在,蜘蛛还是会爬行这个链接。
3、百度工具栏有死链接提交工具,通过提交禁止蜘蛛爬行死链接。
此方法可谓一劳永逸,只要提交过后,百度的蜘蛛就再也不会爬行这个链接。最主要的是,由于这是提交给百度的,不会占用网站任何空间,而且生效时效也很快。缺憾在于:只针对百度搜索引擎。
以上都是死链接的权宜解决方法。一般来说,网站出现大量死链接。要么是人为操作失误,添加了死链接;要么就是网站程序出现问题,由程序本身产生的错误。尽快解决死链存在,才是最好的方法。
2017年03月17日 11:14:15
沙发