robots对网站收录影响,如何在wp中修改

时间: 2012-04-01 / 分类: WordPress / 浏览次数: 1,054 views / 0个评论 发表评论

最近看到一篇博文,说是通过修改robots.txt文件可以使网站迅速的被百度收录。看了之后我也想修改一下我的robots,结果没找到

        原来:WordPress本身是没有robots.txt这个文件的,但是当有人访问这个文件时,WordPress程序会动态生成一个robots.txt给用户,或者说,当搜索引擎的蜘蛛爬过来的时候,WordPress程序会动态生成一个robots.txt给蜘蛛。

上传自己编写的robots.txt到网站根目录也行(用记事本编写就可以),用户访问或爬虫爬行的时候访问的就是你上传的robots.txt,wordpress也就不会再生成robots.txt,只有服务器找不到robots.txt的时候wordpress才会自动生成robots.txt这个文件。可是一般我们都不知道这个robots.txt,因为看不到啊!

你可以输入http://你的域名/robots.txt,就会看到这个robots文件了

这个robots有什么用呢?可以通过下面这幅图来简单解释一下

解释一下:搜索引擎通过robot(又称spider),自动访问互联网上的网站并获取网页信息。在网站根目录创建一个纯文本文件robots.txt,在这个文件中编写一些命令告诉robot 不要抓取和访问的这些部分,或者指定搜索引擎只收录指定的内容。当搜索引擎蜘蛛 spider(Googlebot/Baiduspider)来访问你的网站页面的时候,首先会查看你的网站根目录下是否有robots.txt文件,如果有则按照里面设置的规则权限对你网站页面进行抓取和索引。这样大大减少了网站重复页面,对SEO优化起到了很明显的作用,有利于网站被收录。

如何修改robots.txt呢

非常简单,只要新建一个robts.txt,编写好代码后存到你的网站根目录就好啦。

robots.txt文件的格式

“robots.txt”文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:

“<field>:<optionalspace><value><optionalspace>”。

在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow和Allow行,详细情况如下:

User-agent:

该项的值用于描述搜索引擎robot的名字。在”robots.txt”文件中,如果有多条User-agent记录说明有多个robot会受到”robots.txt”的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均有效,在”robots.txt”文件中,”User-agent:*”这样的记录只能有一条。如果在”robots.txt”文件中,加入”User-agent:SomeBot”和若干Disallow、Allow行,那么名为”SomeBot”只受到”User-agent:SomeBot”后面的Disallow和Allow行的限制。

Disallow:

该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被robot访问。例如”Disallow:/help”禁止robot访问/help.html、/helpabc.html、/help/index.html,而”Disallow:/help/”则允许robot访问/help.html、/helpabc.html,不能访问/help/index.html。”Disallow:”说明允许robot访问该网站的所有url,在”/robots.txt”文件中,至少要有一条Disallow记录。如果”/robots.txt”不存在或者为空文件,则对于所有的搜索引擎robot,该网站都是开放的。

Allow:

该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL是允许robot访问的。例如”Allow:/hibaidu”允许robot访问/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。

需要特别注意的是Disallow与Allow行的顺序是有意义的,robot会根据第一个匹配成功的Allow或Disallow行确定是否访问某个URL。

使用”*”和”$”:

Baiduspider支持使用通配符”*”和”$”来模糊匹配url。

“$” 匹配行结束符。

“*” 匹配0或多个任意字符。

若果你和我一样,水平比较低,可以参考我的robots代码

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Sitemap:http://ztyhome.com/sitemap.xml
Sitemap:http://ztyhome.com/sitemap.xml.gz


.

*******************************************************************

上面是广告! 真的是广告!! 真的真的啊!!!

-----------------------------------------------------Copyright © 2011-2012--浙ICP备12011997---------------------------- ---------------------- ------------------------

无觅相关文章插件,快速提升流量