WordPress Robots.txt 写法优化 示例

Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。

robots.txt文件是一个文本文件,使用任何一个常见的文本编辑器,比如Windows系统自带的Notepad,就可以创建和编辑它[2]。robots.txt是一个协议,而不是一个命令。robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。

当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。百度官方建议,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。

WordPress会在站点根目录下自动生成robots.txt文件,原始内容如下:意思是告诉搜索引擎不要抓取后台程序文件。

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/

我们可以在浏览器中输入:http://你的域名/robots.txt来查看robots.txt的内容,这些设置对我们优化seo是不够的,以下是一些设置建议

一、文件写法

User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符
Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录 
Disallow: /require/ 这里定义是禁止爬寻require目录下面的目录 
Disallow: /ABC/ 这里定义是禁止爬寻ABC目录下面的目录 
Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。 
Disallow: /*?* 禁止访问网站中所有的动态页面 
Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片 
Disallow:/ab/adc.html 禁止爬取ab文件夹下面的adc.html文件。 
Allow: /cgi-bin/ 这里定义是允许爬寻cgi-bin目录下面的目录 
Allow: /tmp 这里定义是允许爬寻tmp的整个目录 
Allow: .htm$ 仅允许访问以".htm"为后缀的URL。 
Allow: .gif$ 允许抓取网页和gif格式图片

二、文件用法

例1. 禁止所有搜索引擎访问网站的任何部分

User-agent: *
Disallow: /
实例分析:淘宝网的 Robots.txt文件
User-agent: Baiduspider
Disallow: /
User-agent: baiduspider
Disallow: /
很显然淘宝不允许百度的机器人访问其网站下其所有的目录。

例2. 允许所有的robot访问 (或者也可以建一个空文件 “/robots.txt” file)

User-agent: *
Allow:

例3. 禁止某个搜索引擎的访问

User-agent: BadBot
Disallow: /

例4. 允许某个搜索引擎的访问

User-agent: Baiduspider
allow:/

例5.一个简单例子

在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即搜索引擎不会访问这三个目录。
需要注意的是对每一个目录必须分开声明,而不要写成 “Disallow: /cgi-bin/ /tmp/”。
User-agent:后的*具有特殊的含义,代表“any robot”,
所以在该文件中不能有“Disallow: /tmp/*” or “Disallow:*.gif”这样的记录出现。
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/

三、wordpress中Robots.txt优化建议

User-agent: *  如果要对全体搜索引擎起作用,则输入
Disallow: /wp-admin/  
Disallow: /wp-includes/ (这两条是WordPress自动生成的,一定要保留)  
Disallow: /wp-content/plugins (禁止收录插件目录)  
Disallow: /wp-content/themes  (禁止收录模板目录)  
Disallow: /wp-content/uploads (如果希望网站的图片被收录,则可以去掉这条)
Disallow: /feed  
Disallow: /articles/*/feed  (这两条用来禁止收录内容重复的feed源)  
Disallow: /tag/  (用于禁止收录tag标签页)  
Disallow: /category/  (用于禁止收录文章目录,因为此页面都是无意义的文章列表)  
Disallow: /page/  (禁止收录翻页的页面)  
Disallow: /*?replytocom= (禁止收录评论页面)  
Disallow: /trackback (禁止收录trackback,如果关闭了此功能可以删掉)  
Disallow: /*?* (禁止访问带?的页面,如果使用默认文章固定链接的千万不要添加这一句)  
Sitemap: http://www.laoji.org/sitemap_baidu.xml(正确引导搜索引擎找到网址地图)
Sitemap: http://www.laoji.org/sitemap-news.xml(可以多写几个)
Sitemap: http://www.laoji.org/sitemap.html(要在网站根目录下生成XML)
Sitemap: http://www.laoji.org/BingSiteAuth.xml
Sitemap: http://www.laoji.org/ror.xml

四、在线生成工具和检测工具

1、站长工具
2、百度站长Robots.txt

五、总结

将代码编写在记事本上,然后保存为robots.txt,直接上传到网站的根目录就可以生效了,建议上传之后,最好用百度站长平台中的“网站分析”→“robots”检查一下语法是否正确,确保万无一失。

在书写写这些语句的时候尤其注意的一点是冒号(:)和( /) 之间要有一个空格符,如果这个空格没有加的话,是不能起到作用的,robots.txt文件一般放在网站的根目录下,而且命名必须是robots.txt。
rbotts.txt文件在屏蔽目录的时候,注意,这里如果是阻止抓取某目录的话目录名字一定要注意“/”,不带“/”表示的是阻止访问这个目录页面和目录下的页面,而带上“/”则表示进阻止目录下的内容页面,这两点要分清楚。
为了让搜索引擎更快的收录我们的内页,我们一般都会做一个百度地图或者谷歌地图,那么,Sitemap:+网站地图,这个命令就可以快速的引导搜索引擎蜘蛛来到你的地图页面对网站内页进行抓取。当网站的死链接过多处理非常麻烦的时候,我们可以利用robots来屏蔽这些页面,这样就可以避免网站因为死链接被百度降权。

搬瓦工,年付$49.99CN2高速线路,1024MB内存/1000GB流量/1GB带宽,电信联通优化KVM,延迟低,速度快,建站稳定,搬瓦工BandwagonHost VPS优惠码BWH26FXH3HIQ,支持<支付宝> 【点击购买】!

Vultr月付$3.5日本节点,512M内存/500G流量/1G带宽,电信联通优化,延迟低,速度快【点击购买】!

搬瓦工1111特惠,年付$29.882核CPU/2048MB内存/1TB流量/1GB带宽,随意切换机房KVM,延迟低,速度快,建站稳定,搬瓦工BandwagonHost VPS优惠码BWH26FXH3HIQ,支持<支付宝> 【点击购买】!

点赞

发表评论

电子邮件地址不会被公开。 必填项已用*标注

Scroll Up