Robots的写法,完整讲解。

时间:2014年10月23日来源:本站原创作者:vtchg点击:

作为SEORobots的写法作为必须了解的内容之一,错误的写法可能给你带来不被搜索引擎收录的恶果。

Robots文本中,因先写出对什么搜索引擎生效,然后是禁止抓取目录,允许抓取目录。

User-agent: 语句表示对什么搜索引擎的规则,如果内容是“*”,则表示对所有搜索引擎生效。

Baiduspider表示百度蜘蛛;

Googlebot 表示谷歌蜘蛛;

360Spider 表示360蜘蛛;



写了针对的蜘蛛后,就需要写具体的禁止抓取哪些目录,允许哪些目录。

Disallow: 表示禁止抓取后面的目录;

Allow: 表示允许抓取后面的目录。

* 是个通配符,可以代替任意内容。

$ 字符指定与网址的结束字符进行匹配。

例如,要拦截以 .asp 结尾的网址,可使用下列条目:

User-Agent:*

Disallow:/*.asp$

例:

Disallow:/admin/  禁止访问/admin/目录的内容。

Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)

Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址。

Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片。

Allow: /cgi-bin/ 这里定义是允许爬寻cgi-bin目录下面的目录。

Allow: .htm$ 仅允许访问以".htm"为后缀的URL

完整写法:

User-agent:*                      /**以下内容针对所有搜索引擎

Diasllow:/admin/                   /**禁止访问/admin/目录的内容

*****

Allow:/html/                       /**允许访问/html/目录的内容

*****

作为新手对Robots不是很明确的朋友,可以不写Robots.txt文件,以免错误的写发导致内容的不收录。

Robots最多的用途是屏蔽网站的后台目录,以免被收录后,被黑客所利用;以及保护自己的版权资源,以免被搜索引擎收录了以后,展示在搜索结果里。

本文地址:http://1asd.com/html/ZuiXinDongTai/416.html 转载请注明出处!

脚注信息
成都创锐文化传播有限公司 1asd.com 版权所有