打印本文 打印本文 关闭窗口 关闭窗口
屏蔽蜘蛛的方法|屏蔽搜索引擎的方法
作者:武汉SEO闵涛  文章来源:敏韬网  点击数1933  更新时间:2010/1/6 7:51:25  文章录入:mintao  责任编辑:mintao

屏蔽蜘蛛的方法|屏蔽搜索引擎的方法

Allow: /

二、禁止某个搜索引擎蜘蛛抓取目录文件,设置代码如下:
User-agent:
MsnbotDisallow: /

例如想禁止MSN的蜘蛛抓取就设为,

Msnbot代表MSN的蜘蛛,如果想禁止其他搜索引擎就更换蜘蛛名字即可,其他蜘蛛名字如下:
百度的蜘蛛:baiduspider
Google的蜘蛛: Googlebot
腾讯Soso:Sosospider
Yahoo的蜘蛛:Yahoo Slurp
Msn的蜘蛛:Msnbot
Altavista的蜘蛛:Scooter
Lycos的蜘蛛: Lycos_Spider_(T-Rex)

三、禁止某个目录被搜索引擎蜘蛛抓取,设置代码如下:
User-agent: *
Disallow: /目录名字1/
Disallow: /目录名字2/

 

 

Disallow: /目录名字3/

把目录名字改为你想要禁止的目录即可禁止搜索引擎蜘蛛抓取,目录名字未写表示可以被搜索引擎抓取。

四、禁止某个目录被某个搜索引擎蜘蛛抓取,设置代码如下:

User-agent: 搜索引擎蜘蛛名字     说明(上面有说明蜘蛛的名字)
Disallow: /目录名字/              说明(这里设定禁止蜘蛛抓取的目录名称)

例如,想禁目Msn蜘蛛抓取admin文件夹,可以设代码如下:

User-agent: Msnbot
Disallow: /admin/

五、设定某种类型文件禁止被某个搜索引擎蜘蛛抓取,
设置代码如下:
User-agent: *

Disallow: /*.htm   说明(其中“.htm”,表示禁止搜索引擎蜘蛛抓取所有“htm”为后缀的文件)

六、充许所有搜索引擎蜘蛛访问以某个扩展名为后缀的网页地址被抓取,
设置代码如下:
User-agent: *
Allow: .htmcontentnbsp;  说明(其中“.htm”,表示充许搜索引擎蜘蛛抓取所有“htm”为后缀的文件)

 

七、只充许某个搜索引擎蜘蛛抓取目录文件,设置代码如下:

User-agent: 搜索引擎蜘蛛名字     说明(上面有说明蜘蛛的名字)
Disallow:


您可以写一个Robots文件以限制您的网站全部网页或者部分目录下网页不被
收录。如:robots.txt上传之服务器根目录即可.robots.txt
全部屏蔽代码User-agent: * Disallow: /

打印本文 打印本文 关闭窗口 关闭窗口