robots.txt文件的作用和标准写法是什么?来这里领会下!
发布时间:2022-04-28 11:12:45 所属栏目:经验 来源:互联网
导读:eo工作者应该不陌生,robots.txt文件是每一个搜索引擎蜘蛛到你的网站之后要寻找和访问的第一个文件,robots.txt是你对搜索引擎制定的一个如何索引你的网站的规则。通过该文件,搜索引擎就可以知道在你的网站中哪些文件是可以被索引的,哪些文件是被拒绝索引
![]() eo工作者应该不陌生,robots.txt文件是每一个搜索引擎蜘蛛到你的网站之后要寻找和访问的第一个文件,robots.txt是你对搜索引擎制定的一个如何索引你的网站的规则。通过该文件,搜索引擎就可以知道在你的网站中哪些文件是可以被索引的,哪些文件是被拒绝索引的,我们就可以很方便地控制搜索索引网站内容了。 robots.txt文件的作用: 1、屏蔽网站内的死链接。2、屏蔽搜索引擎蜘蛛抓取站点内重复内容和页面。3、阻止搜索引擎索引网站隐私性的内容。 因此建立robots.txt文件是很有必要的,网站中重复的内容、页面或者404信息过多,搜索引擎蜘蛛就会认为该网站价值较低,从而降低对该网站的“印象分”,这就是我们经常听到的“降低权重”,这样网站的排名就不好了。 robots.txt文件需要注意的最大问题是:必须放置在一个站点的根目录下,而且文件名必须全部小写。 robots.txt文件的基本语法只有两条,第一条是:User-agent,即搜索引擎蜘蛛的名称;第二条是:Disallow,即要拦截的部分。 下面我们看一下撰写基本的robots.txt文件所需要知道的一些语法和作用。 (1),允许所有的搜索引擎访问网站的所有部分或者建立一个空白的文本文档,命名为robots.txt。 User-agent:*Disallow:或者User-agent:*Allow:/ (2),禁止所有搜索引擎访问网站的所有部分。 User-agent:*Disallow:/ (3),禁止百度索引你的网站。 User-agent:BaiduspiderDisallow:/ (4),禁止Google索引你的网站。 User-agent:GooglebotDisallow:/ (5),禁止除百度以外的一切搜索引擎索引你的网站。 User-agent:BaiduspiderDisallow:User-agent:*Disallow:/ (6),禁止除Google以外的一切搜索引擎索引你的网站。 User-agent:GooglebotDisallow:User-agent:*Disallow:/ (7),禁止和允许搜索引擎访问某个目录,如:禁止访问admin目录;允许访问images目录。 User-agent:*Disallow:/admin/Allow:/images/ (8),禁止和允许搜索引擎访问某个后缀,如:禁止访问admin目录下所有php文件;允许访问asp文件。 User-agent:*Disallow:/admin/*.php$Allow:/admin/*.asp$ (9),禁止索引网站中所有的动态页面(这里限制的是有“?”的域名,如:index.php?id=8)。 User-agent:*Disallow:/*?* (编辑:牡丹江站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
站长推荐