400-609-8880

郑州网站建设:Robots在SEO中的作用是什么?

人气:发表于:2018-06-28

百度,360,搜狗等搜索引擎在访问一个网站的时候最开始做的动作是检查该网站的根域名下是否有一个叫robots.txt的纯文本文件文件用于指定搜索引擎蜘蛛在网站上的抓取范围。由于很多网站的一些页面存在隐私或者是敏感内容,因此需要告诉搜索引擎蜘蛛网站中的哪些页面不允许抓取的,这就是Robots文件的作用。

 

一、Robot指令

  1,User-agent: 指令定义了此指令下面的内容对哪些蜘蛛有效。默认所有蜘蛛都允许抓取,如果此指令指定了特定的蜘蛛,那么此指令下跟的内容就对特定蜘蛛有效。

   2,Disallow: 指令定义了禁止蜘蛛抓取哪些页面,有些人可能认为,做网站当然都希望被抓取了。但是如果是后台或是隐私文件,相信谁都不愿意被抓取的。

  3,Allow: 指令定义了允许蜘蛛抓些哪些内容,如果是某些内容允许,其它全部拒绝,则可以用这个指令,大多数网站只用到禁止指令。

4,Sitemap就是我们常说的网站地图了,把站点地图放在Robots下面,可以方便蜘蛛直接在访问Robots时就访问到你的地图位置。


1.jpg

 

  二、robots的作用

  1、屏蔽死链接。由于改版等原因,我们网站会产生死链接,那么这个时候我们就需要通过robots来屏蔽这些死链接。我们可以通过下载网站日志来查看我们的404页面,用txt打开网站日志,通过搜索“404”,如果你网站有404页面,并且被访问到了,那么这个时候就会被网站日志给记录。

 

  2、把没有价值的页面屏蔽掉。很多网站都有一些没有价值的页面,比如说SEO指导中心的用户个人中心页面,这个个人中心页面不会对网站产生价值,在百度上面的展现也不会给网站带来权重。因此我们需要利用robots来屏蔽这样的页面。又比如说:一个企业网站的联系我们页面,这种页面不会给网站带来权重,用户也不会去搜索“联系我们”来找他想要的产品。因此我们需要把这种页面同时屏蔽。

 

  3、重复路径屏蔽掉。当你网站出现重复路径的时候,百度将会对我们的网站进行直接降分,比如说:一个网站做了伪静态,同时他的动态页面也可以访问,这个时候就会出现重复路径。因此我们需要通过robots屏蔽这些重复路径。

 

  郑州网站建设公司大华伟业是一家专业的互联网整合营销公司,专业从事网站建设、网络推广、微信开发与代运营、微信小程序代理/开发、联通400电话、APP开发、EC营客通销售管理软件、教育培训、广告制作、朋友圈广告等诸多服务,欢迎大家来郑州大华伟业广告有限公司参观咨询了解。


分享到:

联系我们

Contact

郑州大华伟业科技有限公司

地址:郑州市建业路凤鸣路向北艾尚酒店十楼

服务热线:400-609-8880

Q Q:1205043196

邮箱:1205043196@qq.com

网址:www.101ebuy.net

提交您的项目需求

点击换图