第六课:robots.txt是什么?它的作用有哪些?

相信我们很多新手SEO站长很少去了解robots.txt。也有很多人认为这个文件有啥作用,真的是这样吗?当然不是,一般情况下,robots都是需要设置的,哪怕你网站没有需要限制的文件目录,哪怕把sitemap地图放上去让抓取也是好的,因为蜘蛛抓取网站第一个抓取文件就是robots,蜘蛛需要知道哪些页面是被禁止抓取的。

robots.txt是什么?它的作用有哪些?

虽然robots.txt在日常SEO工作中很少触碰,但它存在的意义却是非常大的。Robots的作用已经不在局限于网页的隐私了,还在于页面某些路径的清理,如删除死链非常管用。下面随凌哥SEO技术博客来全面认清真正的robots.txt文件。

一、什么是robots.txt文件?

robots.txt它是一个文本的文件,是一种存放于网站根目录下的文本文件,它通常会告诉搜索引擎的抓取程序(又称网络爬虫或蜘蛛),这个网站中有哪些内容不应该被搜索引擎的抓取程序获取的,又有哪些是可以被抓取程序获取的。

robots.txt这个robots必须是要小写的,这是跟网络蜘蛛建立的一个协议,网络蜘蛛来你的网站的时候第一会去看的就是你网站根目录的robots.txt协议文件,它会根据你的规定来进行抓取,但是有些傲娇的网络蜘蛛它不遵循规则,一般网络蜘蛛都会会遵循的,要是你网站根目录没有这个文件的话网络蜘蛛就会沿着我们网站上面的链接一个一个进行抓取。

二、robots.txt的作用有哪些?

(1)它可以引导搜索引擎的蜘蛛抓取指定的栏目或者是内容。相当于你去一个陌生的城市,有人给你带路一样。

(2)当我们网站改版或者是URL重写优化时屏蔽不好的链接。不到万不得已千万不要进行网站改版,这个对网站伤害很大的,会引起降权或者是排名收录全掉。

(3)可以屏蔽死链接和404错误页面。随着网站壮大,死链接和404错误页面是在所难免的。

(4)屏蔽那些无内容和无价值的页面。

(5)屏蔽重复页面,比如说评论页、搜索结果页。

(6)屏蔽任何不想被收录的页面。

(7)引导蜘蛛来抓取网站地图。让蜘蛛更快速来爬取我们网站的链接。

总结:因为robots.txt文件是网站跟蜘蛛的一个协议,蜘蛛来抓取网站时必然先(理论上)遵守协议。所以很多网站robots.txt文件就出现了一种情况,那就是把网站地图sitemap放进去,如凌哥SEO博客也不例外哦,这样自然是为了吸引蜘蛛快速抓取网站链接,便于收录。还有就是查询别的网站robots.txt文件时,可直接在域名后面加一个robots.txt即可一览无遗。

原创文章,作者:凌哥SEO,如若转载,请注明出处:https://www.seoxyg.com/326.html

发表评论

登录后才能评论