网站seo最新优化方法(建设网站制作)

网站seo最新优化方法(建设网站制作)

浏览次数:
信息来源: 用户投稿
更新日期: 2025-10-04
文章简介

搜索引擎蜘蛛访问网站时会第一个访问robots.txt文件,robots.txt用于指导搜索引擎蜘蛛禁止抓取网站某些内容或只允许抓取那些内容,放在站点根目录。以腾讯课堂的robots.txt为例:Us

2025阿里云双十一服务器活动

搜索引擎蜘蛛访问网站时会第一个访问robots.txt文件,robots.txt用于指导搜索引擎蜘蛛禁止抓取网站某些内容或只允许抓取那些内容,放在站点根目录。

以腾讯课堂的robots.txt为例:

  • User-agent表示以下规则适用哪个蜘蛛,表示所有
  • 表示注释
  • Disallow表示禁止抓取的文件或目录,必须每个一行,分开写
  • Allow表示允许抓取的文件或目录,必须每个一行,分开写
  • Sitemap表示站点XML地图,注意S大写
  • 下面表示禁止所有搜索引擎蜘蛛抓取任何内容

    1

    User-agent:*2

    Disallow:/

    下面表示允许所有搜索引擎蜘蛛抓取任何内容

    1

    User-agent:*2

    Disallow:

    注意:被robots禁止抓取的URL还是肯呢个被索引并出现在搜索结果中的。只要有导入链接指向这个URL,搜索引擎就知道这个URL的存在,虽然不会抓取页面内容,但是索引库还是有这个URL的信息。以淘宝为例:

    如何使用robots.txt及其详解

    在国内,网站管理者似乎对robots.txt并没有引起多大重视,应一些朋友之请求,今天想通过这篇文章来简单谈一下robots.txt的写作。

    访问以上具体地址,我们可以看到robots.txt的具体内容如下:

    #Robots.txtfilefrom?https://www.example.com

    #Allrobotswillspiderthedomain

    具体语法分析:其中#后面文字为说明信息;User-agent:后面为搜索机器人的名称,后面如果是*,则泛指所有的搜索机器人;Disallow:后面为不允许访问的文件目录。

    下面,我将列举一些robots.txt的具体用法:

    或者也可以建一个空文件“/robots.txt”file

    禁止所有搜索引擎访问网站的任何部分

    禁止所有搜索引擎访问网站的几个部分(下例中的01、02、03目录)

    禁止某个搜索引擎的访问(下例中的BadBot)

    只允许某个搜索引擎的访问(下例中的Crawler)

    这里举一个robots.txt的例子:

    使用robots.txt文件拦截或删除整个网站

    要从搜索引擎中删除您的网站,并防止所有漫游器在以后抓取您的网站,请将以下robots.txt文件放入您服务器的根目录:

    要只从Google中删除您的网站,并只是防止Googlebot将来抓取您的网站,请将以下robots.txt文件放入您服务器的根目录:

    每个端口都应有自己的robots.txt文件。尤其是您通过http和https托管内容的时候,这些协议都需要有各自的robots.txt文件。例如,要让Googlebot只为所有的http网页而不为https网页编制索引,应使用下面的robots.txt文件。

    对于http协议(http://www.example.com/robots.txt):

    网站seo最新优化方法,建设网站制作

    (另一种方法:建立一个空的“/robots.txt”文件,或者不使用robot.txt。)

    使用robots.txt文件拦截或删除网页

    您可以使用robots.txt文件来阻止Googlebot抓取您网站上的网页。例如,如果您正在手动创建robots.txt文件以阻止Googlebot抓取某一特定目录下(例如,private)的所有网页,可使用以下robots.txt条目:

    要阻止Googlebot抓取特定文件类型(例如,.gif)的所有文件,可使用以下robots.txt条目:

    要阻止Googlebot抓取所有包含?的网址(具体地说,这种网址以您的域名开头,后接任意字符串,然后是问号,而后又是任意字符串),可使用以下条目:

    尽管我们不抓取被robots.txt拦截的网页内容或为其编制索引,但如果我们在网络上的其他网页中发现这些内容,我们仍然会抓取其网址并编制索引。因此,网页网址及其他公开的信息,例如指向该网站的链接中的定位文字,有可能会出现在Google搜索结果中。您网页上的内容不会被抓取、编制索引和显示。

    作为网站管理员工具的一部分,Google提供了robots.txt分析工具。它可以按照Googlebot读取robots.txt文件的相同方式读取该文件,并且可为Googleuser-agents(如Googlebot)提供结果。我们强烈建议您使用它。在创建一个robots.txt文件之前,有必要考虑一下哪些内容可以被用户搜得到,而哪些则不应该被搜得到。这样的话,通过合理地使用robots.txt,搜索引擎在把用户带到您网站的同时,又能保证隐私信息不被收录。

    误区一:我的网站上的所有文件都需要蜘蛛抓取,那我就没必要在添加robots.txt文件了。反正如果该文件不存在,所有的搜索蜘蛛将默认能够访问网站上所有没有被口令保护的页面。

    每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以你应该做网站中添加一个robots.txt。

    误区二:在robots.txt文件中设置所有的文件都可以被搜索蜘蛛抓取,这样可以增加网站的收录率。

    网站中的程序脚本、样式表等文件即使被蜘蛛收录,也不会增加网站的收录率,还只会浪费服务器资源。因此必须在robots.txt文件里设置不要让搜索蜘蛛索引这些文件。

    具体哪些文件需要排除,在robots.txt使用技巧一文中有详细介绍。

    误区三:搜索蜘蛛抓取网页太浪费服务器资源,在robots.txt文件设置所有的搜索蜘蛛都不能抓取全部的网页。

    如果这样的话,会导致整个网站不能被搜索引擎收录。

    1.每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以你应该在网站中添加一个robots.txt。

    2.网站管理员必须使蜘蛛程序远离某些服务器上的目录——保证服务器性能。比如:大多数网站服务器都有程序储存在“cgi-bin”目录下,因此在robots.txt文件中加入“Disallow:/cgi-bin”是个好主意,这样能够避免将所有程序文件被蜘蛛索引,可以节省服务器资源。一般网站中不需要蜘蛛抓取的文件有:后台管理文件、程序脚本、附件、数据库文件、编码文件、样式表文件、模板文件、导航图片和背景图片等等。

    下面是VeryCMS里的robots.txt文件:

    Disallow:/admin/后台管理文件

    Disallow:/require/程序文件

    Disallow:/attachment/附件

    Disallow:/data/数据库文件

    Disallow:/template/模板文件

    Disallow:/script/脚本文件

    3.如果你的网站是动态网页,并且你为这些动态网页创建了静态副本,以供搜索蜘蛛更容易抓取。那么你需要在robots.txt文件里设置避免动态网页被蜘蛛索引,以保证这些网页不会被视为含重复内容。

    4.robots.txt文件里还可以直接包括在sitemap文件的链接。就像这样:

    目前对此表示支持的搜索引擎公司有Google,?Yahoo,AskandMSN。而中文搜索引擎公司,显然不在这个圈子内。这样做的好处就是,站长不用到每个搜索引擎的站长工具或者相似的站长部分,去提交自己的sitemap文件,搜索引擎的蜘蛛自己就会抓取robots.txt文件,读取其中的sitemap路径,接着抓取其中相链接的网页。

    5.合理使用robots.txt文件还能避免访问时出错。比如,不能让搜索者直接进入购物车页面。因为没有理由使购物车被收录,所以你可以在robots.txt文件里设置来阻止搜索者直接进入购物车页面。

  • 百度搜索风云榜
  • 百度指数
  • 百度站长平台
  • metaseoinspector,检查标签的,谷歌插件
  • seoinchina,百度收录的各种数据,谷歌插件
  • checkmylinks,检查链接,谷歌插件
  • seoquake,统计各种数据,谷歌插件
  • 标签:
    log4j2配置详解(log4j日志输出格式)
    « 上一篇
    返回列表
    下一篇 »

    如本文对您有帮助,就请抽根烟吧!