苏州SEO 排名优化软件 SEO优化 SEO视频教程 SEO方案 SEO案例 SEO术语 SEO问答 网站建设 站长资讯 百度官方资料 其他SEO教程 SEO百科 时事要闻
SEO入门教程 SEO基础教程 百度算法详解 SEO技能提升 移动搜索 SEO工具 SEO书籍 DIV+CSS 网站SEO准备 网站搭建案例 搜索引擎动态 网络营销
前卫SEO > SEO工具 >                          SEO服务热线:【18896806360同微信】 QQ:【1135043367】
热门文章
特别推荐
苏州SEOSEO网站优化合同怎么写(附网站优化 > <a class=SEO网站优化合同怎么写(附网站优化
苏州SEO《深港书评》好书周榜(2017第13期 > <a class=《深港书评》好书周榜(2017第13期
苏州SEO一生的后悔是什么 > <a class=一生的后悔是什么
苏州SEO“容大退出事件”背后:阻碍中国 > <a class=“容大退出事件”背后:阻碍中国
苏州SEO日本米其林新手指南,不是中产也 > <a class=日本米其林新手指南,不是中产也
苏州SEO网站日志的作用 > <a class=网站日志的作用
苏州SEO他用交通标志给老婆写了封情书 看 > <a class=他用交通标志给老婆写了封情书 看
苏州SEO伟大的产品都是相似的,它堪比汽 > <a class=伟大的产品都是相似的,它堪比汽
苏州SEO我的网站备案被注销了 > <a class=我的网站备案被注销了
苏州SEO陈天桥买的是长生不老药 > <a class=陈天桥买的是长生不老药
苏州SEO一个煎饼阿姨告诉你什么叫O2O! > <a class=一个煎饼阿姨告诉你什么叫O2O!
苏州SEO什么是蜘蛛陷阱_蜘蛛陷阱的产生、 > <a class=什么是蜘蛛陷阱_蜘蛛陷阱的产生、
苏州SEO珍惜SEO:Apache中关于优化页面缓存的 > <a class=珍惜SEO:Apache中关于优化页面缓存的
苏州SEO衡量用户体验度好坏的五个方法 > <a class=衡量用户体验度好坏的五个方法
苏州SEO人会长大三次 > <a class=人会长大三次

了解robots文件,主动告诉搜索引擎该抓取什么内

  • 类目 :SEO工具 | 上传日期: 2017-04-02 | 作者:苏州SEO | 浏览次数:
  •     

导读:首先我们要了解什么是robots文件,比如,在徐公平SEO博客的首页网址后面加入“/robots.txt”,即可打开该网站的robots文件,如图所示,文件里显示的内容是要告诉搜索引擎哪些网页希望被抓取,哪些不希望被抓取。因为网站中有一些无关紧要的网页,如“给我留言”或“联系方式”等网页,他们并不参与SEO排名,只是为了给用户看,此时可以利用robots文件把他们屏蔽,即告诉搜索引擎不要抓取该页面。

了解robots文件,主动告诉搜索引擎该抓取什么内容

蜘蛛抓取网页的精力是有限的,即它每次来抓取网站,不会把网站所有文章、所有页面一次性全部抓取,尤其是当网站的内容越来越多时,它每次只能抓取一部分。那么怎样让他在有限的时间和精力下每次抓取更多希望被抓去的内容,从而提高效率呢?

这个时候我们就应该利用robots文件。小型网站没有该文件无所谓,但对于中大型网站来说,robots文件尤为重要,因为这些网站数据库非常庞大,蜘蛛来时,要像对待好朋友一样给它看最重要的东西,因为这个朋友精力有限,每次来都不能把所有的东西看一遍,所以就需要robots文件屏蔽一些无关紧要的东西。由于种种原因,某些文件不想被搜索引擎抓取,如处于隐私保护的内容,也可以用robots文件把搜索引擎屏蔽。

当然,有些人会问,如果robots文件没用好或出错了,会影响整个网站的收录,那为什么还有这个文件呢?这句话中的“出错了”是指将不该屏蔽的网址屏蔽了,导致蜘蛛不能抓取这些页面,这样搜索引擎就不会收录他们,那何谈排名呢?所以robots问价的格式一定要正确。下面我们一起来了解robots文件的用法:

1.“user-agent:*disallow:/”表示“禁止所有搜索引擎访问网站的任何部分”,这相当于该网站在搜索引擎里没有记录,也就谈不上排名。

2.“user-agent:*disallow:”表示“允许所有的robots访问”,即允许蜘蛛任意抓取并收录该网站。这里需要注意,前两条语法之间只相差一个“/”。

3.“user-agent:badbot disallow:/”表示“禁止某个搜索引擎的访问”。

4.“user-agent:baiduspider disallow:user-agent:*disallow:/”表示“允许某个搜索引擎的访问”。这里面的“baiduspider”是百度蜘蛛的名称,这条语法即是允许百度抓取该网站,而不允许其他搜索引擎抓取。

说了这么多,我们来举个例子,某个网站以前是做人才招聘的,现在要做汽车行业的,所以网站的内容要全部更换。删除有关职场资讯的文章,这样就会出现大量404页面、很多死链接,而这些链接以前已经被百度收录,但网站更换后蜘蛛再过来发现这些页面都不存在了,这就会留下很不好的印象。此时可以利用robots文件把死链接全部屏蔽,不让百度访问这些已不存在的页面即可。

最后我们来看看使用robots文件应该注意什么?首先,在不确定文件格式怎么写之前,可以先新建一个文本文档,注意robots文件名必须是robots.txt,其后缀是txt并且是小写的,不可以随便更改,否则搜索引擎识别不了。然后打开该文件,可以直接复制粘贴别人的格式,

Robots文件格式是一条命令一行,下一条命令必须换行。还有,“disallow: ”后面必须有一个空格,这是规范写法。


  • 链接: http://www.daiboy.com/article/12497.html
  • 顶一下
    (0)
    0%
    踩一下
    (0)
    0%
    上一篇:牛B站长挖掘长尾关键词的方法 下一篇:选好SEO常用工具,助力网络营销
    相关阅读
    
    版权所有: 前卫SEO--致力于做实用的SEO优化学习网站 Email:
    通信局备案:苏ICP备17010502号
    本站内容来自于互联网,仅供用于网络技术学习,学习中请遵循相关法律法规.