首页 SEO教程 SEO优化 SEO视频教程 SEO方案 SEO案例 SEO术语 SEO问答 网站建设 站长资讯 百度官方资料 其他SEO教程 SEO百科 时事要闻
SEO入门教程 SEO基础教程 百度算法详解 SEO技能提升 移动搜索 SEO工具 SEO书籍 DIV+CSS 网站SEO准备 网站搭建案例 搜索引擎动态 网络营销
前卫SEO > SEO教程 >                          

【官方说法】robots文件是否支持中文目录

  • 类目 :SEO教程 | 上传日期: 2017-03-11 | 作者:admin | 浏览次数:
  •     

  有同学问百度站长学院一个关于robots的问题:我们有个站点的目录结构使用的是中文,这样式儿的:www.a.com/冒险岛/123.html,那在制作robots文件和sitemap文件的时候,可以直接使用中文吗?百度能获取到吗?在实际操作中我们发现,sitemap中有文件是可以生效的,但robots封禁貌似没有反应,所以想确认一下:robots文件是否支持中文?

  工程师解答:Baiduspider目前(2016年10月)在robots里是不支持中文的。

  同学追问:那我们进行UrlEncode编码会不会支持呢?比如这种:http://www.a.cn/%E7%89%B9%E6%AE%8A:%E6%B5%8F%E8%A7%88/%E7%94%9F%E6%AD%BB%E7%8B%99%E5%87%BB:%E7%99%BD%E9%93%B6%E5%8A%A0%E7%89%B9%E6%9E%97

  工程师解答:robots文件支持这种写法。但是否生效,还要取决于当时BaiduSpider抓取的是哪种形式结构的链接,如果是UrlEncode编码就可以生效,如果是中文就非常不幸了。

  --百度站长学院


  • 链接: http://www.daiboy.com/article/61.html
  • 顶一下
    (0)
    0%
    踩一下
    (0)
    0%
    上一篇:【投诉反馈】网站被镜像了怎么办,如何向百度 下一篇:【平台工具】官网保护工具使用帮助及注意事项
    相关阅读
    
    版权所有: 前卫SEO--致力于做实用的SEO优化学习网站 Email:
    通信局备案:苏ICP备17010502号
    本站内容来自于互联网,仅供用于网络技术学习,学习中请遵循相关法律法规.