• 助力10万中小企业在网上强大起来
    Seo+网络推广+营销模式创导公司
    网上没生意.推广找帝壹
    全年多接单.营销找帝壹
    • 电话:023-68626707
    • TEL:13983709738
    • 售后QQ:460150110
  • 元宵大吉
    当前位置:网络营销 > seo优化推广技巧>Seo优化手法中关于robots.txt写法与作用进行分解

    Seo优化手法中关于robots.txt写法与作用进行分解

    发布时间:2016-10-07 10:07:39文章分类:seo优化推广技巧编辑作者:管理员阅读量:484344

    网站抓取是被对的,等着被抓取;我们如何让网站与搜索引擎对话,哪些文章能被收录,哪些文件夹、图片类型允许收录;那些文件不允许被收录。请允许我哪些搜索引擎收录,不允许哪些搜索引擎进行收录。都是可以通robots.txt 来进行跟搜索引擎的机器人进行对话完成。下面将robots.txt写法与作用进行分解如下:

    robots.txt写法大全和robots.txt语法的作用:

    1如果允许所有搜索引擎访问网站的所有部分的话 我们可以建立一个空白的文本文档,命名为robots.txt放在网站的根目录下即可。

    robots.txt写法如下:

    User-agent: *

    Disallow:

    或者

    User-agent: *

    Allow: /

    2如果我们禁止所有搜索引擎访问网站的所有部分的话

    robots.txt写法如下:

    User-agent: *

    Disallow: /

    3如果我们需要某一个搜索引擎的抓取的话,比如百度,禁止百度索引我们的网站的话

    robots.txt写法如下:

    User-agent: Baiduspider

    Disallow: /

    4如果我们禁止Google索引我们的网站的话,其实跟示例3一样,就是User-agent:头文件的蜘蛛名字改成谷歌的Googlebot

    即可

    robots.txt写法如下:

    User-agent: Googlebot

    Disallow: /

    5如果我们禁止除Google外的一切搜索引擎索引我们的网站话

    robots.txt写法如下:

    User-agent: Googlebot

    Disallow:

    User-agent: *

    Disallow: /

    6如果我们禁止除百度外的一切搜索引擎索引我们的网站的话

    robots.txt写法如下:

    User-agent: Baiduspider

    Disallow:

    User-agent: *

    Disallow: /

    7如果我们需要禁止蜘蛛访问某个目录,比如禁止admincssimages等目录被索引的话

    robots.txt写法如下:

    User-agent: *

    Disallow: /css/

    Disallow: /admin/

    Disallow: /images/

    8如果我们允许蜘蛛访问我们网站的某个目录中的某些特定网址的话

    robots.txt写法如下:

    User-agent: *

    Allow: /css/my

    Allow: /admin/html

    Allow: /images/index

    Disallow: /css/

    Disallow: /admin/

    Disallow: /images/

    9我们看某些网站的robots.txt里的Disallow或者Allow里会看很多的符号,比如问号星号什么的,如果使用“*”,主要是限制访问某个后缀的域名,禁止访问/html/目录下的所有以".htm"为后缀的URL(包含子目录)

    robots.txt写法如下:

    User-agent: *

    Disallow: /html/*.htm

    10如果我们使用“$”的话是仅允许访问某目录下某个后缀的文件

    robots.txt写法如下:

    User-agent: *

    Allow: .asp$

    Disallow: /

    11如果我们禁止索引网站中所有的动态页面(这里限制的是有“?”的域名,例如index.asp?id=1

    robots.txt写法如下:

    User-agent: *

    Disallow: /*?*

    有些时候,我们为了节省服务器资源,需要禁止各类搜索引擎来索引我们网站上的图片,这里的办法除了使用“Disallow: /images/”这样的直接屏蔽文件夹的方式之外,还可以采取直接屏蔽图片后缀名的方式。

    示例12

    如果我们禁止Google搜索引擎抓取我们网站上的所有图片(如果你的网站使用其他后缀的图片名称,在这里也可以直接添加)

    robots.txt写法如下:

    User-agent: Googlebot

    Disallow: .jpg$

    Disallow: .jpeg$

    Disallow: .gif$

    Disallow: .png$

    Disallow: .bmp$

    13如果我们禁止百度搜索引擎抓取我们网站上的所有图片的话

    robots.txt写法如下:

    User-agent: Baiduspider

    Disallow: .jpg$

    Disallow: .jpeg$

    Disallow: .gif$

    Disallow: .png$

    Disallow: .bmp$

    14除了百度之外和Google之外,禁止其他搜索引擎抓取你网站的图片

    (注意,在这里为了让各位看的更明白,因此使用一个比较笨的办法——对于单个搜索引擎单独定义。)

    robots.txt写法如下:

    User-agent: Baiduspider

    Allow: .jpeg$

    Allow: .gif$

    Allow: .png$

    Allow: .bmp$

    User-agent: Googlebot

    Allow: .jpeg$

    Allow: .gif$

    Allow: .png$

    Allow: .bmp$

    User-agent: *

    Disallow: .jpg$

    Disallow: .jpeg$

    Disallow: .gif$

    Disallow: .png$

    Disallow: .bmp$

    15仅仅允许百度抓取网站上的“JPG”格式文件

    (其他搜索引擎的办法也和这个一样,只是修改一下搜索引擎的蜘蛛名称即可)

    robots.txt写法如下:

    User-agent: Baiduspider

    Allow: .jpg$

    Disallow: .jpeg$

    Disallow: .gif$

    Disallow: .png$

    Disallow: .bmp$

    16仅仅禁止百度抓取网站上的“JPG”格式文件

    robots.txt写法如下:

    User-agent: Baiduspider

    Disallow: .jpg$

    17如果 ? 表示一个会话 ID,您可排除所有包含该 ID 的网址,确保 Googlebot 不会抓取重复的网页。但是,以 ? 结尾的网址可能是您要包含的网页版本。在此情况下,沃恩可将与 Allow 指令配合使用。

    robots.txt写法如下:

    User-agent:*

    Allow:/*?$

    Disallow:/*?

    Disallow:/ *?

    一行将拦截包含 ? 的网址(具体而言,它将拦截所有以您的域名开头、后接任意字符串,然后是问号 (?),而后又是任意字符串的网址)。Allow: /*?$ 一行将允许包含任何以 ? 结尾的网址(具体而言,它将允许包含所有以您的域名开头、后接任意字符串,然后是问号 (?),问号之后没有任何字符的网址)。

    18如果我们想禁止搜索引擎对一些目录或者某些URL访问的话,可以截取部分的名字

    robots.txt写法如下:

    User-agent:*

    Disallow: /plus/news.asp

    以上内容供大家参考下即可,来源网上,进行整理;分享给大家,希望对大家有用。

    ( 责任编辑:SEO优化-帝壹网络扫一扫关注我吧 ) 
    本文由网络推广实战家帝壹网络品牌(http://www.diy88.com.cn/)精心原创编辑,如果您还想了解更多关于SEO优化的文章,请点击查看seo营销网络营销推广的其它文章,转发请注明来源及版权归属。
    网站推广网站整合营销服务商,服务咨询电话:023-68626707

    详情访问官网:www.diy88.com.cn  网络营销,网络整合推广,高端网站制作,营销落地页策划,关键词优化排名,顾问营销培训,微信平台开发,微信营销推广,新闻稿发布,口碑问答营销,价格优惠多多 ,多种套餐服务选择,有买有送。
    官方推荐关键字:网络营销-网络推广 - 重庆网络推广 - 网站推广 - 网络推广公司 重庆网站推广
    【网络营销推广服务商】重庆帝壹网络公司 www.diy88.com.cn

    本文标签:robots.txt写法与作用  

    相关评论


    您的评论

    姓名:
    电话:
    评论内容:

    极力推荐

    相关案例

    • 重庆网站推广客户重庆传志塑料制品有限公司
    • 重庆网站推广客户重庆传志塑料制品有限公司

      网络推广客户公司简介:重庆传志塑料制品有限公司是在市场经济飞速发展,行业产品越来越细分的情况下成立的,公司主要致力于,重庆PE管、钢塑复合管、钢丝网骨架管、PSP管的研发、销售、加工。公司禀...

    • 重庆网络营销客户-重庆多达西语学校
    • 重庆网络营销客户-重庆多达西语学校

      陈大果老师与多达教育徐校长合影一、网络推广客户学校简介: 重庆新泽西多国语言学习中心主要开设的语种有英、日、韩、法、德、西班牙语、泰语、俄语等,是重庆市语种开设最全面,教学手段最先进的专...

    使命:我们让互联网的营销、推广、投资加盟不再困难!愿景:我们助力千万中小企业开启互联网营销新时代! 网址:www.diy88.com.cn

    知识导航:网站建设知识 | 网络推广知识 | 行业网站建设 | 网络营销推广 | 网站优化seo技巧 | 常见问题 | 建站须知

    版权所有:重庆帝壹网络营销推广公司©allright 2005-2025
    帝壹网络15年专业从事:重庆网络营销重庆网络推广的一家重庆网络公司-15年专注:seo优化排名技术、重庆网站建设-公司品牌宣传打造、生产产品的推广实战家

    搜索引擎优化用帝龙神站,快速锁定搜索引擎第一页前十名。帝壹自创:精准流量变现营销模式,让企业快速抓住潜在客户。

    热线电话:023-68626707 客服QQ:460150110 网站备案号:渝ICP备07501399 号

    在线咨询
    咨询热线
    关注微信

    扫一扫

    全国免费咨询热线
    13983709738

    返回顶部