• 专注网络推广+营销16年
    全域获客=成本低+流量高+咨询多
    摆脱没客户的烦恼 -低成本快速接单
    帮你网上订单更多 - 免费领推广方案
    • 手机:139-8370-9738
    • 电话:023-6862-6707
    • 售后QQ:460-150-110
  • 精准变现模式
    当前位置:网络营销 > seo优化推广技巧>Seo优化手法中关于robots.txt写法与作用进行分解

    Seo优化手法中关于robots.txt写法与作用进行分解

    发布时间:2016-10-07 10:07:39文章分类:seo优化推广技巧编辑作者:管理员阅读量:1269744

    网站抓取是被对的,等着被抓取;我们如何让网站与搜索引擎对话,哪些文章能被收录,哪些文件夹、图片类型允许收录;那些文件不允许被收录。请允许我哪些搜索引擎收录,不允许哪些搜索引擎进行收录。都是可以通robots.txt 来进行跟搜索引擎的机器人进行对话完成。下面姜robots.txt写法与作用进行分解如下:

    robots.txt写法大全和robots.txt语法的作用:

    1如果允许所有搜索引擎访问网站的所有部分的话 我们可以建立一个空白的文本文档,命名为robots.txt放在网站的根目录下即可。

    robots.txt写法如下:

    User-agent: *

    Disallow:

    或者

    User-agent: *

    Allow: /

    2如果我们禁止所有搜索引擎访问网站的所有部分的话

    robots.txt写法如下:

    User-agent: *

    Disallow: /

    3如果我们需要某一个搜索引擎的抓取的话,比如百度,禁止百度索引我们的网站的话

    robots.txt写法如下:

    User-agent: Baiduspider

    Disallow: /

    4如果我们禁止Google索引我们的网站的话,其实跟示例3一样,就是User-agent:头文件的蜘蛛名字改成谷歌的Googlebot

    即可

    robots.txt写法如下:

    User-agent: Googlebot

    Disallow: /

    5如果我们禁止除Google外的一切搜索引擎索引我们的网站话

    robots.txt写法如下:

    User-agent: Googlebot

    Disallow:

    User-agent: *

    Disallow: /

    6如果我们禁止除百度外的一切搜索引擎索引我们的网站的话

    robots.txt写法如下:

    User-agent: Baiduspider

    Disallow:

    User-agent: *

    Disallow: /

    7如果我们需要禁止蜘蛛访问某个目录,比如禁止admincssimages等目录被索引的话

    robots.txt写法如下:

    User-agent: *

    Disallow: /css/

    Disallow: /admin/

    Disallow: /images/

    8如果我们允许蜘蛛访问我们网站的某个目录中的某些特定网址的话

    robots.txt写法如下:

    User-agent: *

    Allow: /css/my

    Allow: /admin/html

    Allow: /images/index

    Disallow: /css/

    Disallow: /admin/

    Disallow: /images/

    9我们看某些网站的robots.txt里的Disallow或者Allow里会看很多的符号,比如问号星号什么的,如果使用“*”,主要是限制访问某个后缀的域名,禁止访问/html/目录下的所有以".htm"为后缀的URL(包含子目录)

    robots.txt写法如下:

    User-agent: *

    Disallow: /html/*.htm

    10如果我们使用“$”的话是仅允许访问某目录下某个后缀的文件

    robots.txt写法如下:

    User-agent: *

    Allow: .asp$

    Disallow: /

    11如果我们禁止索引网站中所有的动态页面(这里限制的是有“?”的域名,例如index.asp?id=1

    robots.txt写法如下:

    User-agent: *

    Disallow: /*?*

    有些时候,我们为了节省服务器资源,需要禁止各类搜索引擎来索引我们网站上的图片,这里的办法除了使用“Disallow: /images/”这样的直接屏蔽文件夹的方式之外,还可以采取直接屏蔽图片后缀名的方式。

    示例12

    如果我们禁止Google搜索引擎抓取我们网站上的所有图片(如果你的网站使用其他后缀的图片名称,在这里也可以直接添加)

    robots.txt写法如下:

    User-agent: Googlebot

    Disallow: .jpg$

    Disallow: .jpeg$

    Disallow: .gif$

    Disallow: .png$

    Disallow: .bmp$

    13如果我们禁止百度搜索引擎抓取我们网站上的所有图片的话

    robots.txt写法如下:

    User-agent: Baiduspider

    Disallow: .jpg$

    Disallow: .jpeg$

    Disallow: .gif$

    Disallow: .png$

    Disallow: .bmp$

    14除了百度之外和Google之外,禁止其他搜索引擎抓取你网站的图片

    (注意,在这里为了让各位看的更明白,因此使用一个比较笨的办法——对于单个搜索引擎单独定义。)

    robots.txt写法如下:

    User-agent: Baiduspider

    Allow: .jpeg$

    Allow: .gif$

    Allow: .png$

    Allow: .bmp$

    User-agent: Googlebot

    Allow: .jpeg$

    Allow: .gif$

    Allow: .png$

    Allow: .bmp$

    User-agent: *

    Disallow: .jpg$

    Disallow: .jpeg$

    Disallow: .gif$

    Disallow: .png$

    Disallow: .bmp$

    15仅仅允许百度抓取网站上的“JPG”格式文件

    (其他搜索引擎的办法也和这个一样,只是修改一下搜索引擎的蜘蛛名称即可)

    robots.txt写法如下:

    User-agent: Baiduspider

    Allow: .jpg$

    Disallow: .jpeg$

    Disallow: .gif$

    Disallow: .png$

    Disallow: .bmp$

    16仅仅禁止百度抓取网站上的“JPG”格式文件

    robots.txt写法如下:

    User-agent: Baiduspider

    Disallow: .jpg$

    17如果 ? 表示一个会话 ID,您可排除所有包含该 ID 的网址,确保 Googlebot 不会抓取重复的网页。但是,以 ? 结尾的网址可能是您要包含的网页版本。在此情况下,沃恩可姜与 Allow 指令配合使用。

    robots.txt写法如下:

    User-agent:*

    Allow:/*?$

    Disallow:/*?

    Disallow:/ *?

    一行姜拦截包含 ? 的网址(具体而言,它姜拦截所有以您的域名开头、后接任意字符串,然后是问号 (?),而后又是任意字符串的网址)。Allow: /*?$ 一行姜允许包含任何以 ? 结尾的网址(具体而言,它姜允许包含所有以您的域名开头、后接任意字符串,然后是问号 (?),问号之后没有任何字符的网址)。

    18如果我们想禁止搜索引擎对一些目录或者某些URL访问的话,可以截取部分的名字

    robots.txt写法如下:

    User-agent:*

    Disallow: /plus/news.asp

    以上内容供大家参考下即可,来源网上,进行整理;分享给大家,希望对大家有用。

    ( 责任编辑:SEO优化-帝壹推广获客解决方案专家 ) 
    本文由网络推广实战家帝壹网络品牌精心原创编辑,如果您还想了解更多关于SEO推广的文章,请点击查看seo营销网络营销推广的其它文章,转发请注明来源及版权归属。
    网站推广,网站整合营销服务商,服务咨询电话:023-68626707

    帝壹网络营销推广帮助企业提高业绩

    主营服务:网络营销,网络整合推广,高端网站制作,营销落地页策划,关键词优化排名,快照优化排名,顾问营销培训,微信平台开发,微信营销推广,新闻稿发布,口碑问答营销,价格优惠多多 ,多种套餐服务选择,有买有送。
    本栏目推荐关键字:重庆网络推广 - 网站推广 -搜索引擎优化排名- 网络推广公司 -重庆seo推广公司

    新一代seo网站与信息推广服务商-帝壹网络

    本文标签:robots.txt写法与作用  

    相关评论

    评论人:刘小芳    评论时间:2019.01.01
    感谢小编,这8大标准,让我明白了网络营销文案中不销而销的真谛。
    评论人:张先生    评论时间:2021.02.19
    网络营销看来真不是那么简单的事,多重视人才,投入资金打造团队也不是一个小企业能做的,外包给网络推广公司也是一条路。
    评论人:白小姐    评论时间:2019.12.17
    作为工作多年的网络推广工作者,对作者的整理的资料,点赞。我呢一直是作单一的seo推广,看了这篇文章,我准备以后进行多个方法进我公司的推广工作。感谢作者的分享。
    评论人:李先生    评论时间:2021.09.18
    未来的网络营销竞争,可能不是技术的竞争,而是营销策划的比拼,网络推广是一个术层面的技巧,不是网络营销的全局。贵公司厚厚的全局观与文章思维的分享,找动了我。
    评论人:田先生    评论时间:2019.12.17
    偶看这篇文章,既平凡,又高大尚。平凡的是语言,高大尚的是对seo的不同见解。作为多年的seo工作,我对作者有如此深的见解表示敬佩。希望有机会能作者,面对面的学习。
    评论人:张好然    评论时间:2021.02.20
    网络营销看来不是一个简单的功夫,没有得几年功夫还真不行,已经留下联系方式,请联系我

    点击评论

    极力推荐

    相关案例

    • 晶宇门窗厂通过网络推广年营业额达500万以上
    • 晶宇门窗厂通过网络推广年营业额达500万以上

      一、重庆晶宇网络营销项目背景:单位名称:重庆晶宇金属门窗厂主要从事:卷帘门、卷闸门、防火门、工业门行业已有20多年,积累了丰富门业生产、销售、批发的经验。想通过互联网转型的一家机械生产型厂家...

    • 迈格纳机电依靠网络推广获得一年盈利50多万
    • 迈格纳机电依靠网络推广获得一年盈利50多万

      网络推广项目背景: 重庆迈格纳机电技术有限公司(原重庆展捷机电)是从事五金机电产品代理及销售和配套服务的专业供应商。经营电动工具,五金工具,气动工具,液压工具,焊割工具和...

    • 富豪汽车装饰网络来客上升-网络推广客户
    • 富豪汽车装饰网络来客上升-网络推广客户

      一、网络推广项目背景: 重庆富豪汽车装饰是经国家相关部门批准注册的企业,主营汽车装饰用品等业务,重庆富豪汽车装饰是一家专业经营汽车装饰、贴膜、汽车音响、椅套、坐...

    • 重庆网站推广客户传志塑料制品有限公司
    • 重庆网站推广客户传志塑料制品有限公司

      网络推广客户公司简介:重庆传志塑料制品有限公司是在市场经济飞速发展,行业产品越来越细分的情况下成立的,公司主要致力于,重庆PE管、钢塑复合管、钢丝网骨架管、PSP管的研发、销售、加工。公司禀...

    • 多达集团推广合作结果从50万做到500万的业绩
    • 多达集团推广合作结果从50万做到500万的业绩

      陈大果老师与多达教育徐校长合影一、网络推广客户学校简介: 重庆新泽西多国语言学习中心主要开设的语种有英、日、韩、法、德、西班牙语、泰语、俄语等,是重庆市语种开设最全面,教学手段最先进的专...

    使命:我们让互联网的营销+推广+获客不再困难!愿景:让一路跟着帝壹推广的企业家,过上体面而有尊严的小日子!

       版权所有:重庆帝一网络(c)2005-2025
    帝壹网络10余年专业从事:网络营销、网络推广、视频推广、网站推广的一家重庆网络公司-16年专注:seo优化排名技术、网站建设-公司品牌宣传打造;生产型产品的推广获客实战专家

        搜索引擎优化用帝龙神站,快速锁定搜索引擎首页前十名。帝壹自创:精准流量变现营销模式,让企业快速抓住潜在客户,让客户主动找你,提升公司网络营销业绩。

    网络推广获客热线电话:023-68626707   帝壹法律顾问:重庆君毅律师事务所

    在线咨询
    咨询热线
    关注微信

    扫一扫

    全国免费咨询热线
    13983709738

    返回顶部