首页 网站优化 Robots.txt协议的写法及屏蔽文件

Robots.txt协议的写法及屏蔽文件

作者头像 佚名
2025-11-25 阅读 Robots.txt协议

  网站的robots.txt文件设置是不是合理,哪些文件或许目录需求屏蔽、哪些设置办法对网站运营有优点?有人复制出相同的内容以应付不同搜索引擎的排名规则。然而,一旦搜索引擎发现站内有大量“克隆”的页面,就会给以惩罚,不收录这些重复的页面。

  另一方面,我们网站的内容属于个人私密文件,不想暴露在搜索引擎中。这时,robot.txt就是为了解决这两个问题。

  一、什么是robots.txt?

  

  robots.txt 是网站和搜索引擎的协议的纯文本文件。当一个搜索引擎蜘蛛来访问站点时,它首先爬行来检查该站点根目录下是否存在robots.txt,

  如果存在,根据文件内容来确定访问范围,如果没有,蜘蛛就沿着链接抓取。robots.txt 放在项目的根目录下。

  二、 robots.txt基本语法:

  1) 、允许所有搜索引擎访问网站的所有部分

  robots.txt写法如下:

  User-agent: *

  Disallow:

  或者

  User-agent: *

  Allow: /

  注意: 1. 全国个英文要大写,冒号是英文状态下,冒号后面有一个空格,这几点一定不能写错。

  2) 、禁止所有搜索引擎访问网站的所有部分

  robots.txt写法如下:

  User-agent: *

  Disallow: /

  3) 、只需要禁止蜘蛛访问某个目录,比如禁止admin、css、images等目录被索引

  robots.txt写法如下:

  User-agent: *

  Disallow: /css/

  Disallow: /admin/

  Disallow: /images/

  注意:路径后面有斜杠和没有斜杠的区别:比如Disallow: /images/ 有斜杠是禁止抓取images整个文件夹,Disallow: /images 没有斜杠意思是凡是路径里面有/images关键词的都会被屏蔽

  4)、屏蔽一个文件夹/templets,但是又能抓取其中一个文件的写法:/templets/main

  robots.txt写法如下:

  User-agent: *

  Disallow: /templets

  Allow: /main

  5)、 禁止访问/html/目录下的所有以”.php”为后缀的URL(包含子目录)

  robots.txt写法如下:

  User-agent: *

  Disallow: /html/*.php

  6)、 仅允许访问某目录下某个后缀的文件,则使用“$”

  robots.txt写法如下:

  User-agent: *

  Allow: .html$

  Disallow: /

  7)、禁止索引网站中所有的动态页面

  比如这里限制的是有“?”的域名,例如index.php?id=1

  robots.txt写法如下:

  User-agent: *

  Disallow: /*?*

  8)、 禁止搜索引擎抓取我们网站上的所有图片(如果你的网站使用其他后缀的图片名称,在这里也可以直接添加)

  有些时候,我们为了节省服务器资源,需要禁止各类搜索引擎来索引我们网站上的图片,这里的办法除了使用“Disallow: /images/”这样的直接屏蔽文件夹的方式之外,还 可以采取直接屏蔽图片后缀名的方式。

  robots.txt写法如下:

  User-agent: *

  Disallow: .jpg$

  Disallow: .jpeg$

  Disallow: .gif$

  Disallow: .png$

  Disallow: .bmp$

  三、写robots.txt要注意的地方:

  1)、 全国个英文要大写,冒号是英文状态下,冒号后面有一个空格,这几点一定不能写错。

  2.)、斜杠:/ 代表整个网站

  3)、如果“/”后面多了一个空格,则屏蔽整个网站

  4)、不要禁止正常的内容

  5)、生效时间是几天到两个月

  四、robots.txt文件对网站优化有什么作用?

  1、疾速增加网站权重和拜访量;

  2、制止某些文件被查找引擎索引,能够节约服务器带宽和网站拜访速度;

  3、为查找引擎供给一个简洁明了的索引环境

  五、哪些网站的目录需求运用robots.txt文件制止抓取?

  1)、图像目录

  图像是构成网站的首要组成元素。跟着现在建站越来越便利,许多cms的呈现,真实做到了会打字就会建网站,而正是由于如此便利,网上呈现了许多的同质化模板网站,被重复运用,这样的网站查找引擎是必定不喜爱的,就算是你的网站被录入了,那你的作用也是很差的。若是你非要用这种网站的话,主张你大概在robots.txt文件中进行屏蔽,一般的网站图像目录是:imags 或许 img;

  2)、网站模板目录

  cms的强大和灵敏,也致使了许多同质化的网站模板的呈现和乱用,高度的重复性模板在查找引擎中形成了一种冗余,且模板文件常常与生成文件高度类似,相同易形成相同内容的呈现。对查找引擎很不友爱,严峻的直接被查找引擎打入冷宫,不得翻身,许多cms有具有独立的模板寄存目录,因而,大概进行模板目录的屏蔽。一般模板目录的文件目录是:templets

  3)、css、js目录的屏蔽

  css目录文件在查找引擎的抓取中没有用途,也无法供给有价值的信息。所以强烈主张在robots.txt文件中将其进行屏蔽,以进步查找引擎的索引质量。为查找引擎供给一个简洁明了的索引环境更易晋升网站友爱性。css款式的目录一般情况下是:css 或许 style,

  js文件在查找引擎中无法进行辨认,这里仅仅主张,能够对其进行屏蔽,这样做也有一个优点:为查找引擎供给一个简洁明了的索引环境;

  4)、屏蔽双页面的内容

  这里拿dedecms来举例吧。dedecms能够运用静态和动态url进行同一篇内容的拜访,若是你生成全站静态了,那你有必要屏蔽动态地址的url连接。

  这里有两个优点:

  ①、查找引擎对静态的url比动态的url更友爱、更简单录入;

  ②、避免静态、动态url能拜访同一篇文章而被查找引擎判为重复内容。这样做对查找引擎友爱性来说是有益无害的。

  5)、模板缓存目录

  许多cms程序都有缓存目录,这种缓存目录的优点我想不用说我们也明白了吧,能够十分有用的晋升网站的拜访速度,削减网站带宽,对用户体会也是极好的。不过,这样的缓存目录也有必定的缺陷,那就是会让查找引擎进行重复的抓取,一个网站中内容重复也是大祭,对网站百害而无一利。许多运用cms建站的兄弟都没有注意到,有必要要导致注重。

  6)、被删去的目录

  死链过多,对查找引擎优化来说,是丧命的。不能不导致站长的高度注重,。在网站的开展过程中,目录的删去和调整是不可避免的,若是你的网站当时目录不存在了,那有必要对此目录进行robots屏蔽,并回来正确的404过错页面。

  这里有一个争议性的疑问,关于网站后台办理目录是不是需求进行屏蔽,其实这个可有可无。在能确保网站安全的情况下,若是你的网站运营规划较小,就算网站目录呈现在robots.txt文件中,也没有多大疑问,这个我也见过许多网站这样设置的;但若是你的网站运营规划较大,对手过多,强烈主张千万别呈现网站后台管理目录的信息,以防被心怀叵测的人使用,危害你的利益;引擎越来越智能,关于网站的管理目录仍是能极好的辨认,并抛弃索引的。别的,我们在做网站后台的时分,也能够在页面元标签中增加:进行查找引擎的屏蔽抓取。

佚名 - 资深SEO专家

开耳 - 云优化创始人

资深SEO专家 | 20年行业经验

AI将彻底重构SEO的底层逻辑,搜索不再是 "关键词匹配" 的算法,而是 "用户意图理解" 的竞争。以 Google MUM、百度文心一言为代表的大模型,正在让搜索引擎具备跨模态、跨领域的深度语义分析能力。这意味着,AISEO的核心将从 "优化页面" 转向 "构建能被AI识别的价值生态"。

佚名 - 资深SEO专家

小高 - 云优化合伙人

AI模型专家 | 23年行业经验

AI不会取代SEOer,但 "不会用 AI的SEOer"会被取代。未来的 AI SEO 从业者,核心能力将从 "执行优化" 转向 "AI策略指挥"。用AI数据分析工具快速定位用户搜索痛点;判断哪些领域适合AI批量布局,哪些领域需要人工深耕建立壁垒,本质上是通过AI的策略能力,而非被AI工具牵着走。

佚名 - 资深SEO专家

寻觅 - 云优化创始人

AI运营专家 | 18年行业经验

AI应用的趋势是:"通用大模型+行业知识库+场景调优"成标配。工业实现全流程优化,医疗升级个性化方案,零售打通全链路经营。同时人机协同深化,AI解放重复劳动,人类聚焦策略创意,成为企业降本增效、创造增量价值的核心引擎。

佚名 - 资深SEO专家

海龙 - 云优化创始人

资深SEO专家 | 20年行业经验

未来三年,AI 将彻底重构 SEO 的底层逻辑,搜索不再是 "关键词匹配" 的游戏,而是 "用户意图理解" 的竞争。以 Google MUM、百度文心一言为代表的大模型,正在让搜索引擎具备跨模态、跨领域的深度语义分析能力。这意味着,AI SEO 的核心将从 "优化页面" 转向 "构建能被 AI 识别的价值生态"—— 内容生产会更依赖 AI 辅助的 "用户需求预判",外链和权威度的评估标准也将融入 AI 对内容关联性的动态分析,传统 SEO 的 "技巧红利" 将逐渐消失,"价值红利" 成为唯一通行证。

评论 (48)

评论列表

用户1

2024/9/6 13:09:01

SEO代理招商的套路多

来自SEO专员的回复:

2025/11/25 7:17:43

感谢您的留言:SEO行业鱼龙混杂,乱象丛生,今天大连网站优化就和大家分享下SEO行业里的一些套路,并教会您如何识别:1、隐藏费用。套路方式:初期报价低,但在合同中隐藏额外费用,如报告费、关键词优化费等。如何识别:在签约前要求完整透明的服务清单和费用结构,明确所有可能产生的费用,并在合同中详细列出。2、虚假案例和数据。套路方式:展示虚构的成功案例或伪造的排名提升数据。如何识别:要求提供案例的具体网址和关键词,亲自验证排名情况。使用第三方工具验证网站流量和排名历史。3、技术术语的滥用。套路:利用复杂的SEO专业术语,使客户感觉服务高端且难以理解,从而接受其推销。如何识别:要求对方用简单明了的语言解释其服务内容和预期效果,如果对方回避或继续使用模糊不清的表述,应谨慎考虑。

用户2

2024/9/6 13:09:02

seo搜索价格为何参差不齐

来自SEO专员的回复:

2025/11/25 6:57:43

感谢您的留言:关键词检索是一种信息检索技术,通过用户输入的关键词或短语,在海量数据(如网页、文档、数据库等)中快速定位与这些关键词相关的内容。它基于文本匹配、语义分析等技术,帮助用户高效、准确地获取所需信息

用户3

2024/9/6 13:09:02

seo推广是什么

来自SEO专员的回复:

2025/11/25 6:37:43

感谢您的留言:首先,确定目标关键词,这些关键词应与网站内容紧密相关且具有一定搜索量。其次,分析关键词竞争度,选择适合优化的关键词。然后,在网站内容中自然融入关键词,并控制关键词密度。同时,建设高质量的外部链接,提升网站权重。最后,定期监测和调整关键词策略,以优化网站在搜索引擎中的排名。

用户4

2024/9/6 13:09:03

seo网站结构优化

来自SEO专员的回复:

2025/11/25 6:17:43

感谢您的留言:SEO2.0时代是指搜索引擎优化行业进入的一个新阶段,这一时期搜索引擎的算法、功能以及用户行为都发生了显著变化,对SEO策略提出了更高的要求。SEO2.0时代的特点主要包括:1、用户体验为核心:更加强调网站的用户体验,包括页面加载速度、内容质量、导航的易用性以及移动友好性。搜索引擎开始更加重视能够满足用户真实需求的网站,用户体验成为影响排名的关键因素。2、链接策略的进化:传统的外链建设策略不再局限于数量,更注重质量。来自权威网站的自然链接、社交媒体分享、用户自发的书签和引用变得更为重要。链接建设策略更加注重内容的自然传播和价值共享。3、结构化数据的利用:搜索引擎更加偏好能够提供结构化数据的网站,如通过Schema.org标记的富媒体片段,使得搜索引擎能更容易理解和展示网站内容,提升搜索结果的展现形式和点击率。4、内容策略的深化:内容不再是单纯的关键字堆砌,而是转向深度、高质量、长尾内容的创作,旨在解决用户的具体问题,满足用户的搜索意图,从而提高用户满意度和网站权威性。

用户5

2024/9/6 13:09:01

seo网站优化与推广将来会有什么变化

管理员

2025/11/25 5:57:43

感谢您的留言,我们会尽快回复。

常见问题

立即获取免费AI营销方案

填写下方表单,为您提供专属的AI营销解决方案,帮助您的企业实现营销自动化,提升竞争力。

联系我们

有任何问题或需求,请填写以下表单,我们会尽快与您联系

关于云无限推广公司

云无限推广公司依托AI技术,为企业提供营销、运营及数据分析全场景支持,构建"AI+营销"与"AI+运营"双引擎服务模式。该模式不仅配备芯大脑舆情分析系统,更具备用户行为数据的深度挖掘与精准洞察能力,为企业决策提供数据支撑。

通过AI大模型与新媒体高效协同,可助力企业搭建"内容生产-流量捕获-商业转化"的全链路增长闭环,驱动业务持续提升。从算法策略优化到品牌声量管理,云无限推广公司始终以实战成效为导向,帮助企业在数字浪潮中把握发展机遇,强化竞争优势。

20+

行业经验

3000+

服务客户

5000+

成功案例

70+

专业团队

联系方式

电话微信同号

18810118859 / 邢经理

北京公司地址

北京市朝阳区东四环中路39号,华业国际中心B座212室

热门标签