请选择 进入手机版 | 继续访问电脑版

巅峰霸主

 找回密码
 立即注册

QQ登录

只需一步,快速开始

[服务器] Nginx禁止访问某个文件如robots.txt防泄漏web目录设置方法

[复制链接] [添加相关主题]
烈火大地 发表于 2019-6-4 09:19:47 | 显示全部楼层 |阅读模式
阿里云服务器2折起!

游客只能显示部分内容,请登录后查看帖子完整内容!!!注册完全免费。

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
Nginx禁止访问某个文件如robots.txt防泄漏web目录设置方法

关于robots.txt文件:搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信 息。您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot 访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。

访问xxx/robots.txt,可以得知我们网站中存在/admin和/bbs,其中/admin是关于后台管理的目录,把这个路径轻易的暴漏显然是不太安全的,下面我们可以通过禁止访问.txt类型的文件来,增加网站的安全性。

nginx下禁止访问robots.txt的设置方法
130408080744381.jpg
修改nginx.conf文件,vim /usr/local/nginx/conf/nginx.conf

  1.     location ~* \.(txt|doc)$ {  
  2.                 root   /usr/local/nginx/html;  
  3.                 deny all;  
  4.         }
复制代码


指定403.html文件的配置信息

  1.     error_page  403              /403.html;  
  2.        location = /403.html {  
  3.             root  html;  
  4.        }
复制代码


重新加载配置文件

    /usr/local/nginx/sbin/nginx -s reload

再次访问robots.txt,发现提示无法访问该文件了。


通过这种方法可以在某种程度上保护网站安全,避免黑客通过访问robots.txt猜到我们网站的目录结构或者说有哪些真实存在的目录和文件。
130408080744382.jpg
当然还可以禁止其他指定类型的文件比如.doc、.xsl等等,方法是同样的。
<
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|巅峰霸主 ( 京ICP备12023415号-2 )

声明:本站的任何信息和内容仅代表作者的立场和观点,与巅峰霸主网无关。

禁止在巅峰霸主网发布任何与《中华人民共和国法律》相抵触的言论!

GMT+8, 2019-8-20 05:34 , Processed in 0.168545 second(s), 25 queries .

Powered by Discuz! X3.4

© 2001-2017 Comsenz Inc.

快速回复 返回顶部 返回列表