"我的小公主"搜索到(4)结果

有些时候我们建立的网站并不希望被搜索引擎索引,然而搜素引擎还会自动的索引网站,即使设置了账号登陆等访问权限。本文从 robots.txt 文件和 nginx 配置文件入手,彻底屏蔽了常见的搜索引擎。robot.txt 屏蔽User-agent: * Disallow: / 另存为 robot.txt 放在网站根目录。nginx 屏蔽cd...

 阅读 (3209)   2016-07-17   评论 (0) 
  nginx  robots 

防止跨站就是指一台服务器多个站点之间只要有一个站点出来bug就可以利用此站点来攻入其它站点了,本文章下面来为各位介绍nginx + php-fpm fastcgi防止跨站、跨目录的安全设置ec(2);0x00 实验目的根据文章”PHP绕过open_basedir列目录的研究”通过测试不同的配置验证本文的绕过basedir的方法是否有效,从...

 阅读 (1800)   2016-08-10   评论 (0) 

对于做国内站的我来说,我不希望国外蜘蛛来访问我的网站,特别是个别垃圾蜘蛛,它们访问特别频繁。这些垃圾流量多了之后,严重浪费服务器的带宽和资源。通过判断user agent,在nginx中禁用这些蜘蛛可以节省一些流量,也可以防止一些恶意的访问。1、进入nginx的配置目录,例如cd /usr/local/nginx/conf2、添加agen...

 阅读 (2127)   2016-08-10   评论 (0) 
  nginx  user_agent 

查看日志,有一个[warn]: 3660#0: 20000 worker_connections are more than open file resource limit: 1024 !!原来安装好nginx之后,默认最大的并发数为1024,如果你的网站访问量过大,已经远远超过1024这个并发数,那你就要修改worker_connec...

 阅读 (1665)   2016-08-11   评论 (0)