总是有人会乱扫你网站的漏洞,恶意扫描后台地址,还有恶意采集怎么办

总是有人会乱扫你网站的漏洞,恶意扫描后台地址,还有恶意采集、恶意镜像你的网站。这些,可以从网站日志文件中找到他们的ip。然后,可以我们使用.htaccess文件或者Apache网站配置文件httpd.conf文件来禁止这些ip或者ip段的访问。

图片[1]-总是有人会乱扫你网站的漏洞,恶意扫描后台地址,还有恶意采集怎么办-小四运营

.htaccess文件

这对于apache服务器来说,非常方便。我们只需要在.htaccess文件中,顶部添加如下内容就可以屏蔽指定ip(文中列出的ip都是曾经尝试扫描后台网站的ip):

Order Allow,Deny 
Allow from all
Deny from 121.196.99.99

这样,就可以把121.196.99.99这个ip加入访问黑名单。当他尝试访问网站时,直接返回一个403错误。

图片[2]-总是有人会乱扫你网站的漏洞,恶意扫描后台地址,还有恶意采集怎么办-小四运营

当然,你也可以通过如下代码,禁止0-255即ip段的访问:禁止121.196.99.0-121.196.255的ip段访问

Order Allow,Deny 
Allow from all
Deny from 121.196.99

最后,你可以添加多个ip来禁止这些ip访问,ip之间用空格隔开即可:

Order Allow,Deny 
Allow from all
Deny from 121.196.99.99 39.101.185.229 120.26.50.66 39.101.185.229 104.155.34.94 120.26.50.66

以上这些ip都是恶意扫描各种网站平台漏洞的ip,或者扫描WP插件漏洞的ip。

图片[3]-总是有人会乱扫你网站的漏洞,恶意扫描后台地址,还有恶意采集怎么办-小四运营

下面这段代码是屏蔽某些蜘蛛的方法:匹配了Firefox 40.1版本的用户以及百度蜘蛛访问(这里只是举例子)。

Order Allow,Deny 
Allow from all
SetEnvIfNoCase User-Agent ^.*Firefox/40.1.* BADBOT
SetEnvIfNoCase User-Agent ^.*Baiduspider.* BADBOT
Deny from env=BADBOT

修改完成以后,直接.htaccess保存文件即可,无需重启apache。保存文件,立马生效。

当然,如果你测试后发现无法屏蔽ip的访问,可能是你的.htaccess文件不支持这种方法。那么你可以把这些代码添加到Apache的httpd.conf文件中,完成后需要重启apache。

我这里,实测是可以用.htaccess通过上述代码完成禁止某些ip和User-Agent访问的。User-Agent你可以理解为,你上网用的浏览器就是User-Agent。

    © 版权声明
    THE END
    喜欢就支持一下吧
    点赞0 分享
    评论 抢沙发

    请登录后发表评论

      暂无评论内容