如何在Apache下从我的网站阻止mp3搜寻器?
时间:2020-03-05 18:58:19 来源:igfitidea点击:
有什么方法可以使用.htaccess文件或者类似文件阻止来自引荐来源网址的访问? http://www.dizzler.com是一个基于Flash的站点,它使我们可以浏览已爬网的公共mp3库,因此我的带宽正在被人们消耗。
编辑:Dizzler仍在进入(可能在所有情况下均未指示引荐来源网址),因此我将所有mp3移至新文件夹,禁用了目录浏览,并创建了robots.txt文件以(希望)防止被索引再次。接受的答案已更改,以反映我先前的尝试是徒劳的:P
解决方案
回答
这不是一个非常优雅的解决方案,但是我们可以阻止该网站的抓取漫游器,然后重命名mp3文件以断开该网站上已经存在的链接。
回答
在此站点上:(将其放入.htaccess文件中)
RewriteEngine on RewriteCond %{HTTP_REFERER} ^http://((www\.)?dizzler\.com [NC] RewriteRule .* - [F]
回答
我们可以使用类似
SetEnvIfNoCase Referer dizzler.com spammer=yes Order allow,deny allow from all deny from env=spammer
资料来源:http://codex.wordpress.org/Combating_Comment_Spam/Denying_Access
回答
这就像是说我们要阻止垃圾邮件机器人在我们公开可见的页面上收集电子邮件一样,很难说出用户和僵尸程序之间的区别而又不强迫查看者登录以确认其身份。
我们可以使用robots.txt禁止实际上遵循这些规则的蜘蛛,但这只是它们的立场,而不是服务器的立场。有一个页面说明如何捕获违反规则并明确禁止它们的页面:使用Apache阻止不良机器人[evolt.org]
如果我们想要一种简单的方法来停止眩晕,尤其是使用.htaccess,则应该可以将其弹出并添加:
<Directory /directoryName/subDirectory> Order Allow,Deny Allow from all Deny from 66.232.150.219 </Directory>