免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
12下一页
最近访问板块 发新帖
查看: 5064 | 回复: 13

[Web] 最近又一次惨痛的 百度盗链问题 [复制链接]

论坛徽章:
0
发表于 2007-06-27 21:15 |显示全部楼层
最近遇到百度mp3盗链问题,
百度那流氓特别狠,每次都能搞去几十M的带宽,今又折腾半宿,而且网站一晚上算是停掉了。
1。大家有好的解决方法吗?我是linux+apache
2。linux有没有什么命令把连接数最多的IP列举出来?

[ 本帖最后由 mmqq888 于 2007-6-28 01:34 编辑 ]

论坛徽章:
0
发表于 2007-06-28 08:48 |显示全部楼层
发现被盗链,马上改文件名。

论坛徽章:
0
发表于 2007-06-29 16:24 |显示全部楼层
限制连接数吧

再加上防盗链处理,呵呵

再盗的难度就很大了吧

论坛徽章:
1
2015年迎新春徽章
日期:2015-03-04 09:49:45
发表于 2007-06-29 16:34 |显示全部楼层
百度好像支持robots.txt, 自己在网站根目录下写一个就ok了

论坛徽章:
1
2015年迎新春徽章
日期:2015-03-04 09:49:45
发表于 2007-06-30 00:03 |显示全部楼层
原帖由 harbinbeer 于 2007-6-29 21:12 发表
好像只有百度不支持robots。txt

不会吧, 除非百度说话更fp一样
http://www.baidu.com/search/robots.html

论坛徽章:
0
发表于 2007-06-30 11:20 |显示全部楼层
baidu的蜘蛛的确不太遵守robots.txt....
说的一套,做的一套,用 .htacess 文件对 Baidu的蜘蛛进行拦截吧

论坛徽章:
0
发表于 2007-06-30 14:00 |显示全部楼层
百度不是很严格的遵守ROBOTS的。用AWSTATS一统计就知道了。其它的搜索引擎,如果你在ROBOTS中禁止访问,他们是先读取ROBOTS,然后就停止搜索。BAIDU是照来不误。

论坛徽章:
0
发表于 2007-06-30 21:46 |显示全部楼层
你可以用 SetIfEnv 来对付盗链和蜘蛛

论坛徽章:
0
发表于 2007-07-01 16:47 |显示全部楼层
楼上的能不能具体点?谢谢

论坛徽章:
0
发表于 2007-07-01 17:05 |显示全部楼层
Oh,sorry,是我打错了,应该是 SetEnvIf

详细点儿的啊
http://www.google.cn/search?comp ... =SetEnvIf&meta=

基本上的流程就是
1. 你通過 SetEnvIf 來根據條件設置個 Env 變量
2. 然後在你的 Directory 容器中,根據 Env 變量來判斷是否允許用戶的訪問

[ 本帖最后由 alvis 于 2007-7-1 17:49 编辑 ]
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP