又有人在抓 oschina 网站的数据了

红薯 发布于 2010/11/22 11:23
阅读 2K+
收藏 2

下面是 Nginx 的 access_log 中的记录

203.86.56.99 - - [22/Nov/2010:11:22:12 +0800] "GET /user/30084 HTTP/1.0" 403 700 "-" "-"
203.86.56.99 - - [22/Nov/2010:11:22:12 +0800] "GET /user/97243 HTTP/1.0" 403 700 "-" "-"
203.86.56.99 - - [22/Nov/2010:11:22:12 +0800] "GET /p/redhat_linux HTTP/1.0" 403 700 "-" "-"
203.86.56.99 - - [22/Nov/2010:11:22:12 +0800] "GET /p/silverstripe HTTP/1.0" 403 700 "-" "-"
203.86.56.99 - - [22/Nov/2010:11:22:12 +0800] "GET /user/3307 HTTP/1.0" 403 700 "-" "-"
203.86.56.99 - - [22/Nov/2010:11:22:12 +0800] "GET /user/81181 HTTP/1.0" 403 700 "-" "-"
203.86.56.99 - - [22/Nov/2010:11:22:12 +0800] "GET /action/project/go?id=102&p=download HTTP/1.0" 403 700 "-" "-"

IP地址:203.86.56.99(北京市),每秒钟请求十几个,只好黑掉它。

您查询的IP:203.86.56.99

  • 本站主数据:北京市
  • 参考数据一:北京市
  • 参考数据二:北京市 商务中心区通信科技有限公司
加载中
1
初级程序员
初级程序员

拉进黑名单~哈哈!

不知道上次 我发帖子公司访问不了!是不是因为被拉进黑名单了!那个时候我确实是自己写的点程序 配合spring的定时任务调度来抓oschina的数据,只是 综合资讯 和 软件资讯两块!绝对只是搞起耍一下~

从那之后 绝对没有用过!

0
jing31
jing31

每次只能用iptables干掉c段,有没有程序级别能干掉这种哦抓网站数据的行为,但是又不误杀搜索引擎的抓取呢?

0
bastetwang
bastetwang

可能可以过个ip频率过滤,如果某个ip在几秒内请求次数超过一个数量,就直接屏蔽。

0
1001
1001

,不是我,真的不是我。

0
1001
1001

额。对了。BOSS。你能不能把提交方式做能CTRL+ENTER的。

0
红薯
红薯

引用来自#5楼“1001”的帖子

额。对了。BOSS。你能不能把提交方式做能CTRL+ENTER的。

上次试过了,搞不定。

0
1001
1001

CTRL+ENTER触发SUBMIT。。。我去看看DZ里怎么搞的。 

0
红薯
红薯

那家伙还在抓,都几个小时了,全部返回403错误,估计是没人值守。

0
JackChu
JackChu

引用来自#8楼“红薯”的帖子

那家伙还在抓,都几个小时了,全部返回403错误,估计是没人值守。

肯定是个机器人~

0
1001
1001

  1. <textarea id="comment" onkeydown="if(event.ctrlKey&amp;&amp;event.keyCode==13){document.getElementById('submit')
  2. .click();return false};" cols="105" rows="10" name="comment"></textarea>
返回顶部
顶部