下载APP
登录
关闭
讲堂
算法训练营
Python 进阶训练营
企业服务
极客商城
客户端下载
兑换中心
渠道合作
推荐作者
当前播放: 56 | preaccess阶段:对请求做限制的limit_req模块
00:00 / 00:00
标清
  • 标清
1.0x
  • 2.0x
  • 1.5x
  • 1.25x
  • 1.0x
  • 0.5x
网页全屏
全屏
00:00
付费课程,可试看

Nginx核心知识100讲

共155讲 · 155课时,约1300分钟
18537
免费
01 | 课程综述
免费
02 | Nginx适用于哪些场景?
免费
03 | Nginx出现的历史背景
免费
04 | 为什么用Nginx:它的 5 ...
免费
05 | Nginx的四个主要组成部分
06 | Nginx的版本发布历史
07 | 选择哪一个Nginx发行版本...
08 | 编译出适合自己的Nginx
09 | Nginx配置文件的通用语法...
10 | Nginx命令行及演示:重载...
11 | 用Nginx搭建一个可用的静...
12 | 用Nginx搭建一个具备缓存...
13 | 用GoAccess实现可视化并实...
14 | 从网络原理来看SSL安全协...
15 | 对称加密与非对称加密各自...
16 | SSL证书的公信力是如何保...
17 | SSL协议握手时Nginx的性能...
18 | 用免费SSL证书实现一个HTT...
19 | 基于OpenResty用Lua语言...
20 | Nginx的请求处理流程
21 | Nginx的进程结构
22 | Nginx的进程结构实例演示
23 | 使用信号管理Nginx的父子...
24 | reload重载配置文件的真相
25 | 热升级的完整流程
26 | 优雅地关闭worker进程
27 | 网络收发与Nginx事件间的...
28 | Nginx网络事件实例演示
29 | Nginx的事件驱动模型
30 | epoll的优劣及原理
31 | Nginx的请求切换
32 | 同步&异步、阻塞&非阻塞...
33 | Nginx的模块究竟是什么?
34 | Nginx模块的分类
35 | Nginx如何通过连接池处理...
36 | 内存池对性能的影响
37 | 所有worker进程协同工作的...
38 | 用好共享内存的工具:Slab...
39 | 哈希表的max_size与bucke...
40 | Nginx中最常用的容器:红...
41 | 使用动态模块来提升运维效...
免费
42 | 第三章内容介绍
43 | 冲突的配置指令以谁为准?
44 | Listen指令的用法
免费
45 | 处理HTTP请求头部的流程
46 | Nginx中的正则表达式
47 | 如何找到处理请求的server...
48 | 详解HTTP请求的11个阶段
49 | 11个阶段的顺序处理
50 | postread阶段:获取真实客...
51 | rewrite阶段的rewrite模块...
52 | rewrite阶段的rewrite模块...
53 | rewrite阶段的rewrite模块...
54 | find_config阶段:找到处...
55 | preaccess阶段:对连接做...
56 | preaccess阶段:对请求做...
57 | access阶段:对ip做限制的...
58 | access阶段:对用户名密码...
59 | access阶段:使用第三方做...
60 | access阶段的satisfy指令
61 | precontent阶段:按序访问...
62 | 实时拷贝流量:precontent...
63 | content阶段:详解root和a...
64 | static模块提供的3个变量
65 | static模块对url不以斜杠...
66 | index和autoindex模块的用...
67 | 提升多个小文件性能的conc...
68 | access日志的详细用法
69 | HTTP过滤模块的调用流程
70 | 用过滤模块更改响应中的字...
71 | 用过滤模块在http响应的前...
72 | Nginx变量的运行原理
73 | HTTP框架提供的请求相关的...
74 | HTTP框架提供的其他变量
75 | 使用变量防盗链的referer...
76 | 使用变量实现防盗链功能实...
77 | 为复杂的业务生成新的变量...
78 | 通过变量指定少量用户实现...
79 | 根据IP地址范围的匹配生成...
80 | 使用变量获得用户的地理位...
81 | 对客户端使用keepalive提...
82 | 反向代理与负载均衡原理
83 | 负载均衡策略:round-rob...
84 | 负载均衡哈希算法:ip_has...
85 | 一致性哈希算法:hash模块
86 | 最少连接算法以及如何跨wo...
87 | upstream模块提供的变量
88 | proxy模块处理请求的流程
89 | proxy模块中的proxy_pas...
90 | 根据指令修改发往上游的请...
91 | 接收用户请求包体的方式
92 | 与上游服务建立连接
93 | 接收上游的响应
94 | 处理上游的响应头部
95 | 上游出现失败时的容错方案
96 | 对上游使用SSL连接
97 | 用好浏览器的缓存
98 | Nginx决策浏览器过期缓存...
99 | 缓存的基本用法
100 | 对客户端请求的缓存处理...
101 | 接收上游响应的缓存处理...
102 | 如何减轻缓存失效时上游...
103 | 及时清除缓存
104 | uwsgi、fastcgi、scgi指...
105 | memcached反向代理的用法
106 | 搭建websocket反向代理
107 | 用分片提升缓存效率
108 | open file cache提升系...
109 | HTTP/2协议介绍
110 | 搭建HTTP/2服务并推送资...
111 | gRPC反向代理
112 | stream四层反向代理的7个...
113 | proxy protocol协议与r...
114 | 限并发连接、限IP、记日...
115 | stream四层反向代理处理S...
116 | stream_preread模块取出S...
117 | stream proxy四层反向...
118 | UDP反向代理
119 | 透传IP地址的3个方案
120 | 性能优化方法论
121 | 如何高效使用CPU
122 | 多核间的负载均衡
免费
123 | 控制TCP三次握手参数
免费
124 | 建立TCP连接的优化
125 | 滑动窗口与缓冲区
126 | 优化缓冲区与传输效率
127 | 慢启动与拥塞窗口
128 | TCP协议的keepalive功能
129 | 减少关闭连接时的time_wa...
130 | lingering_close延迟关闭...
131 | 应用层协议的优化
免费
132 | 磁盘IO的优化
133 | 减少磁盘读写次数
134 | 零拷贝与gzip_static模...
135 | 用tcmalloc优化内存分配
136 | 使用Google PerfTools分...
137 | 使用stub_status模块监控...
138 | 第三方模块源码的阅读
139 | Nginx的启动流程
140 | HTTP第三方模块的初始化
141 | if指令是邪恶的吗?
142 | 解读Nginx的核心转储文件
143 | 通过debug日志定位问题
144 | OpenResty概述
145 | OpenResty中的Nginx模块...
146 | 如何在Nginx中嵌入Lua代...
147 | OpenResty中Lua与C代码...
148 | 获取、修改请求与响应的S...
149 | 工具类型的SDK
150 | 同步且非阻塞的底层SDK:...
151 | 基于协程的并发编程SDK
152 | 定时器及时间相关的SDK
153 | share.DICT基于共享内存...
154 | 子请求的使用方法
155 | 基于OpenResty的WAF防火...

精选留言(16)

  • 2019-03-01
    老师,有一个问题想请教,这几天服务器指定请求路径被攻击,我想通过location匹配被攻击的路径,利用req模块限制请求频率,但是苦恼的是location匹配不到/?app=index/login这样的路径,然后我就在location / {}中通过if判断指定路径,并且在判断中使用req指令,结果if能够生效,但是nginx提示req的指令位置不对,可能不能在if中使用吧,所以,想请教老师解惑

    作者回复: limit_req不能在if中使用,你可以先在if中rewrite到@location中,在这个location中再limit_req

    3
  • 2018-12-13
    老师,我对生效范围是全部work进程还不是很理解。
    这样问您:比如总共有10个模块被编译进了二进制文件,nginx启动时,先启动master进程,master进程然后启动多个work进程。
    这多个work进程的工作任务是同样的吗?或者他们分别负责不同的工作,比如第一个work负责前五个模块的工作,第二个work负责后五个的工作?

    作者回复: 每个worker进程是等效的,功能完全相同。多worker进程的意义在于使用多CPU,第5部分内容会详细介绍。由内核调度worker进程,决定把哪些连接交给哪个worker进程处理。

    3
  • 2018-12-22
    老师你好 WAF这种过滤规则在哪个阶段

    作者回复: 多数lua waf都是在access阶段工作的

    2
  • 2019-10-05
    老师,此节课的 rate这一块我从官网的理解是,rate=1r/s 表示1秒钟一个请求,rate=2r/m 表示一分钟以内每间隔30秒一个请求,意思就是在第一个请求发出以后的前面30秒是不能处理第二个请求的。官网的解释是:The rate is specified in requests per second (r/s). If a rate of less than one request per second is desired, it is specified in request per minute (r/m). For example, half-request per second is 30r/m.
    展开

    作者回复: 是的。源码实现如下:
    ms = (ngx_msec_int_t) (now - lr->last);
    excess = lr->excess - ctx->rate * ngx_abs(ms) / 1000 + 1000;
    if ((ngx_uint_t) excess > limit->burst) {return NGX_BUSY;}
    lr->last是上次发送时间
    }

    1
  • 2019-01-26
    感觉老师讲的很模糊,burst 和nodealy我听的不是很懂!我再网上查资料说,burst相当于一个缓存桶,当请求的数量过多时,第一个请求被处理,其他的请求放入缓存区,当缓存区达到上限时,则返回错误,我看老师你演示的时候 burst设置的为3,每分钟速率显示为2r/m,演示的时候第五次请求失败,和这个描述一致!但是老师却没有讲清楚burst和nodelay!

    作者回复: 你理解的正确,burst就是桶的大小!
    关于nodelay很抱歉,可能演示时漏掉了,它的意思是:不使用nodelay,burst中的请求会延迟处理,使用了nodealy,则立刻返回失败

    1
    1
  • 2019-01-26
    limit_conn_zone $binary_remote_addr zone=addr:10m;
      2 limit_req_zone $binary_remote_addr zone=one:10m rate=3r/m;
      3
      4 server {
      5 server_name location.hwenip.com;
      6 root html/;
      7 error_log logs/myerror.log info;
      8
      9 location / {
     10 limit_conn_status 500;
     11 limit_conn_log_level warn;
     12 #limit_rate 50;
     13 #limit_conn addr 1;
     14 limit_req zone=one burst=2 nodelay;
     15 #limit_req zone=one;
     16 }
     17 }
    老师,我的配置文件如上,为什么我第四次请求就会报503错误,感觉burst没有生效啊!
    展开

    作者回复: reload后,共享内存不会清空哦,所以之前的数据状态仍然会影响当前请求

    1
  • 2019-01-06
    老师,如果没有配置limit_conn或者limit_req,nginx进程里面就不会创建slab共享内存吗?

    作者回复: nginx里大量使用到slab共享内存,不局限在limit_conn或者limit_req这两个模块。例如upstream里的zone指令,又比如openresty中的share_dict,又比如tls/ssl中的session缓存。

    1
  • 2018-12-21
    老师您好,请问怎么获取post请求中的参数值呢,我想通过post请求参数进行限流。:-)

    作者回复: 根据请求中的body么? 这样不行,你没办法利用preaccess阶段的模块了,因为这些模块工作时,只能确保接收到完整的url参数和http header,是否接收到完整的body中的form完全无法保证

    1
  • 2019-07-27
    老师,最近一直对限流这个设置很迷惑,这个到底限流算法到底是用的漏桶还是令牌桶。我实验了下,我设置是rate=50r/s,burst也设置是50。然后我写了工具,每秒向服务端发送55个请求,我看了下access日志,前几秒都是55,56,53,几秒之后一直稳定50,我有点琢磨不清,这背后的原理,请老师指点!
  • 2019-05-31
    老师你好,我想请教一下,burst的设置值和rate的速度是什么关系比较好呢?有没有比较好的设置关系呢?比如 rata=60r/m , 那burst设置多少比较好?多谢。

    作者回复: 没有,这个是个性化,首要考虑业务场景的要求,其次是资源限制

  • 2019-02-25
    老师,做了下limit_req的实验,如果配置2r/m的时候,不是说这一分钟前两个请求就是成功,后面的请求都503。看上去像是做了更优化的算法,前面30秒只会成功一次,后面30秒开始又会成功一次。比如配置30r/m,几乎就是一次成功一次503,间隔返回。
  • 2019-01-06
    老师好,在视频中(3分24秒)提到设置了nodelay,burst的请求也会返回错误;但在演示中好像并没有返回错误。

    作者回复: 演示中添加burst=3后,又成功访问了3次,在第5分38秒时得到了503这个错误码。

  • 老师,您好,有个地方想请教下您
    在视频5分钟作用的时候,您的配置文件是2r/m,然后用curl limit.taohui.tech连续发了2条请求,然后第二条请求返回503,为啥不是第三条返回503,第二条就503了呢?我的理解里面发第2条请求的时候是满足2r/m的

    作者回复: 可能是视频剪辑时剪辑掉啦,你的理解是对的:-)

  • 2018-12-20
    请问老师,限制请求和连接的ip是指tcp层的请求的ip吧,如果ngnix前面加了WAF和负载均衡,对这个有没有影响呢?

    作者回复: 不是哦,你可以再看一下第50课里的realip模块,这个ip可以不是tcp层中的remote ip,而是http request header中的xforwarded-for或者x-realip头部的内容

  • 2018-12-19
    limit_**指令中的key究竟是什么意思呢?它和限制的数量有什么关系?比如说key是用户ip,limit_conn是2,就表示每个不同的用户只能同时有两个连接到服务器吗?

    作者回复: 是的

  • 2018-12-12
    老师,我同时启用了limit_conn,limit_req.配置如下:
    limit_conn_zone $binary_remote_addr zone=perip:10m;
        limit_req_zone $binary_remote_addr zone=one:10m rate=1r/s;
        server {
            location / {
                    #limit_rate 1;
                    limit_req zone=one burst=5;
                    limit_req_log_level error;
                    limit_req_status 503;
                    limit_conn perip 1;
                    limit_conn_status 501;
                    limit_conn_log_level error;
                    root html;
                    index index.html;
            }
    测试报错结果是:
    2018/12/12 10:58:13 [error] 15572#0: *1195093 limiting requests, excess: 5.001 by zone "one", client: 192.168.30.66, server: localhost, request: "GET /index.html HTTP/1.0", host: "192.168.30.65"

    是不是说明limit_req先于limit_conn生效?谢谢!
    展开

    作者回复: 是的,请参看描述模块间顺序的那一页PPT,有一张图很形象的描述了这个问题!