下载APP
登录
关闭
讲堂
算法训练营
Python 进阶训练营
企业服务
极客商城
客户端下载
兑换中心
渠道合作
推荐作者
当前播放: 29 | Nginx的事件驱动模型
00:00 / 00:00
标清
  • 标清
1.0x
  • 2.0x
  • 1.5x
  • 1.25x
  • 1.0x
  • 0.5x
网页全屏
全屏
00:00
付费课程,可试看

Nginx核心知识100讲

共155讲 · 155课时,约1300分钟
18513
免费
01 | 课程综述
免费
02 | Nginx适用于哪些场景?
免费
03 | Nginx出现的历史背景
免费
04 | 为什么用Nginx:它的 5 ...
免费
05 | Nginx的四个主要组成部分
06 | Nginx的版本发布历史
07 | 选择哪一个Nginx发行版本...
08 | 编译出适合自己的Nginx
09 | Nginx配置文件的通用语法...
10 | Nginx命令行及演示:重载...
11 | 用Nginx搭建一个可用的静...
12 | 用Nginx搭建一个具备缓存...
13 | 用GoAccess实现可视化并实...
14 | 从网络原理来看SSL安全协...
15 | 对称加密与非对称加密各自...
16 | SSL证书的公信力是如何保...
17 | SSL协议握手时Nginx的性能...
18 | 用免费SSL证书实现一个HTT...
19 | 基于OpenResty用Lua语言...
20 | Nginx的请求处理流程
21 | Nginx的进程结构
22 | Nginx的进程结构实例演示
23 | 使用信号管理Nginx的父子...
24 | reload重载配置文件的真相
25 | 热升级的完整流程
26 | 优雅地关闭worker进程
27 | 网络收发与Nginx事件间的...
28 | Nginx网络事件实例演示
29 | Nginx的事件驱动模型
30 | epoll的优劣及原理
31 | Nginx的请求切换
32 | 同步&异步、阻塞&非阻塞...
33 | Nginx的模块究竟是什么?
34 | Nginx模块的分类
35 | Nginx如何通过连接池处理...
36 | 内存池对性能的影响
37 | 所有worker进程协同工作的...
38 | 用好共享内存的工具:Slab...
39 | 哈希表的max_size与bucke...
40 | Nginx中最常用的容器:红...
41 | 使用动态模块来提升运维效...
免费
42 | 第三章内容介绍
43 | 冲突的配置指令以谁为准?
44 | Listen指令的用法
免费
45 | 处理HTTP请求头部的流程
46 | Nginx中的正则表达式
47 | 如何找到处理请求的server...
48 | 详解HTTP请求的11个阶段
49 | 11个阶段的顺序处理
50 | postread阶段:获取真实客...
51 | rewrite阶段的rewrite模块...
52 | rewrite阶段的rewrite模块...
53 | rewrite阶段的rewrite模块...
54 | find_config阶段:找到处...
55 | preaccess阶段:对连接做...
56 | preaccess阶段:对请求做...
57 | access阶段:对ip做限制的...
58 | access阶段:对用户名密码...
59 | access阶段:使用第三方做...
60 | access阶段的satisfy指令
61 | precontent阶段:按序访问...
62 | 实时拷贝流量:precontent...
63 | content阶段:详解root和a...
64 | static模块提供的3个变量
65 | static模块对url不以斜杠...
66 | index和autoindex模块的用...
67 | 提升多个小文件性能的conc...
68 | access日志的详细用法
69 | HTTP过滤模块的调用流程
70 | 用过滤模块更改响应中的字...
71 | 用过滤模块在http响应的前...
72 | Nginx变量的运行原理
73 | HTTP框架提供的请求相关的...
74 | HTTP框架提供的其他变量
75 | 使用变量防盗链的referer...
76 | 使用变量实现防盗链功能实...
77 | 为复杂的业务生成新的变量...
78 | 通过变量指定少量用户实现...
79 | 根据IP地址范围的匹配生成...
80 | 使用变量获得用户的地理位...
81 | 对客户端使用keepalive提...
82 | 反向代理与负载均衡原理
83 | 负载均衡策略:round-rob...
84 | 负载均衡哈希算法:ip_has...
85 | 一致性哈希算法:hash模块
86 | 最少连接算法以及如何跨wo...
87 | upstream模块提供的变量
88 | proxy模块处理请求的流程
89 | proxy模块中的proxy_pas...
90 | 根据指令修改发往上游的请...
91 | 接收用户请求包体的方式
92 | 与上游服务建立连接
93 | 接收上游的响应
94 | 处理上游的响应头部
95 | 上游出现失败时的容错方案
96 | 对上游使用SSL连接
97 | 用好浏览器的缓存
98 | Nginx决策浏览器过期缓存...
99 | 缓存的基本用法
100 | 对客户端请求的缓存处理...
101 | 接收上游响应的缓存处理...
102 | 如何减轻缓存失效时上游...
103 | 及时清除缓存
104 | uwsgi、fastcgi、scgi指...
105 | memcached反向代理的用法
106 | 搭建websocket反向代理
107 | 用分片提升缓存效率
108 | open file cache提升系...
109 | HTTP/2协议介绍
110 | 搭建HTTP/2服务并推送资...
111 | gRPC反向代理
112 | stream四层反向代理的7个...
113 | proxy protocol协议与r...
114 | 限并发连接、限IP、记日...
115 | stream四层反向代理处理S...
116 | stream_preread模块取出S...
117 | stream proxy四层反向...
118 | UDP反向代理
119 | 透传IP地址的3个方案
120 | 性能优化方法论
121 | 如何高效使用CPU
122 | 多核间的负载均衡
免费
123 | 控制TCP三次握手参数
免费
124 | 建立TCP连接的优化
125 | 滑动窗口与缓冲区
126 | 优化缓冲区与传输效率
127 | 慢启动与拥塞窗口
128 | TCP协议的keepalive功能
129 | 减少关闭连接时的time_wa...
130 | lingering_close延迟关闭...
131 | 应用层协议的优化
免费
132 | 磁盘IO的优化
133 | 减少磁盘读写次数
134 | 零拷贝与gzip_static模...
135 | 用tcmalloc优化内存分配
136 | 使用Google PerfTools分...
137 | 使用stub_status模块监控...
138 | 第三方模块源码的阅读
139 | Nginx的启动流程
140 | HTTP第三方模块的初始化
141 | if指令是邪恶的吗?
142 | 解读Nginx的核心转储文件
143 | 通过debug日志定位问题
144 | OpenResty概述
145 | OpenResty中的Nginx模块...
146 | 如何在Nginx中嵌入Lua代...
147 | OpenResty中Lua与C代码...
148 | 获取、修改请求与响应的S...
149 | 工具类型的SDK
150 | 同步且非阻塞的底层SDK:...
151 | 基于协程的并发编程SDK
152 | 定时器及时间相关的SDK
153 | share.DICT基于共享内存...
154 | 子请求的使用方法
155 | 基于OpenResty的WAF防火...

精选留言(14)

  • 2019-01-17
    post请求数据量虽然很大,但是TCP协议层会把它切到很小的粒度,每个报文最大的大小为MSS,可以用tcpdump抓包查看,所以每处理完一个连接的若干个报文(由缓冲区及网络决定)消耗时间很短。
    -—————————————————-
    这个请求的数据会被切成很小,但是这个连接一直没断(网络套接字没释放),所以默认最多只能处理有65535个(Linux默认文件句柄数限制)请求,这样理解对吗?

    作者回复: 你是说最多65535并发连接吗?不对,Linux句柄数可以很大(千万级)。每个TCP连接是一个四元组,即使端口的限制是65535,但算上两个端口两个IP,可认为没有限制。
    当Nginx作为反向代理,且上游仅一台主机一个IP一个端口(例如80),此时四元组里有3个固定了(两个IP一个端口),这个时候可以认为最多65535个并发连接。

    3
  • 2018-11-20
    我想学习nginx源码。新手,请问使用哪个版本的源码比较好?

    作者回复: 最新的,时效性最好.

    3
  • 2019-01-14
    老师,除了消耗大量cpu 的场景会导致线程阻塞,如果读/写事件处理的数据量很大,会不会也同样导致线程阻塞,比如一个post 请求的数据很大,导致从事件队列中取得的读事件一直在读数据,使其他事件得不到处理,谢谢

    作者回复: 不会,post请求数据量虽然很大,但是TCP协议层会把它切到很小的粒度,每个报文最大的大小为MSS,可以用tcpdump抓包查看,所以每处理完一个连接的若干个报文(由缓冲区及网络决定)消耗时间很短。

    1
  • 2019-01-12
    客户端建立连接,关闭连接,发送请求,对于服务器端epoll触发的都是读事件,可以认为是被动的,那么写事件是怎么触发的呢?是操作系统内核的写缓冲区控制的吗?

    作者回复: 是的,第5部分有一节课会分析这一流程。简单来说,就是写缓冲区因为收到对方发来的ACK确认报文释放了出来,或者是三次握手时收到SYN+ACK后可以发送请求了。

    1
  • 2018-11-27
    可以缓存吗?

    作者回复: 不明觉厉。。。

    1
  • 2019-11-12
    这节讲的设计跟java线程池的原理很相似
  • 2019-11-05
    老师问一下,nginx多个进程如何同一时间读取同一个文件的

    作者回复: 没明白问题是什么,没完整吧?

  • 2019-09-21
    如果访问日志写磁盘慢,是否严重影响nginx的事件模型?

    作者回复: 是的,任何阻塞操作都有可能。不过写磁盘都是写到内存里,由内核异步写到磁盘上,一般不会阻塞

    1
  • 2019-07-21
    老师,请问下,nginx进入receive a queue of new events状态,读取读缓存队列中的数据,这时如果nginx读取的数据只包含HTTP请求的一部分,那是否会回到wait for events on connections状态继续等待,就是说nginx event loop是否应该加一条从receive a queue of new events状态到wait for events on connections状态的反向箭头?

    作者回复: 其实这幅官方图片想表达的是,首先由kernal生成一组事件,依次处理的过程中,可能还会生成新的事件,会放入post队列中,然后再去处理post队列中的所有ready事件后,再回到等待连接事件,也就是epoll_wait上

  • 2019-04-17
    老师再请问一下, worker进程从操作系统事件队列中获取事件和从自己生成的事件队列中获取事件的优先级顺序是怎样的? 怎么保证每个队列的事件都会快速的处理呢?

    作者回复: 每次处理事件时,先处理epoll即操作系统生成的事件,再处理Nginx自身生成的事件

  • 2019-04-17
    老师请问一下nginx在处理事件时是采用的多线程还是单线程的方式?

    作者回复: 单线程

  • 2019-01-27
    老师事件模型中除了网络事件外我们可以自己定义事件吗?类似于windows中的create_event,在某个自定义的进程中去wait

    作者回复: 这个问题太模糊了。比如你要加个定时事件,那么Nginx中的定时器就可以,它是在epoll事件执行完后去遍历红黑树的,在Openresty中的timer.at这个API就是这么做的。epoll是linux提供的系统调用,不能随意定义。

  • 2019-01-08
    老师,问一下,nginx做网络路由服务怎么做

    作者回复: 不太明白你所说的网络路由服务具体指什么?反向代理吗?nginx很适合做反向代理,第4部分的课程都是在介绍相关知识。

  • 2018-12-29
    老师,这个在用户态切换是如何切换的呢?

    作者回复: 是由操作系统的调度系统来切换的。有本书推荐你看下《linux内核设计与实现》,第4章,对切换讲的很清楚。