当前播放: 81 | 对客户端使用keepalive提升连接效率
00:00 / 00:00
高清
  • 高清
1.0x
  • 2.0x
  • 1.5x
  • 1.25x
  • 1.0x
  • 0.5x
网页全屏
全屏
00:00
付费课程,可试看
课程目录
第一章:初识Nginx (19讲)
01 | 课程综述
免费
02 | Nginx适用于哪些场景?
免费
03 | Nginx出现的历史背景
免费
04 | 为什么用Nginx:它的 5 个主要优点
免费
05 | Nginx的四个主要组成部分
免费
06 | Nginx的版本发布历史
07 | 选择哪一个Nginx发行版本?
08 | 编译出适合自己的Nginx
09 | Nginx配置文件的通用语法介绍
10 | Nginx命令行及演示:重载、热部署、日志切割
11 | 用Nginx搭建一个可用的静态资源Web服务器
12 | 用Nginx搭建一个具备缓存功能的反向代理服务
13 | 用GoAccess实现可视化并实时监控access日志
14 | 从网络原理来看SSL安全协议
15 | 对称加密与非对称加密各自的应用场景
16 | SSL证书的公信力是如何保证的?
17 | SSL协议握手时Nginx的性能瓶颈在哪里?
18 | 用免费SSL证书实现一个HTTPS站点
19 | 基于OpenResty用Lua语言实现简单服务
第二章:Nginx架构基础 (22讲)
20 | Nginx的请求处理流程
21 | Nginx的进程结构
22 | Nginx的进程结构实例演示
23 | 使用信号管理Nginx的父子进程
24 | reload重载配置文件的真相
25 | 热升级的完整流程
26 | 优雅地关闭worker进程
27 | 网络收发与Nginx事件间的对应关系
28 | Nginx网络事件实例演示
29 | Nginx的事件驱动模型
30 | epoll的优劣及原理
31 | Nginx的请求切换
32 | 同步&异步、阻塞&非阻塞之间的区别
33 | Nginx的模块究竟是什么?
34 | Nginx模块的分类
35 | Nginx如何通过连接池处理网络请求
36 | 内存池对性能的影响
37 | 所有worker进程协同工作的关键:共享内存
38 | 用好共享内存的工具:Slab管理器
39 | 哈希表的max_size与bucket_size如何配置
40 | Nginx中最常用的容器:红黑树
41 | 使用动态模块来提升运维效率
第三章:详解HTTP模块 (40讲)
42 | 第三章内容介绍
免费
43 | 冲突的配置指令以谁为准?
44 | Listen指令的用法
45 | 处理HTTP请求头部的流程
免费
46 | Nginx中的正则表达式
47 | 如何找到处理请求的server指令块
48 | 详解HTTP请求的11个阶段
49 | 11个阶段的顺序处理
50 | postread阶段:获取真实客户端地址的realip模块
51 | rewrite阶段的rewrite模块:return指令
52 | rewrite阶段的rewrite模块:重写URL
53 | rewrite阶段的rewrite模块:条件判断
54 | find_config阶段:找到处理请求的location指令块
55 | preaccess阶段:对连接做限制的limit_conn模块
56 | preaccess阶段:对请求做限制的limit_req模块
57 | access阶段:对ip做限制的access模块
58 | access阶段:对用户名密码做限制的auth_basic模块
59 | access阶段:使用第三方做权限控制的auth_request模块
60 | access阶段的satisfy指令
61 | precontent阶段:按序访问资源的try_files模块
62 | 实时拷贝流量:precontent阶段的mirror模块
63 | content阶段:详解root和alias指令
64 | static模块提供的3个变量
65 | static模块对url不以斜杠结尾却访问目录的做法
66 | index和autoindex模块的用法
67 | 提升多个小文件性能的concat模块
68 | access日志的详细用法
69 | HTTP过滤模块的调用流程
70 | 用过滤模块更改响应中的字符串:sub模块
71 | 用过滤模块在http响应的前后添加内容:addition模块
72 | Nginx变量的运行原理
73 | HTTP框架提供的请求相关的变量
74 | HTTP框架提供的其他变量
75 | 使用变量防盗链的referer模块
76 | 使用变量实现防盗链功能实践:secure_link模块
77 | 为复杂的业务生成新的变量:map模块
78 | 通过变量指定少量用户实现AB测试:split_client模块
79 | 根据IP地址范围的匹配生成新变量:geo模块
80 | 使用变量获得用户的地理位置:geoip模块
81 | 对客户端使用keepalive提升连接效率
第四章:反向代理与负载均衡 (38讲)
82 | 反向代理与负载均衡原理
83 | 负载均衡策略:round-robin
84 | 负载均衡哈希算法:ip_hash与hash模块
85 | 一致性哈希算法:hash模块
86 | 最少连接算法以及如何跨worker进程生效
87 | upstream模块提供的变量
88 | proxy模块处理请求的流程
89 | proxy模块中的proxy_pass指令
90 | 根据指令修改发往上游的请求
91 | 接收用户请求包体的方式
92 | 与上游服务建立连接
93 | 接收上游的响应
94 | 处理上游的响应头部
95 | 上游出现失败时的容错方案
96 | 对上游使用SSL连接
97 | 用好浏览器的缓存
98 | Nginx决策浏览器过期缓存是否有效
99 | 缓存的基本用法
100 | 对客户端请求的缓存处理流程
101 | 接收上游响应的缓存处理流程
102 | 如何减轻缓存失效时上游服务的压力
103 | 及时清除缓存
104 | uwsgi、fastcgi、scgi指令的对照表
105 | memcached反向代理的用法
106 | 搭建websocket反向代理
107 | 用分片提升缓存效率
108 | open file cache提升系统性能
109 | HTTP/2协议介绍
110 | 搭建HTTP/2服务并推送资源
111 | gRPC反向代理
112 | stream四层反向代理的7个阶段及常用变量
113 | proxy protocol协议与realip模块
114 | 限并发连接、限IP、记日志
115 | stream四层反向代理处理SSL下游流量
116 | stream_preread模块取出SSL关键信息
117 | stream proxy四层反向代理的用法
118 | UDP反向代理
119 | 透传IP地址的3个方案
第五章:Nginx的系统层性能优化 (18讲)
120 | 性能优化方法论
121 | 如何高效使用CPU
122 | 多核间的负载均衡
123 | 控制TCP三次握手参数
免费
124 | 建立TCP连接的优化
免费
125 | 滑动窗口与缓冲区
126 | 优化缓冲区与传输效率
127 | 慢启动与拥塞窗口
128 | TCP协议的keepalive功能
129 | 减少关闭连接时的time_wait端口数量
130 | lingering_close延迟关闭TCP连接
131 | 应用层协议的优化
132 | 磁盘IO的优化
免费
133 | 减少磁盘读写次数
134 | 零拷贝与gzip_static模块
135 | 用tcmalloc优化内存分配
136 | 使用Google PerfTools分析Nginx
137 | 使用stub_status模块监控Nginx的状态
第六章:从源码视角深入使用Nginx与OpenResty (18讲)
138 | 第三方模块源码的阅读
139 | Nginx的启动流程
140 | HTTP第三方模块的初始化
141 | if指令是邪恶的吗?
142 | 解读Nginx的核心转储文件
143 | 通过debug日志定位问题
144 | OpenResty概述
145 | OpenResty中的Nginx模块与Lua模块
146 | 如何在Nginx中嵌入Lua代码
147 | OpenResty中Lua与C代码交互的原理
148 | 获取、修改请求与响应的SDK
149 | 工具类型的SDK
150 | 同步且非阻塞的底层SDK:cosocket
151 | 基于协程的并发编程SDK
152 | 定时器及时间相关的SDK
153 | share.DICT基于共享内存的字典
154 | 子请求的使用方法
155 | 基于OpenResty的WAF防火墙
81 | 对客户端使用keepalive提升连接效率

81 | 对客户端使用keepalive提升连接效率

陶辉
《深入理解Nginx》作者,智链达CTO
155讲 155课时,约1300分钟19362
单独订阅¥129
2人成团¥99
5
登录 后留言

精选留言(12)

  • liu
    兄弟好,向你求证1个问题
    我的nginx.conf配置:
    worker_processes auto;
    worker_rlimit_nofile 131070;

    error_log /var/log/nginx/error.log warn;
    pid /var/run/nginx.pid;
    events {
        use epoll;
        worker_connections 65535;
    }
    先抛开cpu和内存资源,我的nginx支持的最大并发数应该为:
    我的机器有是16核的cpu,我的nginx作为最外层的反向代理,nginx支持的最大并发数为:
    16*65535/4=262140,而且我理解这个最大并发数还要受到os最大的文件描述符的限制:即这个最大并发数要小于os最大的文件描述符:
    [m***@ip-10-***-207 ~]$ cat /proc/sys/fs/file-max
    1048576
    这个100w还多,所以这个nginx支持26w并发是没问题的(肯定是小于的!)
    我的理解对吗? 期待你的指正
    谢谢!

    作者回复: 明白你的理解哪里出问题了,你认为每个worker最多只能处理65535个并发连接,这是许多初接触高并发的同学经常会犯的错误。
    每个TCP连接是四元组,即使锁定nginx上的本地IP和本地端口,理论上还有2^(32+16)个并发连接。你可以看下这篇文章:http://www.ideawu.net/blog/archives/533.html

    2019-01-17
    3
  • JetChars
    兄弟好,有点不是很理解,当配置keepalive_timeout 30, keepalive_request 100时,是会完成在100次请求后断开tcp连接,还是在30秒,如果配置了keepalive_timeout的第二个变量Keep-Alive 期望的表现又该是怎样?

    作者回复: 1、最大数量与超时,是或关系,任一条件达到都会断开连接。
    2、第二个变量是通知浏览器的,至于浏览器究竟怎么处理与Nginx无关。

    2019-03-05
    2
  • 18911632119
    老师,我这边经常用loadrunner测试nginx反向代理时性能,发现打开keepalive(keepalive_timeout不等于0)时,nginx服务器的新建性能指标(hit/sec或每秒支持多少个新建tcp连接)的指标会比关闭keepalive(keepalive_timeout=0)时低好多,这是测试场景问题,还是nginx处理机制问题。
    我反向代理的测试页面是大小为6k和10k的静态html页面。
    这个真实生产下keepalive是否打开是否和反向代理的web类型有关系呢。
    是否打开nginx的keepalive需要主要参考什么来做决定呢。

    作者回复: 1、我猜测是测试场景问题,nginx处理机制对此没有问题。
    2、没有关系。
    3、主要参考性能要求,使用keepalive能提升网络效率,包括TCP握手消耗、TCP拥塞控制等。

    2018-12-30
    2
  • liu
    谢谢老兄,我只是在nginx.conf中配置了worker_connections 65535;(看你的解释完全可以调大,翻几倍都可以,看起来最后要受到操作系统的最大文件描述符和nginx进程可以打开的最大文件描述符和操作系统内存和cpu的限制),按照这个65535配置支持的最大并发计算方法没问题吧?感谢

    作者回复: 如果是做反向代理,那么与上游的连接也会消耗worker_connections的。
    另外,这个限制到底够不够,可以通过stat_stub模块来判断,如果它返回的accepts与handled一样大,就说明实际请求没有超过该限制,如果accepts大于handled,说明配小了。

    2019-01-19
    1
  • liu
    兄弟好,我这里还有1 个问题,
    因为机器有65535(65535-1024) port的 限制,作为最前端的nginx(反向代理,网站的入口),如果访问量非常大的情况下,很有可能会遇到port 被占满的情况。
    是不是 在linux kernetl 4.2 以后,由于有了IP_BIND_ADDRESS_NO_PORT这个参数(见http://man7.org/linux/man-pages/man7/ip.7.html),使得linux kernel4.2 版本之后的os没有了65535-1024可用端口的限制,从而使得nginx能支持更多的并发请求,
    期待你的回复!
    谢谢!

    作者回复: 同样的问题,没有理清TCP四元组的概念,即使锁定nginx上的本地IP和本地端口,还有客户端IP和客户端端口呢,理论上还有2^(32+16)个并发连接。你的问题在于,你把客户端IP锁定了,所以只有2^16=65535个并发连接。关键是,nginx同时处理许多客户端的连接的。你可以看下这篇文章:http://www.ideawu.net/blog/archives/533.html

    2019-01-17
    1
  • Q
    ab -c 2000 -n 2000 http://192.168.0.191/index.php
    老师请问 压测nginx服务器端时 为什么在服务器打开watch查看状态连接状态 都是timewait 或是syn-recv 没有establish状态 需要怎样配置 才能模拟出现多个establish状态
    TIME-WAIT 0 0 xxxxxxx:45838 xxxxxxxx:80

    作者回复: 把index.php换成一个很大的文件...

    2018-12-25
    1
  • Geek_456
    老师您好!使用httpclient 池子大小10000 每秒并发请求50以上,出现nohttpsresponseException。服务端 Nginx 的keepalive_timeout 60

    作者回复: nohttpsresponseException是什么引起的?RST?谁发的RST?

    2019-11-28
  • 码农Kevin亮
    请教老师,我在实际工作中遇到这样一种奇怪的现在的:上游服务是一个springboot web服务,在不使用ngx做反向代理的情况下,直接访问web项目的静态资源时是秒加载;但用了ngx来反向代理时,有部分静态资源就要等待65秒才能加载成功,这个等待时间是用浏览器的network调试面板观察所得。不知道是哪里导致的,请老师给点可能出问题的方向,谢谢

    作者回复: 看看nginx的error.log上有没有超时类的错误?

    2019-04-15
  • 碗里的小屁孩
    老师您好,请教您一下,nginx做流媒体,除了rtmp模块还有其他的吗?
    2019-03-25
  • wking
    老师,请教一下,A客户端访问nginx服务器,生成一个keepalive长连接,接下来B客户端访问nginx服务器,可以重复使用这个keepalive长连接?

    作者回复: 不可以,你要再理解下HTTP与TCP的关系,RFC2616上介绍的很清楚。
    nginx对上游的keepalive长连接可以被多个客户端复用,你可以关注下第四部分课程。

    2019-03-18
  • Panda
    老师 用NGINX做负载均衡服务器 建议对 后端机器 开启 keepalive 吗

    作者回复: 如果对性能有要求,建议打开。

    2019-01-11
  • panxl6
    老师,专栏里面的每一个视频的知识点都讲的很深入。但是不知道怎么串起来,可否提供一些应用场景?

    作者回复: 可以尝试用wordpress搭个博客站点:-)

    2018-12-26
收起评论
看过的人还看
左耳听风

陈皓  网名“左耳朵耗子”,资深技术专家,骨灰级程序员

108讲 | 40796 人已学习

拼团 ¥199 原价 ¥299
从0开始学架构

李运华  资深技术专家

59讲 | 39224 人已学习

¥99
趣谈网络协议

刘超  网易研究院云计算技术部首席架构师

51讲 | 40017 人已学习

拼团 ¥79 原价 ¥99
数据结构与算法之美

王争  前Google工程师

75讲 | 72661 人已学习

¥99