下载APP
登录
关闭
讲堂
算法训练营
Python 进阶训练营
企业服务
极客商城
客户端下载
兑换中心
渠道合作
推荐作者
当前播放: 93 | 接收上游的响应
00:00 / 00:00
标清
  • 标清
1.0x
  • 2.0x
  • 1.5x
  • 1.25x
  • 1.0x
  • 0.5x
网页全屏
全屏
00:00
付费课程,可试看

Nginx核心知识100讲

共155讲 · 155课时,约1300分钟
18541
免费
01 | 课程综述
免费
02 | Nginx适用于哪些场景?
免费
03 | Nginx出现的历史背景
免费
04 | 为什么用Nginx:它的 5 ...
免费
05 | Nginx的四个主要组成部分
06 | Nginx的版本发布历史
07 | 选择哪一个Nginx发行版本...
08 | 编译出适合自己的Nginx
09 | Nginx配置文件的通用语法...
10 | Nginx命令行及演示:重载...
11 | 用Nginx搭建一个可用的静...
12 | 用Nginx搭建一个具备缓存...
13 | 用GoAccess实现可视化并实...
14 | 从网络原理来看SSL安全协...
15 | 对称加密与非对称加密各自...
16 | SSL证书的公信力是如何保...
17 | SSL协议握手时Nginx的性能...
18 | 用免费SSL证书实现一个HTT...
19 | 基于OpenResty用Lua语言...
20 | Nginx的请求处理流程
21 | Nginx的进程结构
22 | Nginx的进程结构实例演示
23 | 使用信号管理Nginx的父子...
24 | reload重载配置文件的真相
25 | 热升级的完整流程
26 | 优雅地关闭worker进程
27 | 网络收发与Nginx事件间的...
28 | Nginx网络事件实例演示
29 | Nginx的事件驱动模型
30 | epoll的优劣及原理
31 | Nginx的请求切换
32 | 同步&异步、阻塞&非阻塞...
33 | Nginx的模块究竟是什么?
34 | Nginx模块的分类
35 | Nginx如何通过连接池处理...
36 | 内存池对性能的影响
37 | 所有worker进程协同工作的...
38 | 用好共享内存的工具:Slab...
39 | 哈希表的max_size与bucke...
40 | Nginx中最常用的容器:红...
41 | 使用动态模块来提升运维效...
免费
42 | 第三章内容介绍
43 | 冲突的配置指令以谁为准?
44 | Listen指令的用法
免费
45 | 处理HTTP请求头部的流程
46 | Nginx中的正则表达式
47 | 如何找到处理请求的server...
48 | 详解HTTP请求的11个阶段
49 | 11个阶段的顺序处理
50 | postread阶段:获取真实客...
51 | rewrite阶段的rewrite模块...
52 | rewrite阶段的rewrite模块...
53 | rewrite阶段的rewrite模块...
54 | find_config阶段:找到处...
55 | preaccess阶段:对连接做...
56 | preaccess阶段:对请求做...
57 | access阶段:对ip做限制的...
58 | access阶段:对用户名密码...
59 | access阶段:使用第三方做...
60 | access阶段的satisfy指令
61 | precontent阶段:按序访问...
62 | 实时拷贝流量:precontent...
63 | content阶段:详解root和a...
64 | static模块提供的3个变量
65 | static模块对url不以斜杠...
66 | index和autoindex模块的用...
67 | 提升多个小文件性能的conc...
68 | access日志的详细用法
69 | HTTP过滤模块的调用流程
70 | 用过滤模块更改响应中的字...
71 | 用过滤模块在http响应的前...
72 | Nginx变量的运行原理
73 | HTTP框架提供的请求相关的...
74 | HTTP框架提供的其他变量
75 | 使用变量防盗链的referer...
76 | 使用变量实现防盗链功能实...
77 | 为复杂的业务生成新的变量...
78 | 通过变量指定少量用户实现...
79 | 根据IP地址范围的匹配生成...
80 | 使用变量获得用户的地理位...
81 | 对客户端使用keepalive提...
82 | 反向代理与负载均衡原理
83 | 负载均衡策略:round-rob...
84 | 负载均衡哈希算法:ip_has...
85 | 一致性哈希算法:hash模块
86 | 最少连接算法以及如何跨wo...
87 | upstream模块提供的变量
88 | proxy模块处理请求的流程
89 | proxy模块中的proxy_pas...
90 | 根据指令修改发往上游的请...
91 | 接收用户请求包体的方式
92 | 与上游服务建立连接
93 | 接收上游的响应
94 | 处理上游的响应头部
95 | 上游出现失败时的容错方案
96 | 对上游使用SSL连接
97 | 用好浏览器的缓存
98 | Nginx决策浏览器过期缓存...
99 | 缓存的基本用法
100 | 对客户端请求的缓存处理...
101 | 接收上游响应的缓存处理...
102 | 如何减轻缓存失效时上游...
103 | 及时清除缓存
104 | uwsgi、fastcgi、scgi指...
105 | memcached反向代理的用法
106 | 搭建websocket反向代理
107 | 用分片提升缓存效率
108 | open file cache提升系...
109 | HTTP/2协议介绍
110 | 搭建HTTP/2服务并推送资...
111 | gRPC反向代理
112 | stream四层反向代理的7个...
113 | proxy protocol协议与r...
114 | 限并发连接、限IP、记日...
115 | stream四层反向代理处理S...
116 | stream_preread模块取出S...
117 | stream proxy四层反向...
118 | UDP反向代理
119 | 透传IP地址的3个方案
120 | 性能优化方法论
121 | 如何高效使用CPU
122 | 多核间的负载均衡
免费
123 | 控制TCP三次握手参数
免费
124 | 建立TCP连接的优化
125 | 滑动窗口与缓冲区
126 | 优化缓冲区与传输效率
127 | 慢启动与拥塞窗口
128 | TCP协议的keepalive功能
129 | 减少关闭连接时的time_wa...
130 | lingering_close延迟关闭...
131 | 应用层协议的优化
免费
132 | 磁盘IO的优化
133 | 减少磁盘读写次数
134 | 零拷贝与gzip_static模...
135 | 用tcmalloc优化内存分配
136 | 使用Google PerfTools分...
137 | 使用stub_status模块监控...
138 | 第三方模块源码的阅读
139 | Nginx的启动流程
140 | HTTP第三方模块的初始化
141 | if指令是邪恶的吗?
142 | 解读Nginx的核心转储文件
143 | 通过debug日志定位问题
144 | OpenResty概述
145 | OpenResty中的Nginx模块...
146 | 如何在Nginx中嵌入Lua代...
147 | OpenResty中Lua与C代码...
148 | 获取、修改请求与响应的S...
149 | 工具类型的SDK
150 | 同步且非阻塞的底层SDK:...
151 | 基于协程的并发编程SDK
152 | 定时器及时间相关的SDK
153 | share.DICT基于共享内存...
154 | 子请求的使用方法
155 | 基于OpenResty的WAF防火...

精选留言(10)

  • 2019-01-20
    proxy开启 keepalive 的好处 和 坏处 有哪些

    作者回复: 好处是性能更高,坏处是问题定位更困难些

    2
    2
  • 2019-01-10
    老师好,我们用 nginx 做缓存服务器,客户端用 head 请求,nginx 做转发缓存,我们以 http_code 是否为200来判断 文件缓存完成,实际是有问题的,nginx 会把 响应头信息,及时返回客户端。此时文件并没有缓存完。
    怎么能做到当我收到 http_code 时候,文件已经缓存完成了呢?

    作者回复: 我补充下,你是说:nginx缓存上游的response,而client希望收到response时,且code是200,但还没有收完body,就想判断nginx缓存到完整的response body了吗?
    我有个问题,为什么不等接收到完整的http response body再判断呢?因为body是有Content-Length头部标识的,客户端可以判断接收到完整的响应了,且code是200,此时就可以判断nginx缓存完成了。

    2
  • 2019-01-23
    谢谢老师的解答
    1
  • 2019-01-09
    老师您好,nginx等待上游返回结果的时候,这个work进程是阻塞的状态吗?

    作者回复: 不是的,worker进程仍然处于Running状态,而不是Sleep状态,除非没有其他可以处理的连接,非常空闲。

    1
  • 2019-01-08
    老师您好,nginx等待上游返回结果的时候,这个work进程中的线程是阻塞的状态吗?

    作者回复: 不是的,worker进程中没有线程(仅在读取磁盘时可以通过thread_pool配置线程)。

    1
  • 2019-06-15
    老师你看看我这个是怎么回事?不应该,但是我访问的时候curl www.ll.com/a.txt是显示出来aaaaaaaa的,是没问题,但是没有那个文件
  • 2019-06-15
    老师,我的配置上游和你的一样,但是我 cat tmp/a.txt没有这是怎么回事啊
    upstream a{
            #ip_hash;
            #hash user_$arg_username;
            server 127.0.0.1:8012;
           # keepalive 32;
            }
            server {
            listen 8012;
            default_type text/plain;
            #return 200 '8012 server response .uri: $uri method: $uri \n';
            root html;
            location /test{
                    return 200 '8012 server response .uri: $uri method: $uri \n';
            }
         }
    server {
            listen 80;
            server_name www.ll.com;

            #charset koi8-r;
            root /tmp;
            access_log logs/upstream_access.log va;
            #set_real_ip_from 192.168.147.130;
            #real_ip_recursive on;
            #real_ip_header X-Forwarded-For;

            location / {
                    proxy_pass http://a;
                    proxy_store on;
                    proxy_store_access user:rw group:rw all:r;
                   # proxy_http_version 1.1;
                   # proxy_set_header Connection '';

                root html;
                index index.html index.htm index.php;
            }
    }
    展开

    作者回复: 看下error.log中的日志有什么输出么?

  • 2019-04-23
    陶老师您好,有个疑问:
    nginx从上游读取body时,如果body小于proxy_buffers设置的大小,即使开启了proxy_buffering,也不会写入到临时文件中,那么nginx在读取客户端的请求body是否类似呢,即使开启了proxy_request_buffering,如果body小于client_body_buffer_size,也不会写入到临时文件中?

    作者回复: 是的。客户端有一个强制写入临时文件的指令,主要用作定位问题

  • 2019-02-17
    老师问一下,proxy_read_timeout解释是两次read operation之间超过这个时间,就会报错。
    也就是说这个proxy_read_timeout不是指的单次从请求到返回的超时,而是两个请求间的?

    作者回复: 不是,请求和响应是业务层面,两次read操作是指,从系统socket缓冲区调用两次read方法读取内容的超时,参考第125课

  • 2019-01-24
    proxy_store 在做文件缓存服务器场景下很合适