Linux性能优化实战
倪朋飞
微软资深工程师,Kubernetes项目维护者
立即订阅
23395 人已学习
课程目录
已完结 64 讲
0/4登录后,你可以任选4讲全文学习。
开篇词 (2讲)
开篇词 | 别再让Linux性能问题成为你的绊脚石
免费
01 | 如何学习Linux性能优化?
CPU 性能篇 (13讲)
02 | 基础篇:到底应该怎么理解“平均负载”?
03 | 基础篇:经常说的 CPU 上下文切换是什么意思?(上)
04 | 基础篇:经常说的 CPU 上下文切换是什么意思?(下)
05 | 基础篇:某个应用的CPU使用率居然达到100%,我该怎么办?
06 | 案例篇:系统的 CPU 使用率很高,但为啥却找不到高 CPU 的应用?
07 | 案例篇:系统中出现大量不可中断进程和僵尸进程怎么办?(上)
08 | 案例篇:系统中出现大量不可中断进程和僵尸进程怎么办?(下)
09 | 基础篇:怎么理解Linux软中断?
10 | 案例篇:系统的软中断CPU使用率升高,我该怎么办?
11 | 套路篇:如何迅速分析出系统CPU的瓶颈在哪里?
12 | 套路篇:CPU 性能优化的几个思路
13 | 答疑(一):无法模拟出 RES 中断的问题,怎么办?
14 | 答疑(二):如何用perf工具分析Java程序?
内存性能篇 (8讲)
15 | 基础篇:Linux内存是怎么工作的?
16 | 基础篇:怎么理解内存中的Buffer和Cache?
17 | 案例篇:如何利用系统缓存优化程序的运行效率?
18 | 案例篇:内存泄漏了,我该如何定位和处理?
19 | 案例篇:为什么系统的Swap变高了(上)
20 | 案例篇:为什么系统的Swap变高了?(下)
21 | 套路篇:如何“快准狠”找到系统内存的问题?
22 | 答疑(三):文件系统与磁盘的区别是什么?
I/O 性能篇 (10讲)
23 | 基础篇:Linux 文件系统是怎么工作的?
24 | 基础篇:Linux 磁盘I/O是怎么工作的(上)
25 | 基础篇:Linux 磁盘I/O是怎么工作的(下)
26 | 案例篇:如何找出狂打日志的“内鬼”?
27 | 案例篇:为什么我的磁盘I/O延迟很高?
28 | 案例篇:一个SQL查询要15秒,这是怎么回事?
29 | 案例篇:Redis响应严重延迟,如何解决?
30 | 套路篇:如何迅速分析出系统I/O的瓶颈在哪里?
31 | 套路篇:磁盘 I/O 性能优化的几个思路
32 | 答疑(四):阻塞、非阻塞 I/O 与同步、异步 I/O 的区别和联系
网络性能篇 (13讲)
33 | 关于 Linux 网络,你必须知道这些(上)
34 | 关于 Linux 网络,你必须知道这些(下)
35 | 基础篇:C10K 和 C1000K 回顾
36 | 套路篇:怎么评估系统的网络性能?
37 | 案例篇:DNS 解析时快时慢,我该怎么办?
38 | 案例篇:怎么使用 tcpdump 和 Wireshark 分析网络流量?
39 | 案例篇:怎么缓解 DDoS 攻击带来的性能下降问题?
40 | 案例篇:网络请求延迟变大了,我该怎么办?
41 | 案例篇:如何优化 NAT 性能?(上)
42 | 案例篇:如何优化 NAT 性能?(下)
43 | 套路篇:网络性能优化的几个思路(上)
44 | 套路篇:网络性能优化的几个思路(下)
45 | 答疑(五):网络收发过程中,缓冲区位置在哪里?
综合实战篇 (13讲)
46 | 案例篇:为什么应用容器化后,启动慢了很多?
47 | 案例篇:服务器总是时不时丢包,我该怎么办?(上)
48 | 案例篇:服务器总是时不时丢包,我该怎么办?(下)
49 | 案例篇:内核线程 CPU 利用率太高,我该怎么办?
50 | 案例篇:动态追踪怎么用?(上)
51 | 案例篇:动态追踪怎么用?(下)
52 | 案例篇:服务吞吐量下降很厉害,怎么分析?
53 | 套路篇:系统监控的综合思路
54 | 套路篇:应用监控的一般思路
55 | 套路篇:分析性能问题的一般步骤
56 | 套路篇:优化性能问题的一般方法
57 | 套路篇:Linux 性能工具速查
58 | 答疑(六):容器冷启动如何性能分析?
加餐篇 (4讲)
加餐(一) | 书单推荐:性能优化和Linux 系统原理
加餐(二) | 书单推荐:网络原理和 Linux 内核实现
用户故事 | “半路出家 ”,也要顺利拿下性能优化!
用户故事 | 运维和开发工程师们怎么说?
结束语 (1讲)
结束语 | 愿你攻克性能难关
Linux性能优化实战
登录|注册

45 | 答疑(五):网络收发过程中,缓冲区位置在哪里?

倪朋飞 2019-03-06
你好,我是倪朋飞。
专栏更新至今,四大基础模块的最后一个模块——网络篇,我们就已经学完了。很开心你还没有掉队,仍然在积极学习思考和实践操作,热情地留言和互动。还有不少同学分享了在实际生产环境中,碰到各种性能问题的分析思路和优化方法,这里也谢谢你们。
今天是性能优化答疑的第五期。照例,我从网络模块的留言中,摘出了一些典型问题,作为今天的答疑内容,集中回复。同样的,为了便于你学习理解,它们并不是严格按照文章顺序排列的。
每个问题,我都附上了留言区提问的截屏。如果你需要回顾内容原文,可以扫描每个问题右下方的二维码查看。

问题 1:网络收发过程中缓冲区的位置

第一点,是网络收发过程中,收发队列和缓冲区位置的疑问。
关于 Linux 网络,你必须要知道这些 中,我曾介绍过 Linux 网络的收发流程。这个流程涉及到了多个队列和缓冲区,包括:
网卡收发网络包时,通过 DMA 方式交互的环形缓冲区
网卡中断处理程序为网络帧分配的,内核数据结构 sk_buff 缓冲区
应用程序通过套接字接口,与网络协议栈交互时的套接字缓冲区。
不过相应的,就会有两个问题。
首先,这些缓冲区的位置在哪儿?是在网卡硬件中,还是在内存中?这个问题其实仔细想一下,就很容易明白——这些缓冲区都处于内核管理的内存中。
取消
完成
0/1000字
划线
笔记
复制
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
该试读文章来自付费专栏《Linux性能优化实战》,如需阅读全部文章,
请订阅文章所属专栏。
立即订阅
登录 后留言

精选留言(14)

  • 记忆
    老师你好,如果sk_buff 缓冲区 (socket buffer)不是套接字缓冲器区,那是不是还要进行一次数据的copy到套接字缓冲区,再通知应用程序有某个套接字数据可读了?那一帧数据到来,需要收包队列-->sk_buff-->套接字缓冲区-->应用程序空间内存里,拷贝了3次呢?

    作者回复: 这是两个不同的概念,具体到数据上,内核协议栈都是操作指针,并不会在不同协议层之间复制数据

    2019-03-14
    3
  • 剑衣清风
    老师你好,对于问题3我有个疑问

    “对客户端来说,每次发起 TCP 连接请求时,都需要分配一个空闲的本地端口,去连接远端的服务器。由于这个本地端口是独占的,所以客户端最多只能发起 65535 个连接。”

    那像 ab 这样的压测工具,是如何做到并发对服务端接口压测的?

    作者回复: 为客户端分配不同的端口去连接服务端,请求量大的时候还需要多机或多IP增大请求数

    2019-04-28
    1
    1
  • 腾达
    能不能再出一个有关TIME_WAIT、peer reset、socket read timeout、socket connect timeout 方面有关的案例? 类似java、php、nginx,做应用开发的会遇到很多这类问题。之前有网友提问:期待结合生产环境对这几个内核参数的讲解。目前生产环境下php服务器time_wait特别多,网络包的流程: NGINX代理<——>PHP服务器——>redis/mysql..
    高峰时期php服务器一共50k+的连接。49k+的time_wait。 我看到老师回复”后面会有的“。难道是《案例篇:如何优化NAT性能》里一笔带过的有关TIME_WAIT的东西? 能否专门出一个偏开发人员方面的网络案例? 网络篇里的案例大部分人都说不太跟的上,基础都不好,可能大部分人都是偏开发,网络接触的少,像NAT更是很少人接触了。希望再出一个偏开发人员适用的网络的案例

    作者回复: 后面的案例还会讲到timeout的

    2019-03-06
    1
  • 划时代
    最近在广泛收集资料学习老师讲的C10K到C1000K的问题,打卡总结。
    2019-03-06
    1
  • 我来也
    试着回答下同学的提问。
    nginx fork出来的子进程数是可以配置的。
    有连接请求时,可能是选一个子进程响应连接请求(这个不太确定,也可能是主进程建立连接了交给子进程)。

    作者回复: 这是可配置的,也可以开启reuseport交给你系统来选择

    2019-03-06
    1
  • 我来也
    [D45打卡]
    四大模块学完了,接下来就是融会贯通了。😄

    以前也知道socket连接是通过五元组唯一确定的,但实际写服务端程序时,还是会根据经验限定到65530。
    现在想来,当时还是理解的不够透彻。
    这个经验值当时是根据压力测试得来的,当时只用了一台机器去测连接数。🤦‍♂️如果用多个机器测可能好点。
    另一个是服务器端单进程同时打开的文件数限制,平常限制的也是65535(可以继续调大)。一个进程默认还会打开2个文件,stdout stderr,所以需要再减2,如果有监听一个端口,还需要再减1。
    有一次在生产环境中,同时连接数限制的是65535,结果到65533个连接时,把监听的端口给关闭了。(可能是所用框架导致的)虽然已有的连接未受影响,但之后就无法再接受新连接了。

    作者回复: 嗯,谢谢分享。不过线上环境也不推荐一直运行在达到资源极限的场景,最好是预留一些资源以便应对异常情况

    2019-03-06
    1
  • ninuxer
    打卡day47
    很高兴一直没掉队,网络一直是我的短板,得补补
    2019-03-06
    1
  • 胖胖虎
    老师,现在有很多零拷贝的技术比如dpdk,比较pf_ring_zc。我的理解是,这些技术通过内存映射的方法,直接把网卡设备环形缓冲里的数据直接拷贝到了用户态,省略了先拷贝到sk_buff,再到socket缓冲区,再到应用程序这个过程。不知道我这个理解是否准确。

    作者回复: 是的,除了内存拷贝优化,还减少了原来冗长的网络协议栈处理过程

    2019-08-05
  • 如果
    DAY45,打卡
    2019-04-11
  • 我不吃甜食
    老师好,能不能讲一下select,poll和epoll的本质区别?

    作者回复: C10K篇里面已经讲过了

    2019-03-23
  • 青石
    @记忆的问题“老师你好,如果sk_buff 缓冲区 (socket buffer)不是套接字缓冲器区,那是不是还要进行一次数据的copy到套接字缓冲区,再通知应用程序有某个套接字数据可读了?那一帧数据到来,需要收包队列-->sk_buff-->套接字缓冲区-->应用程序空间内存里,拷贝了3次呢?”

    老师的回复是“这是两个不同的概念,具体到数据上,内核协议栈都是操作指针,并不会在不同协议层之间复制数据”。

    我的理解是,收包队列、sk_buff、套接字缓冲区、应用程序空间内存,都是链接表结构,收保队列->sk_buff的过程,是sk_buff的指针指向收保队列的链头,再重新给收包队列分配空链表,内存上只是单纯的指针移动,并不涉及数据迁移。

    不知道理解对不对,还请老师指正。

    作者回复: 可以简单这么理解,但实际上也不准确,对同一个网络报文来说,不同协议栈层处理的是同一个pkt不同位置的数据(同一个struct内部),而不是链表中的不同item。真要理解的话,还是推荐去看一下内核源码

    2019-03-21
  • 夜空中最亮的星(华仔)
    有一篇收获满满
    2019-03-06
  • xfan
    这一张满满干货,
    2019-03-06
  • 爱学习的小学生
    客户端和服务端nginx连接80端口时,nginx会fork出一个子进程选一个随机端口与客户端建立连接吗?

    作者回复: 正好反正,客户端会随机一个端口去连接80端口

    2019-03-06
收起评论
14
返回
顶部