OpenResty从入门到实战
温铭
OpenResty软件基金会主席,《OpenResty 最佳实践》作者
立即订阅
4332 人已学习
课程目录
已完结 52 讲
0/4登录后,你可以任选4讲全文学习。
开篇词 (1讲)
开篇词 | OpenResty,为你打开高性能开发的大门
免费
入门篇 (14讲)
01 | 初探OpenResty的三大特性
02 | 如何写出你的“hello world”?
03 | 揪出隐藏在背后的那些子项目
04 | 如何管理第三方包?从包管理工具luarocks和opm说起
05 | [视频]opm项目导读
06 | OpenResty 中用到的 NGINX 知识
07 | 带你快速上手 Lua
08 | LuaJIT分支和标准Lua有什么不同?
09 | 为什么 lua-resty-core 性能更高一些?
10 | JIT编译器的死穴:为什么要避免使用 NYI ?
11 | 剖析Lua唯一的数据结构table和metatable特性
12 | 高手秘诀:识别Lua的独有概念和坑
13 | [视频]实战:基于FFI实现的lua-resty-lrucache
14 | 答疑(一):Lua 规则和 NGINX 配置文件产生冲突怎么办?
API篇 (11讲)
15 | OpenResty 和别的开发平台有什么不同?
16 | 秒杀大多数开发问题的两个利器:文档和测试案例
17 | 为什么能成为更好的Web服务器?动态处理请求和响应是关键
18 | worker间的通信法宝:最重要的数据结构之shared dict
19 | OpenResty 的核心和精髓:cosocket
20 | 超越 Web 服务器:特权进程和定时任务
21 | 带你玩转时间、正则表达式等常用API
22 | [视频]从一个安全漏洞说起,探寻API性能和安全的平衡
23 | [视频]导读lua-resty-requests:优秀的lua-resty-*是如何编写的?
24 | 实战:处理四层流量,实现Memcached Server
25 | 答疑(二):特权进程的权限到底是什么?
测试篇 (5讲)
26 | 代码贡献者的拦路虎:test::nginx 简介
27 | test::nginx 包罗万象的测试方法
28 | test::nginx 还可以这样用?
29 | 最容易失准的性能测试?你需要压测工具界的“悍马”wrk
30 | 答疑(三)如何搭建测试的网络结构?
性能优化篇 (16讲)
31 | 性能下降10倍的真凶:阻塞函数
32 | 让人又恨又爱的字符串操作
33 | 性能提升10倍的秘诀:必须用好 table
34 | 特别放送:OpenResty编码指南
35 | [视频]实际项目中的性能优化:ingress-nginx中的几个PR解读
36 | 盘点OpenResty的各种调试手段
37 | systemtap-toolkit和stapxx:如何用数据搞定“疑难杂症”?
38 | [视频]巧用wrk和火焰图,科学定位性能瓶颈
39 | 高性能的关键:shared dict 缓存和 lru 缓存
40 | 缓存与风暴并存,谁说缓存风暴不可避免?
41 | lua-resty-* 封装,让你远离多级缓存之痛
42 | 如何应对突发流量:漏桶和令牌桶的概念
43 | 灵活实现动态限流限速,其实没有那么难
44 | OpenResty 的杀手锏:动态
45 | 不得不提的能力外延:OpenResty常用的第三方库
46 | 答疑(四):共享字典的缓存是必须的吗?
API网关篇 (4讲)
47 | 微服务API网关搭建三步曲(一)
48 | 微服务API网关搭建三步曲(二)
49 | 微服务API网关搭建三步曲(三)
50 | 答疑(五):如何在工作中引入 OpenResty?
结束语 (1讲)
结束语 | 行百里者半九十
OpenResty从入门到实战
登录|注册

09 | 为什么 lua-resty-core 性能更高一些?

温铭 2019-06-14
你好,我是温铭。
前面两节课我们说了,Lua 是一种嵌入式开发语言,核心保持了短小精悍,你可以在 Redis、NGINX 中嵌入 Lua,来帮助你更灵活地完成业务逻辑。同时,Lua 也可以调用已有的 C 函数和数据结构,避免重复造轮子。
在 Lua 中,你可以用 Lua C API 来调用 C 函数,而在 LuaJIT 中还可以使用 FFI。对 OpenResty 而言:
在核心的 lua-nginx-module 中,调用 C 函数的 API,都是使用 Lua C API 来完成的;
而在 lua-resty-core 中,则是把 lua-nginx-module 已有的部分 API,使用 FFI 的模式重新实现了一遍。
看到这里你估计纳闷了:为什么要用 FFI 重新实现一遍?
别着急,让我们以 ngx.base64_decode 这个很简单的 API 为例,一起看下 Lua C API 和 FFI 的实现有何不同之处,这样你也可以对它们的性能有个直观的认识。

Lua CFunction

我们先来看下, lua-nginx-module 中用 Lua C API 是如何实现的。我们在项目的代码中搜索 decode_base64,可以找到它的代码实现在 ngx_http_lua_string.c 中:
lua_pushcfunction(L, ngx_http_lua_ngx_decode_base64);
lua_setfield(L, -2, "decode_base64");
取消
完成
0/1000字
划线
笔记
复制
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
该试读文章来自付费专栏《OpenResty从入门到实战》,如需阅读全部文章,
请订阅文章所属专栏。
立即订阅
登录 后留言

精选留言(11)

  • 黑铁打野王
    nginx version: openresty/1.13.6.2
    1. lua-nginx-module
    resty -e "local start = ngx.now();
    for _ =1, 1000000000 do
        ngx.encode_base64('123456')
    end
    ngx.update_time();
    ngx.say(ngx.now() - start)"
    79.530000209808
    2. lua-resty-core
    resty -e "require 'resty.core';
    local start = ngx.now();
    for _ =1, 1000000000 do
        ngx.encode_base64('123456')
    end
    ngx.update_time();
    ngx.say(ngx.now() - start)"
    8.944000005722
    一个79.5s 一个8.9s

    作者回复: 差不多 10 倍的性能差异

    2019-06-18
    2
    6
  • 微风吹了个吹
    温老师, 1.15.8的opnresty默认是开启GC64的,是不是可以理解为这里ffi.C.malloc与ffi.new就没啥区别了?官方的更新日志```change: we now enable the GC64 mode by default in our bundled LuaJIT build for x86_64 architectures; this can be disabled using --without-luajit-gc64. Thanks Thibault Charbonnier for the patch```

    作者回复: 是的

    2019-06-17
    1
    3
  • 回家
    假设使用decode_base64函数,lua-resty-core不开启的时候,使用的函数就是lua-nginx-module中实现的,而开启的话就是使用lua-resty-core中实现的?

    作者回复: 是的

    2019-06-15
    1
  • helloworld
    老师,lua-resty-core和lua-nginx-module各自都有哪些API,怎么查呢

    作者回复: 要分别查看这两个仓库的文档了

    2019-06-14
    1
  • Geek_e553fa
    沙发。希望多点实例。还有讲讲全局变量申请使用的一些替代方案。不是否定了不给解决办法

    作者回复: 可以使用模块中的 top level 局部变量来替代,这个后面会提到。
    在 OpenResty 中所有变量都要加 local。

    2019-06-14
    1
  • 写点啥呢
    请问老师,ffi和cfunction的性能差异是不是主要是有LuaJIT的实时编译优化带来的?除此之外还有哪些因素导致了这两者之间的性能差异呢?

    作者回复: 主要是这个原因

    2019-08-29
    1
  • Leon📷
    跨语言调用的话,函数调用返回都是通过函数栈来传递嘛,比如go调用C,是不是有点主题无关哈,希望老师解答下
    2019-07-02
  • 旺旺
    我是1.15.8.1版本的,用了前面同学给的代码,跑起来,时间相差很少,一个38.133000135422秒,一个37.325000047684秒。这是为啥?

    作者回复: 因为从1.15.8.1版本开始,默认开了 lua-resty-core

    2019-06-19
    2
  • 英雄
    看不懂

    作者回复: 知道 lua-resty-core 是使用 FFI 实现的 API 就行了,细节看不懂没有关系。

    2019-06-15
  • 回家
    如何理解FFI的交互部分是用lua实现的,这部分代码可以被JIT跟踪到?
    LuaCFuncion:ngx_http_lua_ngx_decode_base64整个函数都不能被JIT追踪到,而函数ngx.decode_base64可以被JIT追踪到,只有里面的函数C.ngx_http_lua_ffi_decode_base不能被追踪到是吗?也就是C.ngx_http_lua_ffi_decode_base函数可以被JIT编译优化?

    作者回复: LuaJIT 是运行 Lua 代码的,自然只能 JIT 它其中的 Lua 代码,CFunction 的自然无能为力。

    2019-06-15
    1
  • 一步
    这个不太了解,openresty 工作中要的少,还没上手的,不知道怎么去比较性能
    2019-06-14
收起评论
11
返回
顶部