跟月影学前端智能体开发
月影
波波熊科技联合创始人
3070 人已学习
新⼈⾸单¥59
登录后,你可以任选4讲全文学习
课程目录
已更新 40 讲/共 44 讲
跟月影学前端智能体开发
15
15
1.0x
00:00/00:00
登录|注册

33|如何私有化部署和应用本地大模型

你好,我是月影。
从这一讲开始,我们进入新的单元,讲一讲企业应用中可能会遇到的问题,以及该如何解决这类问题。
首先,很多公司出于数据安全合规方面的考量,都需要私有化部署大模型,而不能采用公开的大模型。这时候,就需要我们具备模型部署能力,能自己在服务器上部署开源或者特定的大模型。
实际上,现在有很多比较不错的开源大语言模型可以选择,其中包括通用对话类以及编程工具类。

适合本地部署的大模型

我为你整理了一些常用的模型。

通用对话类模型

编程 / 工具类模型

除了这些模型外,还有一类专用模型,比如用来做向量嵌入的模型,通常用于构建本地知识库,在后续章节里我们再专门讨论。

如何部署本地大模型

如果要快速部署本地大模型,支持用 NodeJS 调用 API,目前比较好用的工具是 Ollama。我们可以具体尝试一下。
首先安装 Ollama 命令,如果你是在 Linux 服务器上安装,可以用如下命令:
curl -fsSL https://ollama.com/install.sh | sh
如果你是 MacOS 或 Windows,那么可以在官网直接下载安装包:
下载完成之后,我们解压运行 App,会自动安装 Ollama 命令。安装完成后,我们在终端运行:
> ollama -v
ollama version is 0.9.0
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
  • 解释
  • 总结

1. 企业需要私有化部署大模型以满足数据安全合规要求,因此需要具备模型部署能力。 2. 可选择适合本地部署的大模型,包括通用对话类模型和编程/工具类模型。 3. 使用 Ollama 工具可以快速部署本地大模型,并支持通过 NodeJS 调用 API。 4. 通过 HTTP 请求访问本地部署的大模型的 REST API,可以实现在前端调用本地大模型。 5. 本地部署的代码专用模型如 deepseek-coder 可以解决企业安全因素导致无法连接外网的问题。

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《跟月影学前端智能体开发》
新⼈⾸单¥59
立即购买
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
大纲
固定大纲
适合本地部署的大模型
通用对话类模型
编程 / 工具类模型
如何部署本地大模型
显示
设置
留言
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部
文章页面操作
MAC
windows
作用
esc
esc
退出沉浸式阅读
shift + f
f11
进入/退出沉浸式
command + ⬆️
home
滚动到页面顶部
command + ⬇️
end
滚动到页面底部
⬅️ (仅针对订阅)
⬅️ (仅针对订阅)
上一篇
➡️ (仅针对订阅)
➡️ (仅针对订阅)
下一篇
command + j
page up
向下滚动一屏
command + k
page down
向上滚动一屏
p
p
音频播放/暂停
j
j
向下滚动一点
k
k
向上滚动一点
空格
空格
向下滚动一屏
播放器操作
MAC
windows
作用
esc
esc
退出全屏
⬅️
⬅️
快退
➡️
➡️
快进
空格
空格
视频播放/暂停(视频全屏时生效)