18|开源模型:如何使用Hugging Face上的模型
郑晔

你好,我是郑晔!
经过前面几个部分的讲解,我们现在已经完全有能力构建一个属于自己的大模型应用了。不过,之前所有的应用都是基于 OpenAI 的 GPT 模型构建的。在接下来的几讲,我们会谈谈其它的模型。
既然 GPT 模型已经很好用了,为什么要使用其它模型呢?一个很直接的问题就是,如果我们使用 GPT,这就意味着,所有的请求都会发送给第三方。这种做法对于很多企业来说是没有问题的,但还有很多大企业,它们特别在意的就是数据安全性,把数据发到外部是一件无法接受的事情,更有甚者,其内部服务与外部网络是断开的。
所以,在传统开发中,如果为这些企业服务,一个重要的议题就是私有化部署,但像 OpenAI 这样的服务显然是无法满足私有化部署的需求。在这种情况下,一个能够运行在本地的大模型就显得至关重要了,之所以我们可以在本地运行模型,是因为有人把已经做好的模型开放了出来,这就是开源的力量。
这一讲,我们讲讲如何使用开源模型。
Hugging Face
谈及开源模型,目前最知名的 AI 模型开源社区是 Hugging Face。Hugging Face 之于 AI 社区,犹如 Github 之于程序员社区。

Hugging Face 原本是一家针对青少年提供聊天机器人的公司,所以,选择了一个表情符号(🤗)来给公司命名。不过,创始人很快就意识到真正有潜力的并不是聊天机器人本身,而是其背后的模型。
公开
同步至部落
取消
完成
0/2000
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结

1. Hugging Face 是一个知名的 AI 模型开源社区,提供各种模型、数据集和部署应用,以及相关工具如 transformers 程序库和 Gradio。 2. 使用 Hugging Face 模型可以通过高层接口的管道(pipeline)调用,也可以通过底层实现调用,底层实现的流程包括将输入转换成 Token、模型生成内容、将生成的 Token 转换成文本。 3. 在高层接口中,可以使用 pipeline 调用不同用途的模型,如文本生成和翻译,而底层实现则需要手动处理 Token 和模型生成的内容。 4. Hugging Face 上提供了多种模型,可以用于不同的任务,用户可以根据需求选择合适的模型。 5. Hugging Face 模型的使用需要与对应的 Tokenizer 结合使用,通常它们的模型名字是一致的。 6. Hugging Face 提供了 Streamer 的概念,可以实现模型的流式输出,包括 TextStreamer 和 TextIteratorStreamer,以及在 pipeline 上增加流式输出的能力。 7. Hugging Face 是一个值得挖掘的宝藏,为我们提供了大量可以完成各种工作的模型。 8. 调用 Hugging Face 的模型有两种方式,高层的管道方式更易用,而底层的方式则需要对大模型的处理流程有所了解。 9. 除了使用大模型生成文本之外,Hugging Face 上还有大量的不同用途的模型,用户可以根据自己的需要选择相应的模型。 10. Hugging Face 为我们提供了大量可以完成各种工作的模型,是一个值得挖掘的宝藏。
仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《程序员的 AI 开发第一课》,新⼈⾸单¥59
《程序员的 AI 开发第一课》,新⼈⾸单¥59
立即购买
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论