作者回复: 我们之前用过开源的t5-base,embedding也还不错 你可以选择 flan-t5 系列,或者后面介绍开源平替的 sentence_transformers 只是embedding的话,可以选的还是不少的
作者回复: 主要是如何运用现在的AI工具做应用开发。自然语言是其中的一部分,核心也不是自然语言处理知识,而是怎么利用好大语言模型直接开发应用。
作者回复: 可以,但是我会建议反过来操作。把数据库的表信息和需求提供给大语言模型的上下文,然后让大语言模型自动生成查询的SQL,也许效果更好一些。
作者回复: 类似 text-ada-embedding 之类的小模型不会改变 升级往往是提供一个新模型 特定模型也有带日期的快照版本,选取那些快照版本就好了。
作者回复: embedding就是基础模型啊,只是不是拿来生成文本,只是用了最后一层Transformer里的输出向量。 所以的确是越大的模型,embedding按道理应该越好。
作者回复: 有几种做法 1. 不只是用embedding来做文本召回,llama还提供了更多的数据结构,可以深入看一遍文档,试一下其他的indices 2. 对于文本,通过 self-ask,先让OpenAI生成很多针对内容的问题。然后和问题做匹配。
作者回复: pip install faiss-cpu 或者 pip install faiss-gpu
作者回复: 👍
作者回复: 这个办法当然不是不可以。但是为什么要限制自己用那么小的内存呢?毕竟现在服务器的成本并不高啊。 不用faiss,直接搞个云托管的向量数据库好了?大部分都有免费档位都比你自己的100条资源要多啊?
作者回复: faiss其实还是很快的,百万量级的faiss similarity通过CPU计算也只需要10ms以内