• Wise
    2023-05-07 来自黑龙江
    在llama_index V0.6.1 版本中,没有GPTSimpleVectorIndex 类了 import openai, os from llama_index import GPTVectorStoreIndex, SimpleDirectoryReader os.environ["OPENAI_API_KEY"] = '' # 加载 documents documents = SimpleDirectoryReader('./data/mr_fujino').load_data() index = GPTVectorStoreIndex.from_documents(documents) index.storage_context.persist('index_mr_fujino') # 从磁盘重新加载: from llama_index import StorageContext, load_index_from_storage # rebuild storage context storage_context = StorageContext.from_defaults(persist_dir="./index_mr_fujino") # load index index = load_index_from_storage(storage_context) query_engine = index.as_query_engine() response = query_engine.query("鲁迅先生在日本学习医学的老师是谁?") print(response) 参考官方文档连接:https://gpt-index.readthedocs.io/en/latest/getting_started/starter_example.html
    展开

    作者回复: 👍 如果还想要用0.5.x运行,参看以下 “llama index 最近又更新了大版本,接口又改了一遍。如果要立刻可以运行,可以先 pip install --force-reinstall -v "llama-index==0.5.27" 退回到 0.5 系列的版本” 晚点我看一下更新代码到0.6.x 版本

    共 5 条评论
    17
  • hello
    2023-04-06 来自湖南
    想请教下老师,我们喂的语料,会被其他人看到使用吗?

    作者回复: 根据OpenAI的协议 1. 通过ChatGPT界面提交的会被内部看到,审核,并用于训练 2. 通过API提交的不会用于训练

    共 4 条评论
    9
  • daz2yy
    2023-04-04 来自广东
    老师,请问下一个问题,我把它用作 QA 系统的时候有个问题,原本 QA 就有标准的回答模版,里面包括有文档地址、操作步骤等;如果让 GPT 根据这个模版来回答问题,他会自由发挥,会漏掉一部分内容;想拥有 AI 自由对话的能力,又想有固定的回答模版这个怎么能较好的兼顾呢?

    作者回复: 可以通过Few-Shot的方式,在Prompt里面给AI一些例子,类似于下面这样,具体Prompt你自己调了多试一下。 ==== 我们的问题一般用这样的格式回答: 问题:blablabla 回答: 1. 文档地址 blabla 2. 操作步骤 blabla === 以下是上下文 {context_str} 问题:{question_str} 回答:

    
    7
  • 马听
    2023-04-12 来自上海
    分享一个加载MySQL数据的例子: from llama_index import GPTSimpleVectorIndex,download_loader DatabaseReader = download_loader('DatabaseReader') reader = DatabaseReader( scheme = "mysql", # Database Scheme host = "localhost", # Database Host port = "3306", # Database Port user = "martin", # Database User password = "xxxxxx", # Database Password dbname = "martin", # Database Name ) query = f""" select * from student_info """ documents = reader.load_data(query=query) print(documents)

    作者回复: 👍

    共 3 条评论
    6
  • Oxygen Au 昕
    2023-05-09 来自美国
    response = list_index.query("下面鲁迅先生以第一人称‘我’写的内容,请你用中文总结一下:", response_mode="tree_summarize") print(response) 上面这段代码报错,AttributeError: 'GPTListIndex' object has no attribute 'query' , 我用的是llama-index 0.6.1 下面是正确的代码 query_engine = list_index.as_query_engine(response_mode="tree_summarize") response = query_engine.query("下面鲁迅先生以第一人称‘我’写的内容,请你用中文总结一下:") print(response) 结果: 鲁迅先生在日本学习医学时遇到了藤野严九郎教授,他很有学问,对学生也很关心,甚至帮助鲁迅修改讲义。但鲁迅当时不够用功,有时也很任性。在学习中,他遇到了一些困难和不愉快的事情,最终决定离开医学去学习生物学。离开前,藤野先生送给他一张照片,并希望他能保持联系。鲁迅很久没有和任何人通信,但想起了这位热心的老师,他的照片挂在鲁迅的房间里,每当他疲倦时看到照片就会感到勇气和良心发现。
    展开

    作者回复: llama index 最近又更新了大版本,接口又改了一遍。如果要立刻可以运行,可以先 pip install --force-reinstall -v "llama-index==0.5.27" 退回到 0.5 系列的版本 晚点我看一下更新代码到0.6.x 版本

    
    5
  • Terry
    2023-04-25 来自浙江
    老师,请教一下langchain我理解也是一个LLM应用框架,它的功能和版本也更新很快。它和llama_index的区分是什么?在LLM应用开发上,我们一般怎么选择会比较好?

    作者回复: llama_index的重点放在了Index上,也就是通过各种方式为文本建立索引,有通过LLM的,也有很多并非和LLM相关的。 langchain的重点在 agent 和 chain 上,也就是流程组合上。 可以根据你的应用组合两个,如果你觉得问答效果不好,可以多研究一下llama-index。如果你希望有更多外部工具或者复杂流程可以用,可以多研究一下langchain。

    
    5
  • 勇.Max
    2023-05-08 来自北京
    上面from llama_index import GPTSimpleVectorIndex会报错,因为现在已经改成了GPTVectorStoreIndex。 from llama_index import GPTVectorStoreIndex //老师看到后可以更新下

    编辑回复: 收到,马上更新,感谢提醒🌹

    共 3 条评论
    2
  • Viola
    2023-04-05 来自摩尔多瓦
    有同学遇到吗? type object 'GPTSimpleVectorIndex' has no attribute 'from_documents'

    作者回复: 更新一下 llama-index 的版本,llama-index的接口从 0.4 到 0.5 做了比较大的更新。这一讲的内容,也是根据 0.5 的更新重新改过的。用最新版吧。 pip install -U llama-index

    共 2 条评论
    2
  • hawk
    2023-04-04 来自福建
    这些预选的问题,应该也是通过组合特定的提示语,和段落摘要,扔给GPT得到的吧?

    作者回复: 是的,组合就是通过 PromptTemplate 实现的

    共 3 条评论
    2
  • 黄智荣
    2023-05-16 来自福建
    现在有很多应用,在你把文档上传之后,还会给你一系列的提示,告诉你可以向对应的书或者论文问什么问题。 ------ 可以根据索引的文本,让chatgpt 设计几个提问的问题

    作者回复: 👍,这个一般被称之为 Self-Ask,的确是一个好办法。

    
    1