作者回复: 👍
作者回复: 👍
作者回复: 我每一节demo 都写在readme 中,你贴到kibana的dev tool,在那个语句上,在 mac上按下cmd➕/ 就能跳到api 文档,其他系统的快捷键 你在kibana上查一下快捷键
作者回复: 根据name的关键字? 多字段可以对同样的文本使用不同的分词器,并且使用子字段进行查询
作者回复: 我个人的理解,你输入的最小搜索单元就是一个term。输入被分词后,就变成一个个token? 具体的区别我也说不清楚,大家可以各抒己见
作者回复: 你好,你说的问题确实存在。例如,我没有讲解docker的安装的细节,只给出了相关的文档。docker其实并不是必须的,我只是希望能给提供大家一个拓展思维的方式。即便一下子设置不成功也不会影响后面的学习。 ES的本机环境安装,应该还是比较简单的,按照文档上的步骤运行一下,一般都不会有什么问题。至于生产环境的配置,我们会给出一些相关的建议
作者回复: 嗯 结合kibana的自动提示功能,加上cmd➕斜杠查看文档的功能。代码不需要死记,但是结构和场景一定要理解并记住
作者回复: 分词在索引时做,也就是数据写入时。目的是创建倒排索引提高搜索速度。写入的原始数据保存在_source中
作者回复: 可以把课上的demo自己运行一下,能加深理解
作者回复: char filter - >tokenizer -> token filter 这样的顺序