作者回复: 你这个问题,相信听完第三部分后,就会自己给出答案。 首先,我并不知道你的性能需求,例如多少数据量,多大的写入,是写为主还是查询为主,等等,只能给非常笼统的推荐 磁盘,推荐 SSD,JVM最大Xmx 不要超过30G。副本分片至少设置为1。 主分片,单个存储不要超过 30 GB(按照这个你推算出分片数,进行设定)
作者回复: 是ES自己带的。默认会到elasticsearch.yml中读取,通过-E 会overwrite掉yml中的配置
作者回复: 在第二部分会有深入的讲解。 一个node对应一个es instance 一个node可以有多个index 一个index可以有多个shard 一个shard是一个lucene index(这个index是lucene自己的概念、和es的index不是一回事)
作者回复: 黄的状态 代表你的副本分片没有分配。一个办法是,先设置index的settings,将副本设置成0。一个办法可以通过增加一个节点使得分片能够分配。 你有观察和思考的好习惯,👍
作者回复: 生产环境,建议一台vm或者一台bm一个ES inatance
作者回复: 可以有多个master节点,active的master节点只有一个
作者回复: 在kibana的dev console里,写一个api,mac下按下cmd➕/ 会跳到相应的api
作者回复: 1.集群中磁盘快满的时候,你再增加机器,确实可能导致新建的索引全部分配到新节点上去的可能性。最终导致数据分配不均。所以要记得监控集群,到70%就需要考虑删除数据或是增加节点 2.可以设置最大分片书缓解这个问题。 3.分片的尺寸如果过大,确实也没有快速恢复的办法,所以尽量保证分片的size在40G以下
作者回复: 一个集群可以配置一到多个master节点。具体的后面章节会有详细讲解的
作者回复: 应该没有问题,数据导入了,就说明正确了