作者回复: 生产环境,建议一台vm或者一台bm一个ES inatance
作者回复: 你这个问题,相信听完第三部分后,就会自己给出答案。
首先,我并不知道你的性能需求,例如多少数据量,多大的写入,是写为主还是查询为主,等等,只能给非常笼统的推荐
磁盘,推荐 SSD,JVM最大Xmx 不要超过30G。副本分片至少设置为1。 主分片,单个存储不要超过 30 GB(按照这个你推算出分片数,进行设定)
作者回复: 黄的状态 代表你的副本分片没有分配。一个办法是,先设置index的settings,将副本设置成0。一个办法可以通过增加一个节点使得分片能够分配。
你有观察和思考的好习惯,👍
作者回复: 在第二部分会有深入的讲解。
一个node对应一个es instance
一个node可以有多个index
一个index可以有多个shard
一个shard是一个lucene index(这个index是lucene自己的概念、和es的index不是一回事)
作者回复: 在kibana的dev console里,写一个api,mac下按下cmd➕/ 会跳到相应的api
作者回复: 是ES自己带的。默认会到elasticsearch.yml中读取,通过-E 会overwrite掉yml中的配置
作者回复: 1.集群中磁盘快满的时候,你再增加机器,确实可能导致新建的索引全部分配到新节点上去的可能性。最终导致数据分配不均。所以要记得监控集群,到70%就需要考虑删除数据或是增加节点
2.可以设置最大分片书缓解这个问题。
3.分片的尺寸如果过大,确实也没有快速恢复的办法,所以尽量保证分片的size在40G以下
作者回复: 应该没有问题,数据导入了,就说明正确了
作者回复: docker内访问,使用的就是这个内部网络。你访问localhost:9200可以吗?
作者回复: 单个分片不能垮节点
作者回复: 是不是杀掉了唯一的master的节点?
作者回复: 至少要确保能有一个master节点正常工作,否则集群将无法正常工作
作者回复: 你可以观看后面运维相关的一些课程。
有介绍CPU,内存,磁盘的配比的介绍
有如何管理时间序列索引的一些最佳实践等相关的只是点