本帖最后由 eterfinity 于 2016-12-20 15:56 编辑
不是精简置备过饱和的情况
而是实打实的raid10方式写入
假定24块100G的盘 去掉一片备用 存储初始化完报告客户的是 23块盘的raid5容量 即22x100g = 2.2t
但是这个存储在写入时只使用raid10的数据块冗余方式, 只有数据快照持续保护周期外的数据或者分层沉淀的冷数据,才会被控制器搬运到raid5方式的区块.
厂家的最佳实践是每4小时一个回放点的24小时保存期快照保护策略, 控制器会后台处理raid10到raid5的搬运,
但如果客户就按照存储报告的可用容量,分配了一个2T的厚置备卷
然后不去设定任何快照策略 那么写入极限是23块盘里面细分区块后raid10的容量 即 23x100g/2 = 1.15t , 写到1.15T时这个2T的卷就挂掉变只读了
以上存储固件机制 , 甚至没有达到ssd 的全盘 slc cache的完备性,因为全盘slc cache最终是能写入全盘mlc或者全盘tlc的数据量的,只是半程降速而已
然而此存储,并没有考虑客户不使用持续数据保护或者分层的情况(大多数SAN只是作为简单的块设备使用,不会去碰这种功能)
所以会出现我说的SAN挂掉的情况.
厂家为啥会弄raid10 cache呢
因为这样弄,12个机械盘能跑出 1个万兆口的满速,即使是后台搬运繁忙的时候,也能跑出4个千兆的持续写性能
|