PCEVA,PC绝对领域,探寻真正的电脑知识
打印 上一主题 下一主题
开启左侧

对Sandforce 二代主控和市场上的新产品我也说两句

[复制链接]
1#
neeyuese 发表于 2011-10-28 08:08 | 显示全部楼层
SF2281低容量上并没开RAISE,只有120G以上才开,从另一点上看,他们之前出的问题也并不是能靠RAISE解决的,是处理数据的方式或者接口标准有问题造成的。

okko指出的ASSSD跑文件复制的测试,我觉得非常好,不过这个测试取决于内存,文件系统的设置,即使相同的硬盘换个系统则会差非常多。

三星830的持续写入不错,不过算法真不敢恭维。。
2#
neeyuese 发表于 2011-10-28 09:36 | 显示全部楼层
另外一点,我认为okko没有提到,SandForce 2系列主控虽然对处理NAND的效率方面做了很大改进,如你所说去掉压缩这层后基本等同于M4,不过他的算法上也有致命的一点。

众所周知SandForce没有大容量外置缓存,所以他的映射表(肯定是page mapping)大部分是做在闪存里的,所以当用户写入的数据不能压缩时,其实写入放大真的不低。(绝对不是1,至少在3以上)。

他的数据是通过闪存做了2级映射表。首8GB(我猜测的容量,实际可变)的不可压缩容量应该可以被第一层映射表笼罩(主控内SRAM可以优化),所以测试软件跑出来分数都不错。(一般测试软件测不到8G外的容量,况且数据大都可被压缩)。而之后的数据,由于主控缓存需要2次加载映射表(缓存装不下),造成了延迟增大(闪存延迟),即使主控的压缩是on the fly的,但是此时已经无法避免闪存原本的延迟,造成了寻址时间被闪存拖累并增大,随机数据的下降,继续下去,会造成主控不堪重负,所以SandForce主控会强制限速到我们常说的“GC态”,在“GC态”下的分数,就没有上面okko那么好看了。如果这种测试环境还在继续,那么“GC态”后更恶劣的“限速态”就会产生,这就是因为写入放大被拉到了2位数以上造成的。

所以我认为,SandForce在处理不可压缩数据的时候,前期写入放大可以做到1~3附近(1级映射表),而后期由于需要2级映射,写放大 + 垃圾回收后(1级,2级映射表都需要做垃圾回收),写放大最大会到10以上。当然这些可以靠预留空间增大来改善 ,所以企业级SandForce的OP容量都很大也是这个道理。

另一个不可避免的问题是如何确保Trim的指令能正确无误的发送到对应的地址。(数据已经被主控压缩处理,也就是说Trim指令也需要处理后才能定位到正确地址。)这可能就是SandForce主控做Trim的时候非常慢的道理,而且目前看来无解。
3#
neeyuese 发表于 2011-10-29 12:53 | 显示全部楼层
同时进行50%写和50%读的情况下,SF主控的优势就体现出来了。
也可以说在又是写入又是读取的情况下,SF主控 ...
haling008 发表于 29/10/2011 14:03



这是因为数据都可压缩,SandForce才占的便宜,如果数据无法压缩,SandForce会跑的很难看。

另外,你这个说法曾经是SandForce官方稿件里用1500拿来和Intel X25-M对比。
4#
neeyuese 发表于 2011-10-29 17:07 | 显示全部楼层
SandForce是因为主控不支持外接缓存,而非不想放缓存,不过这都不是问题,关键还是在于原本的设计初衷。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

快速回复 返回顶部