PCEVA,PC绝对领域,探寻真正的电脑知识
打印 上一主题 下一主题
开启左侧

【LV3】桌面与企业级的真实 Intel DC S3700/S3500详解

  [复制链接]
跳转到指定楼层
1#
111alan 发表于 2015-5-19 18:35 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
点击数:85071|回复数:94
本帖最后由 111alan 于 2015-5-22 11:26 编辑

有一个游戏叫“捉迷藏”。曾经所有人都将他当成50米短跑玩,但是捕手穷追不舍,最终没有人能跑得过捕手。捕手一直在抱怨自己的对手水平太低,直到一个会“藏”的玩家终于出现。。。

                                                                                                                                                                ——题记

目录:

-1.题记
0.目录
1.前言
2.详解
3.测试
4.分析
5.结论
6.附件



前言:


  我已经记不起,曾几何时,对SSD的评价标准成为一方绿油油的的框子。与之相应,SSD评测,也就是花几分钟跑个分并称之为“性能”,将盘子拆开,读取颗粒、主控与缓存的型号来臆断其“稳定性”,时不时还编出一个“用料缩水”来体现自己的技术。客户选购SSD的标准,也就只能结合品牌与绿色方框中某些数值,以及所谓的口碑与定位,来对其价值进行估计。

  这种测试显得非常有说服力,因为“速度”这个概念一直是计算机技术的核心目标,持续、随机速度与其组成的跑分也就很容易接受。与机械硬盘相比,SSD高超的跑分与不俗的性能相当同步,这也就奠定了峰值跑分的地位。在此基础上,经过时间的沉淀和各种用户的分析与脑补,“4K QD1”等“子党派”的人数开始逐渐变多,各个厂商也顺应了这种大众思维,不断优化自己产品跑出的分数。

  但是,在跑分打的火热的今天,有些使用过很多种不同SSD的用户开始发现,自己对性能的追求几乎是徒劳的:不管选择跑分怎样漂亮的产品,使用感受也就那样甚至更慢;甚至在高负载环境中,跑分高的产品反而奇慢无比甚至出现各种问题。这些用户中,有些放弃了对性能的追求而转向安全等其他方面,有些则是产生了“信仰”,“软逼迫”自己喜欢跑分高的盘,并以各种不科学的测试“证明”其的确能做到提升,有些则是从跑分本身获取价值。

  然而,intel早就看穿了这一切。这个问题早就于2012年第三季度给出了一种全新而十分贴近实际应用的解答。

  因为,Intel DC S3700诞生于2012年第三季度。

  


  本文将以桌面级及企业级应用的角度,详细解析DC S3500/S3700的特性,以更深入测试的方法对比测试其真正的能力,并结合各个层次用户的各方面需求对产品选择进行指导。



详解:


S3700与S3500在外形和参数标称上基本一致。企业级外观设计从简,没有家用级上看见的那些装饰性图案,反而有一种工业美感。


背面,虽然说整块的铝合金,比家用级更有分量和强度,但是你敢打磨一下不


拆开后我们可以清楚的看到Intel的整个PCB布局。


最引人注目的就是intel自家的Sata3主控:PC29AS21CA0。这颗主控为intel向LSI定制的8通道主控。相比之前320/710的BA0,CA0终于开始支持Sata3,然而其最重大的改进却不是这一点,而是对映射表结构进行了调整。

  这里我们必须提一下其产生的背景。在此款主控上市之前,Intel的产品线非常混乱。虽然Intel早已于2011年第一季度发布了首次集成原生sata3的6系列芯片组,自己也有优秀的闪存资源,但是自己的SSD主控性能却完全拿不出手,不得不求助于其他方案:期初11年第一季度发布的510系列采用Marvell 9174主控,一年后更新的520系列更换为Sandforce 2281。企业级710系列却仍然在使用自家BA0主控。在各家陆续推出新一代sata3主控之时,intel自家主控的曾经的光辉逐渐消散,其古老的固件设计思路、低下的计算性能与落后的规格使之逐渐落后于其他解决方案。加之之前出现的“8M门”事件,很多人都对intel失去了信心,甚至有说法称intel将退出SSD行业。

BA0落后的设计是由于其产生的环境决定的。当时DRAM颗粒密度不高,成本高昂。BA0主控为了节省缓存空间,采用了如下图所示的二叉树映射表结构。



如果需要寻找LBA27,则首先需要进行如下判断:1.27大于9,所以取右儿子,2.27小于29,取左儿子,3.27=27,结束。这个结构的弱点很明显:SSD内部有很多PBA需要对应到LBA,这样整个二叉树会非常复杂,使得寻道延迟可能会变得很高;随着时间推移映射表会越来越复杂导致性能下降;而且一旦有一个节点出错,对整个映射表的影响可能非常大。这也是8M问题的产生原因之一。

新的CA0主控发布之时DRAM的密度和价格已经不是问题,所以其采用了更为直接的平铺式1:1(1MB->1GB)映射表。以上面的案例,找到LBA27仅需一次操作,延迟会大大降低。并且出错时影响较小而且易于修正,显著减少故障发生的概率。这种映射表需要大容量的缓存来放置,所以DC-S3700 800GB提供了2颗4Gb缓存。

缓存型号据批次而定,目前已看到三星、美光、现代的产品。如下图为另一个美光缓存颗粒的产品:


DC S3700 800GB闪存为29F64B08PCME1,部分后期更换为ME2。这是一颗e-MLC闪存(综合主控的耐久技术,Intel称之为“HET-MLC”),单颗8Die 8CE,64GB,全盘16颗总容量为1024GB,除去三颗XOR die和800GB可用容量,OP约占20%。


之前的旗舰级企业级需要耐久度的产品中,上我们一般看到的都是SLC闪存。虽然SLC性能和耐久性都更强,但是成本和存储密度上相对于MLC都弱得多。Intel看到了MLC的优势与经过改良后耐久方面能与SLC匹敌的可能性,所以决定在Sata旗舰级上抛弃SLC。为此Intel在闪存的品质和调教上花了不少功夫。

首先是颗粒的筛选。Intel会在未封装时,根据众多关键的内参筛选出最好的die,并且通过调整时序等参数使之拥有更高的耐久性。

之后,闪存要经过严格的品控。Intel对颗粒的测试比JEDEC标准更加严格。样本将在高温下进行测试,每一个P/E周期之后都会检查数据正确性,无需估计,直接得出闪存当前UBER(不可纠正错误率)是否符合规范。测试中,实际主控与固件对闪存的管理也会得到仿真,以使测试更贴近实际使用。


最后,闪存将与实际的固件和主控在一起进行耐久测试。客户买的是硬盘而不是闪存,需要的是硬盘整体的的耐久度,所以这个测试比仅仅特挑颗粒更加准确。为了避免这种测试对产品的耐久度造成损失,intel采取了“Short Stroke”的方法,即每一颗闪存选取其中一小块区域进行耐久度测试。固件会经过调整,使得其他区域不会受到影响。


用于检测的特殊接口,与主控和各个颗粒相连。


通过如此严格品控的e-MLC闪存颗粒具有30000P/E的标称寿命,并且寿命内闪存在XOR之前的UBER(不可纠正错误率)可以达到10^-14。这已达到了很多SSD经过主控ECC后的水平。。。

SSD是一个整体。其性能和数据安全性不仅需要闪存、缓存和主控各自非常强大,更需要有一些全局的措施。这里就必须提一下XOR。

XOR是目前企业级中经常见到的技术,例如美光的RAIN、Sandforce的RAISE。Intel的XOR类似于Raid4.Intel在DC系列产品的闪存颗粒中将一些Die设置为“XOR die”用于存储奇偶校验数据,如DC S3700中共有1-3个die(根据容量决定)、S3500中有一个die作此用途。在写入时,主控中会根据写入的数据生成奇偶校验数据并暂存在主控的SRAM中,稍后写入XOR die。在读取数据时,数据也会经过校验。其实在某种程度上可以说Intel DC有2级缓存,第一级SRAM用于存储校验信息,第二级DRAM用于存储映射表。


这样做虽然会加大主控的压力,损失一些性能,但是极大的增强了数据正确性和安全性:在一般使用中,XOR可以用于纠错;在发生灾难性的的故障,如某些die出现大量坏块甚至失效时,盘内的数据仍然能正常读出。夸张一点,你开盖砸上一锤子,可能数据仍然可以正常取出而不包括这种设计的类似于Raid0的结构,一旦某一颗die出现了一些问题,所有数据都会报销而且几乎没有恢复的可能。这种做法在SSD的安全性明显弱于HDD,并且由于颗粒制程提升逐渐变得更弱的今天,是尤为必要的。

上面所说的XOR仅仅是数据保护中的一个环节。其实intel为DC系列SSD的所有数据接口都设置了CRC校验,并且两级缓存与闪存都设置了ECC与LBA tag检查,并把整套系统称为“End-to-End Data Protection”(端对端数据保护)。其实intel已经为整机建立起了一套完整的端到端数据保护系统,如果采用intel Xeon处理器、ECC内存、Intel服务器芯片组、Intel固态硬盘,整套系统内部各组件将互相协作,使得个组件之间的数据传输错误率达到最低。


从闪存筛选、主控设计直到层层数据保护,Intel在DC S3700上的用心使得其不仅耐久度已经可以达到标称每天10次全盘读写、持续5年的水准,UBER(不可纠正错误率)仅有JEDEC企业级产品标准的十分之一,平均无故障时间更是可以达到200万小时。


当然,硬盘本身不会出现问题,不代表外部条件不会让盘出现问题。而外部环境除了上面已经经过验证的温度问题和SSD本身就善于应对的震动问题以外,电源问题是最容易出现的、对硬盘危害最大的一个因素。可能为硬盘供电的电源纹波、压降表现并不优秀,也可能在热插拔时会形成浪涌。为此,Intel为DC系列SSD设置了一套与众不同的电源系统。虽然这套系统中使用了至少4层PCB很多少见到的元件,规格书并不能找全只能管中窥豹,但是以目前的分析来看,这套系统用“State of Art”形容绝不为过

整个电源系统的结构如下所示:


输入端,+12v和+5v首先经过防浪涌处理(蓝色框)。为了同时支持+5v和+12v输入,输入的电压会各自经过TPS2412(蓝色框)进行选择。当有+12v供电时,硬盘会选择通过+12v供电,并通过黄色框内一套采用TPS54620 Drmos的DC-DC转换器转换成5V向盘内部供电。由于宽幅的DC-DC系统的存在,输入电压的偏离会被SSD第一级供电系统处理掉,输出的供电纹波也会经过大容量MLCC电容的过滤。这就大大减轻了供电系统对输入供电品质的依赖。


接下来我们来看掉电保护系统。Intel专门为此套系统起了一个名字:Power Loss Imminent(PLI)。开始看到这个名字可能会让人感觉有些做作:不就是一个掉电保护么,犯得着起一个新的名字打广告?但是仔细研究就会发现,这个掉电保护系统设计的异常巧妙,与其他盘的掉电保护系统完全不同,值得有一个自己的名字。

对于掉电保护的整体结构,intel官方给出了一个简单的结构图。不过这个图里并没有表现出与众不同,那么我们来看看PCB的具体设计。


掉电保护系统其实与整个电源系统关系非常紧密,包括共用了多个DC-DC模块,并使用开关来控制电流从电容还是外部供电来,以节省本来就不宽裕的PCB空间。

我们可以看到明显的并联的2个储能电容,它们都是47μF 35V规格。不同于其他各种掉电保护与UPS、电池的设计,Intel在此处采取了升压储能的方式,将输入的5V电压转换成35V高压储存在电容中,使用时通过DC-DC模块降压回5V。

为此,PCB上设计了2级线性降压,分别在蓝色框与紫色框中。这里两处均采用了体积小、整合度高的Drmos设计取代老的上下桥mosfet+driver,Drmos都是Texas Instrument产,分别为TPS54240与TPS54318。其中蓝色框内一级用于将电容的输出的电压降回5V,紫色框内则是主控的供电。

对照上面的结构草图,我们可以看到,洋红色框内的mosfet与AO4838(Alpha & Omega产,其实也就是整合2个mosfet)就分别是结构图中的SW2与SW1。它们的gate极分别与电容正极和两个5V相连。mosfet就是一个开关,通过gate极的电势控制source极是否和drain极导通。当外接电源中断时,SW2的mosfet中gate因为连接了电容这个储能设备,电势较高,使得这个开关断开;SW2也是由于类似的作用,由外接供电切换到PLI模块向drain供电。

总的来说,这个PLI掉电保护系统与普通的掉电保护系统最主要的差别就是升压储能。这种做法会极大增加设计难度,并且会占用本该属于电容的空间。那么intel为什么要这样设计呢?

Intel当然不是傻子。我们要从DC-DC的原理上开始分析:


这张图就是一个简单的DC-DC线性降压电路。当Q1导通Q2断开时,电感L左端电势会提升到+5v;当Q1断开Q2导通时,电感L左端为0电势。如果这两个过程高速的轮流进行,又由于电感有阻碍交流电通过的特性,电感L右端会产生相对稳定的介于0和+5V之间电势,再通过滤波电容C滤波,我们就可以在右边的输出端获得所需要的电势,在此处就是对地电压。通过调节这个两边轮流进行操作中两个过程的时间比值(即占空比),就可以调节输出的电压。

这样,你就知道为什么要采用升压储能设计了吧?以往的设计中,因为电容本身的电压在放电时会线性下降,其实电容的能量没用掉多少就不能用了,因为电压低于设备需要的电压了,就像下面左图里那样;而如果进行升压储能,我们可以把程序设置的更加巧妙,根据电容电压的情况动态调节占空比,使得掉电保护模块输出的电压在电容放完电之前保持在允许范围内的时间显著增长。这样就能“榨干”电容的电力,成倍的提升其实际输出电能。这种利用动态DC-DC变压来增加电容能量利用率的做法也是目前超级电容储能的一种很常见的方案。


然而,这个系统占用了大量本该属于电容的PCB空间,其储能能力真的比得上一堆钽电容么?

其实intel对电容选材进行了仔细筛选。首先排除的是静电式电容,因为它的容量会随着时间显著减少,并且其在电源电压发生变化时容量也会减少。而钽电容、铌电容被排除的原因是其高容量、高压版本过于昂贵(几十美元一颗),而且存在爆炸的风险。其实,由于其安全隐患,很多军工企业都明令禁止使用钽电容。普通固态聚合物电容被排除则是因为其“矮胖”的外形不容易塞进仅有7mm高度的外壳中,而D薄型铝聚合物电容则没有足够高储能的产品。所以最终方案定为“黑金刚”铝电解电容,这是电解电容中最好的产品之一。



对于电压和容量的选择,首要标准当然是高能量密度。电容储能E=½CU²,适度舍弃容值追求电压会有一定好处。又因为DC-DC降压模块在输入高于输出要求电压时才能正常工作,高压的电容能利用更大百分比的能量。另外,电容的外形和体积也要加以考虑,需要放进能腾出的位置中。经过权衡,intel最终使用了47μF 35V的方案。

我们不妨对比一下这种方案和钽电容储能的具体值。根据上面的公式,一颗470μF 6.3V的钽聚合物电容(实际留安全余量至5v)的最大储能为5.88*10^(-3)J,而47μF 35V的铝电解电容的最大储能为2.88*10^(-2)J,约为前者的5倍。另外,DC-DC模块采用的4.7μH的储能电感也能起到减缓电压下降速度的作用,再加上升压存储的优化作用,也许只有堆半面钽电容才能和它达到同样的有效能量输出吧更重要的是,这个PLI模块“占地面积”并不比其他方案大,可以留足够的空间优化其他走线的电气性能。

由于储能电压高达35v,接近人体安全电压,intel采用绝缘膜+塑料支架的方式来保证安全性。只要别把SSD捏成球体,安全性还是没问题的。


当然,每次触发掉电保护的事件都会被记录在smart信息里


看完硬件配置,接下来,我们来看看软件。

除了SSD toolbox这种用于固件更新,smart查看等简易操作的小软件,intel还为其DC系列SSD提供了一个高级工具:Intel SSD Datacenter Tool,用于实现各种高级功能。


由于是面向专业用户的工具,这个软件是采用命令行的方式工作的。毕竟对于码农来说这种方式更加高效,就像我们打字是用实体键盘而不是用软键盘鼠标一个一个点。

这个工具的功能非常丰富。它不仅能实现toolbox的查看磁盘信息、更新固件等简单的功能,还能实现调节电源规划、更改接口速率、测试掉电保护电容、开关写入缓存甚至更改可用容量等一系列功能。可以说能用得上的它都有了,就差超频和OEM刷公版固件了




测试:


  首先是性能测试。

  这里我们不得不面对的一个问题是:什么才是性能?或者说,什么才能衡量性能?

  可能不少人会说:这个算是个问题吗?性能是什么,跑分一跑不就出来了?

  但是,这个回答会面临一个严峻的问题:如果测试与实际应用同步率过低,也就是与实际应用没有什么关系;误差大到可以淹没产品之间的差异性;甚至被利用作为营销手段,牺牲实际使用感受来提升,那么这个分数还能作为“性能”的标准么?比如能否拿“盘子从5楼丢下来还能不能用”来评价其抗震性能?

  答案显然是否定的。个人的观点是,一个能力如果要被称为“性能”,那么它必须与实际应用挂钩。如果一个测试衡量的能力不能在任何实际应用中创造价值,那么这个测试就仅仅是跑分,而不能作为衡量性能的标准。


  那么,常见的爆发性跑分测试有什么问题呢?

  1,其测试的项目在SSD对SSD测试中表现出的差距与实际没什么关系。爆发性测试虽然有ASSSD、CDM、TxBench、ATTO等很多种,但是殊途同归,大致都能分为持续读写、QD1随机读写、高QD随机读写这几类:

  对持续读写来说,与SSD持续带宽相比的也就SSD本身与内存以上了,有谁天天拿几个SSD互相不停地拷数据呢?

  对于QD1随机读写峰值来说,平均16MB/s的4KQD1性能意味着4096iops和平均0.24ms的平均延迟。而人类的反应时间为100ms附近。就算人能察觉到24ms的卡顿,纠结平均响应时间是自己能感觉到延迟的百分之一还是千分之一真的有意义么?

  对于峰值QD32,这么高的QD在日常使用中完全不会出现,在服务器等应用中也不是以“峰值”的形式出现。测试实际中不出现的情形真的有意义么?

  2,分数组成权重偏差极大,过分偏重不重要的组成部分,详见此贴:http://bbs.pceva.com.cn/forum.php?mod=viewthread&tid=89106&highlight=%E6%95%B0%E5%AD%A6

  3,CPU主频、节能是否开关等因素造成的离散误差巨大

  4,很多实际环境中出现的很重要的因素被忽略。比如混合读写。在实际应用中很少出现连续读写几万个相同的数据块的情况,往往不同大小的数据块混合、随机与持续混合、读取写入混合。有些SSD在这方面做得很差,但是测试无法体现。

  5,“时间”这个因素被完全忽略。

  速度随着时间下降SSD无法避免的问题之一。这里我们引用tom's hardware里的一段话来解释这个问题。


  厂商在标称性能时当然会选择标称新盘的性能数值,因为它更好看。但是闪存不仅每次写入都要擦除原来的数据,而且只能以block为单位擦除。这使得不论从映射表还是从闪存上的数据而言盘子都会变“脏”。虽然有GC来维持秩序,但是不能指望使用过度积极的GC来改进性能,因为这个操作本身也会占用SSD的资源,造成卡顿等问题,比较典型的如曾经浦科特M5P跑分不正常问题。而且GC也很难将盘真正恢复成全新状态。

  最终,SSD会在其应用环境下达到一种叫“稳定态”的状态。这是一种极限的状态(由于离散误差的存在,这个极限是可以达到的)。这才是SSD真正使用中的状态。这种状态在服务器这种高压环境下体现出的差异犹为明显,在家用环境中也有所体现(虽然系统本身也有一定责任)。而这种状态的性能不仅峰值跑分很难衡量,而且也不会有人晒出来。

  然而,Intel看到了这些以往峰值测试的弊端,并且提出了一个全新的、更加本质的标准:性能一致性(Performance Consistency)。而这个标准,如今已经是企业级SSD最重要的评价标准之一。

  服务质量(QoS,Quality of Service)的要求包括2个方面:持续的高IOps和可预见的低延迟。也就是其不仅要求性能强,而且要求性能的稳定性,不能随着时间推移变得非常差或者不稳定,也不能时常(99%直至99.9999%)出现高延迟或低IOps造成卡顿。这在峰值性能和实际性能逐渐脱离关系的今天显得尤为重要,将会在后文中介绍。


  正因为这些问题的存在,本次测试会引入更深入的手段,更加深入和精确的了解各个SSD,看它是个花瓶还是有真本事。

参赛选手:

1.Intel DC S3700 800GB,作为本次评测的主角出现。被ANAND评价为“最激动人心的SSD”
2.Intel DC S3500 600GB,S3700颗粒更换、耐久设计削减、OP减少版本,企业级读盘定位,作为配角出现
3.Samsung 840Pro 256GB,被誉为“跑分王”。曾被某媒体称为“SATA最强音”,也曾被三星作为企业级宣传
4.Sandisk A110 256GB,9183主控,家用级定位,作为唯一的PCI-e通道产品出现,以测试目前PCI-e接口产品的素质
5.超极速 S301(?) 128GB,为SF2281VB1+JCNE1 SLC闪存,黄金固件,企业级定位,官方宣传为“世界最快的SSD”

1-4合影:


SF+SLC方案的SSD是一个DIY盘,其闪存、主控与固件均和超极速S301一致。由于测试较早,仅留下以下图片。


测试环境:

CPU:Intel I7-4790K @4.0G
主板:华硕 Maximus VII Gene
内存:海盗船 2400C10白金灯条 8GBx2 @2400 10-12-12-31 1T
显卡:Nvidia Quadro K2000
操作系统:Windows7 64bit
文件系统:NTFS(注意,文件系统对测试结果影响非常大,甚至可达2倍。所以请勿将结果直接与国外测试对比
驱动程序:msahci
测试软件:IOMeter 1.1
数据类型:Pseudo Random(SF2281主控基本无法压缩)


首先是较为简单的测试。

持续读写测试:


测试中A110由于采用了PCI-e x2总线,所以读取与写入突破了SATA3的限制获得加大优势。而在较小的文件读取测试中,由于XOR等数据校验的存在,每一次读取操作均需要将其他的数据取出校验,并不会因为需要数据块很小就省去这个步骤,所以DC系列与A110反而落后,其中DC系列落后更明显。

QD趋势测试:


读取测试中了SF方案在QD8时基本到顶,而在QD16-QD32范围内仅有840pro的IOPS有较大提升。写入测试则是除SF方案外其他产品的IOPS都在QD2附近就基本稳定。两个测试中Sandisk A110由于为家用级OEM产品,固件相对保守,所以峰值测试中较为落后。

以上都是纯读纯写测试。而在实际应用中,读取与写入操作往往是混合、交替进行的。所以此处进行读写操作比例为80:20的测试。


这里各盘的特性差距就比较大了。A110在这方面做得很不好,个人猜测是由于9183主控固件的不完善所致。840pro的性能也仅有DC系列的三分之二左右。

以上都是短时间的峰值性能测试,用以体现出SSD的特性给出参考。对于桌面应用而言,这些测试的结果全都是大大过剩的,仍然没有反映出什么实际的东西;而需要这么高性能的服务器、企业级应用环境,其负载时间也远不止这么短(每项测试1分钟)。

那么,我们进行时间比较长的几个测试。

首先是一种比较典型的稳定态测试,5000秒4KQD32随机写入使得SSD没有休息的时间,GC和数据写入同时进行,而且必须保证每一次的延迟在可接受范围内。反映出SSD处理复杂状况的能力。这也是SSD测试中通常所说的“稳定态测试”,而为了便于区分,如日常使用这样较小的压力下达到的的稳定态一般称为“GC态”。


测试中的产品之间差距拉开的非常大。DC S3700的实力远远超过了其他产品,以一条高高在上并且非常稳定规则的曲线表明其不俗的能力,并且随着时间增加会根据应用环境不断优化自己的性能。S3500也对家用级拥有不小的优势。

而家用级的三款产品表现放在桌面级应用下也是可以接受的。其中Sandisk A110和SF主控的产品虽然性能并不突出,但是比较稳定。840pro则是表现最差的:其不断的出现IOPS接近0的情况,而这种情况在实际中的反应就是卡顿或者速度变慢。

有些人可能会提出这样的问题:OP大小与稳定态表现也是有关的。的确,增加OP空间的容量,也就为闪存中数据的管理提供方便,给主控更大的空间来优化性能。这也是企业级产品中比较常见的做法。

为此,测试中我们采取控制分区大小的方式,手动留出12%和25%的OP容量,看看家用级在OP足够的情况下能否匹敌企业级。


效果非常明显,家用级产品的性能都得到了提升,特别是840pro在默认7% OP下那一堆0点被消除了。这也是我推荐高负载用户在使用家用级时手动留3级OP的原因。但是家用级产品的IOPS仍然只有DC-S3700的一半以下。并且由于3颗专属XOR die的存在,S3700的OP并不是25%而只有20%

当S3500将OP设置为20%时,性能与S3700相比就有一段差距了。


随机4KQD32读取则相对简单。硬盘不需要纠结于GC,只需要读取,拼的是闪存和主控的硬速度。这里各个SSD表现都在可接受范围内。SF主控方案的延迟高一些,而840pro略优于Intel DC。


长时间随机写入一直是SSD的噩梦,而随机4K QD1写入也不例外。而这个测试中,似乎是由于负载“较轻”,S3700似乎非常难进入低性能的稳定态。此次测试S3700用了比其他硬盘多一倍的时间(2000秒)才获得相关数据,所以相比其他SSD取0-1000秒的数据,S3700则取1000-2000秒的数据。


这里840pro又跪了。 其IOPS有不少0点,而最大延迟更是可以达到以秒来计数。A110的性能也比较差,普遍有几十至一百ms的延迟并且有突发的高延迟。Intel DC系列主打的低延迟再次体现出绝对优势。表现比较抢眼的是SF主控的方案,虽然IOPS并不高,但是延迟非常低并且稳定。

最后是随机4KQD1读取测试。


虽然与QD32一样,这是个比较简单的测试,但是结果却完全不同。虽然说大体IOPS上各产品均非常平稳,但是延迟方面却一点也不风平浪静。虽然这些延迟都保持在一个比较安全的范围,但是840pro和SF方案都出现了很多高延迟尖刺。

说到延迟,我们不妨换一个角度来看看,利用IOMeter记录的统计数据来看看,SSD在这些测试中每秒中都发生了什么,在测试中它们每秒都有怎样的最大延迟。

以下图显示的柱状图表明测试中在各延迟范围内有多少个记录点。测试最低从10ms开始计数,因为更低的延迟无法感知,因而没有什么意义。

首先是随机4K QD1读取测试:


840pro继续蝉联“最慢SSD”称号A110表现比较突出,而DC系列更是在这1000秒的测试中一个10ms以上的延迟都没出现。。。

随机4K QD1写入测试:


Intel DC系列仍然相当惊艳,而SF方案相对而言也不错,没有出现30ms以上的延迟。以100ms这个人类的反应时间来看,A110的表现似乎仍然可以接受。而840pro则是相当糟糕,居然出现了7次1秒以上的延迟,很难想象那些拿它来用在高负载环境下的人是怎样痛苦并快乐着对此我只能不加评论,怕被某枪喷。

随机4K QD32读取测试:


除SF方案外其他盘表现都相当良好。不过SF方案的延迟也都保持在50ms以下,没什么大问题。

随机4K QD32写入测试:


和4KQD1写入测试一样,DC系列的表现仍然没有可以挑刺的地方。SF方案延迟也一直保持在100ms以下。Sandisk A110的表现变得更差,甚至出现了0.5秒以上的延迟。840pro继续以1000多个1秒以上的延迟雄踞榜首

当各磁盘使用25%OP(S3700为20%)时:

虽然延迟好看了一些,但是本质上没什么变化,该卡的继续卡,只是卡的时间变短了

到这里,大家都可以看到,性能波动的问题可以达到多么严重的程度。解决这个问题,就是Intel提出的“performance consistency”的主体思想:我们不仅要性能满足需求,而且要“一直”满足需求,而不能时常(99%直至99.9999%)出现卡顿等问题。Intel为Consistency给出了一个计算公式:


这就是衡量性能波动的标准。与“残差”相比,这个公式更加科学,因为突发的高iops反而是好事,只有低iops会使性能下降。

利用这个公式,我们可以计算一下各个硬盘在测试环境下的Consistency数值:


这也就很明确的说明了测试结果的差异。


掉电保护测试

对于用户而言,性能只是一方面。数据的安全性也是一个不能忽视的问题。在电源突然意外中断时,不仅缓冲区的数据和映射表可能出错,甚至SSD上以前的数据都可能出错(低位page出错)。所以在极度重视数据安全的企业级产品上,硬掉电保护可以说是必须的。拥有掉电保护的SSD使用自带的能量载体,在掉电发生时可以有足够能量把缓冲区的数据写回NAND以避免数据丢失。上文中介绍的PLI就是Intel独特的掉电保护技术。

这个系统的存在究竟有什么作用?我们用一个小实验证明一下:

相信玩超频的用户中不少都用过“认证文件”这种东西,比如对于CPU-Z来说,将cpu或内存超到高频后,我们可以在CPU-Z中按下F7键立即保存当前的系统参数信息到CPU-Z的根目录,作为自己的系统达到的频率和时序的一个证明。


上图红框内就是认证文件。作为超频玩家而言,在进行极限超频时,可能拿到认证的频率并不稳定,系统很快就会死机或重启。如果这个认证文件在重启系统后消失了,那么这就是个非常令人懊恼的事情,甚至与纪录擦肩而过。

本次测试把CPU-Z放在各个硬盘上,按下F7,看到认证文件生成以后立即按下reset按钮,看重新开机后认证文件还在不在。每个磁盘测试5次

结果如下:

掉电保护对的确非常有效,保证了测试文件存在且正确。没有掉电保护的盘则是基本不要指望了

当然,在这种极限超频的情况下,包括要保存截图的情况,个人建议使用JMF602这类老的没有缓存的主控,或者干脆用机械硬盘。不仅因为它们很少丢失数据,而且也因为异常断电以后SSD需要一段时间来处理错误或紧急备份到闪存上的数据,超频过程中不断异常掉电重启的情况对目前这些较为复杂的SSD伤害不小。

本计划进行trim速率测试,但是由于S3700连续写入2小时未能掉速,所以只能暂缓



分析:


  看完各种测试,可能有些用户还比较糊涂。但是到这里,我们终于可以把所有碎片拼接起来。

  首先,我们分析一下,用户究竟需要SSD具有什么样的特性。

  1.对企业级/服务器应用来说:

  从性能而言卡顿是不能容忍的,即使是偶尔的高延迟都可能引发一系列问题。而需要用到SSD的高IOPS的环境往往负载很高。如果涉及到大量随机写入操作,SSD不会有闲工夫来主动清除无用数据(主动GC)而只能进行被动GC;而且由于每次擦除的block比写入的page大得多等原因,随机写入有较大的写入放大。固件算法必须不仅能管好每一次操作,而且要从宏观角度控制整个盘上的数据状况,还要尽量照顾到每一次操作使它们不能大大延迟更不能出错,并且不能产生太大的写入放大。所以实际上写好一个企业级的固件是很困难的,需要大量数学知识和独特的见解。这也是各个厂家的核心技术。

  从安全性而言,数据绝不是儿戏。设想一下哪天你取钱的时候余额突然变成0或者1亿会有怎么样的后果。。。企业级产品会不惜一切代价保护每一笔数据安全与正确,甚至牺牲盘的可用性(锁盘,可以解锁)和性能。因为企业级应用往往数据安全比性能以及磁盘本身重要得多,所以企业级产品上经常使用牺牲性能的途径(如XOR、CRC校验)来保证数据安全性,绝对不会看到超频之类为了性能而作死的设计,更不会因为要跑分而牺牲性能和安全性,否则,专业用户可不像玩家那么好骗

  从寿命而言,读盘要求相对较低,写盘则较高。以往写入寿命需求较高的情形会使用SLC,目前由于eMLC这种价格便宜、存储密度高并且能达到SLC寿命三分之一的产品的出现,SLC开始逐渐变少。


  2.对桌面级(家用级)应用来说:

  从性能而言。。。其实大部分情况下“从性能而言”没有太多必要,因为平均性能是大大过剩的。就像上文所说,纠结平均或者峰值的随机性能只是在纠结盘在这方面能超过自己反应能力几百还是几千倍;而纠结持续读写也只是在强迫自己关注一些本不在意甚至不会发生的情形。

  那么,为什么就算“平均而言”,在某些应用下SSD的使用感受也是有延迟的呢?甚至有人会认为SSD并不比机械硬盘快多少?

  这是因为,响应时间远远不是SSD自己能全权决定的。如下图所示,我们观测到的延迟只有一部分是磁盘的读写操作,其他的如CPU、内存、显卡及其驱动程序,以及程序为了保证正常运行设置的等待时间都是不可以忽略的,我们在下图中将其表示为蓝色线的“固有延迟”。


与此对应,SSD的平均使用感受就如下图所示。


也就是说,在SSD与SSD互相对比中,SSD和HDD之间对比的“平均延迟”标准不再适用,“高速”与“低速”SSD的差距也就是绿色的一小点;甚至对于比较迟钝的用户和对CPU、显卡等要求比较高而对磁盘性能要求不高的应用中,由于上述“固有延迟”很明显,SSD对HDD的提升都比较小。

  从安全性而言,家用级用户要求不高,很多情况下盘子本身比数据重要得多。并且用户专业素质一般不高,高级功能给了也不会用还不如不给。

  从寿命来说——这条可以用“无需求”来概括。家用环境写入量很少有见过超过10TB,所以闪存只要不烂到让盘挂掉或者让数据出错,就无所谓。


  分析过用户需求,我们就能得到对应的评价方法:


  1.对于企业级用户,安全第一,购买之前必须先通过查看规格书、评测等途径了解备选产品能用什么方法保证数据安全性、其UBER、AFR等指标。现成的性能方法已经很多了。我们可以使用IOMeter等测试工具,根据自己的需求在各个QD、各个随机度、各个读写比例、各种压力下进行测试,必要时将盘跑到稳定态。SNIA已经制订了一套测试方案评价企业级应用下SSD的性能。所以虽然企业级SSD制作起来困难、技术难度高,但是查找资料、测试起来相对容易,标准相对明确,价值/价格比也比较容易评估。

  2.对于家用级用户而言,我们必须要认识到,性能绝不是影响使用体验的唯一因素。我们要系统的面对“使用感受”这个问题,也就是综合数据安全、性能、稳定性、兼容性等一系列因素,也要考虑是否值得花钱换取SSD的素质。


  首先提一下兼容性问题。这个问题主要集中在电源管理方面,如果固件设计或计算机电源管理设计不好,那很可能在某些时候错误的进入节能模式导致卡顿,甚至由于某些不当的电源管理造成SSD损坏。这个是购买SSD时第一个考虑的问题。解决它也并不是难事,避免购买兼容性较差的产品、查询是否有其他人在同样的系统搭配上出现这种问题都是有效的预防方法。


  说完了兼容性问题,我们还是先从“性能”这个问题开始。很多人习惯拿ASSSD中的“4K”说事,认为日常操作中经常涉及到随机寻址,4K性能高的盘用起来就“快”。这是一个典型的错误,不是因为日常使用中随机操作不常用,而是因为这个指标完全不能表现出影响使用体验的差异性——响应时间是人类反应的几百分之一就算了,谁没事去随机读写几十万个小文件?要知道整个Photoshop才1000个文件,就算全部随机读取花在寻址上面的时间也就0.1-0.2秒,而PS的启动时间远不止0.1秒。。。

  那么我们不如换一个角度考虑问题:盘子是否会在某些时候发生高到影响使用感受的延迟(卡顿)?毕竟,人们永远注意的,1000秒里999秒流畅运行不会让人感到什么,而卡1秒则可能会让人非常在意。就像下图所示,超过关键延迟的高延迟,会被人感知到。既然已有的标准已经不是瓶颈,我们就用不过剩的标准来评价。


而应对这种问题的测试,我们显然不能每一个盘用一个月,这样不仅浪费时间而且经济也不允许。我们必须像其他硬件测试那样“浓缩”一下,以有代表性的相对短时间的测试来获得一个估计。这里采取的方法就是离散度测试,也就是上面测试的“稳定态”。

离散度测试使用IOMeter等测试工具,通过较长时间的读取/写入,并且记录每一次的最小、最大、平均延迟与IOPS来观察这短时间内SSD的性能发生了怎样的变化与波动。

对于读取测试,我们大可放心研究,看看盘是否经常出现高延迟点。但是对于写入测试,我们要注意一下,因为写入测试可能会使磁盘跑到高负载的稳定态,这时被动GC与写入同时进行,导致延迟较高,而这种情况虽然在企业级应用中经常发生,但是在日常使用中是很少发生的。也就是说,在家用环境中,长时间高负载写入测试有的是指示性,以最坏情形的方式显示出硬盘处理偶发复杂状况的能力。与之对应,我们只需要看看其图线是否经常出现IOPS很低接近0或延迟很高的点。如果经常出现这种点,我们就要考虑使用中在高负载下此盘是否可能出现卡顿的状况。



  但是,性能绝不是SSD选择的唯一要素。

  我们再讨论数据安全性与稳定性的问题。

  举个例子,我们经常看到“掉速”这个问题。使用者在实际使用中感觉到卡顿或速度变慢,于是他跑了个分,分数下降了一些,于是就兴奋地去发帖:“我的盘掉速了”。于是,厂家开始通过使GC更激进的方法减轻所谓“掉速”,然后固件编写水平次,GC卡到了正常操作。。。

  实际上我们注意到以下问题:
  1.机械盘不会因为写入的位置有数据而掉速,但是系统仍然可能越用越慢,重装则会恢复
  2.某些低端主控如JMF667H使用上速度下降非常明显,而美光M4虽然GC较为消极跑分明显掉速,使用时却感觉不出来,SF主控更是如此
  3.可能某次异常掉电以后,每次开机时都会卡一会,比如网络连接图标卡住,系统也无法打开应用程序

  可以看到,因闪存上原先有无用数据造成的掉速对实际使用没有什么影响。即使需要重新擦除再写入,性能也能满足日常使用需求。就是说,越用越慢与跑分掉速是无关的

  其实,速度下降与与很多问题有关。系统本身复杂度必须排第一,特别是各种大师、各种卫士和各种流氓软件的受害者。对于SSD本身而言,数据出错也是降速的一个重要因素,比如异常掉电导致某个驱动程序出现错误,开机就会卡住;某个系统文件出错,更新过程就可能花费比较长的时间。这些我都经历过。

  当然掉电造成的数据出错显然不仅仅能造成某些东西卡住导致响应时间变长。有些时候,某些程序安装以后莫名的无法启动、系统更新安装失败、游戏出现莫名的bug需要重装都可能与数据错误有关。

  拥有完整的掉电保护,首先,已经完成写入的数据是不会损坏的。这样原有的系统和各程序就不会因为“低位page损坏”而受到影响,自然就解决了各种奇怪的问题。其次,拥有掉电保护,虽然你最后写入的那些数据可能没有什么用,但是至少系统会准确的知道哪些文件可能损坏,在下一次开机的时候试图修复或者chkdsk。当然最重要的是,有掉电保护的存在,单一的掉电很难使SSD变砖。


  而XOR的存在更多的不是提供更低的UBER,而是作为一个安全措施——一般SSD采取类似Raid0的模式,而具有XOR的盘相当于Raid4或Raid5,其安全性显然高出一个级别,甚至高于自己组的多盘阵列——至少SSD的固件不会把一个die或者die中的一块踢出阵列,除非它已经损坏。



结论:王者,一生孤独


  当大家对Intel在Sata总线方面接近失去信心之时,DC-S3700出现了。与此同时,Intel也为SSD领域明确了一个目标——我们不仅要“快”,而且要一直“快”下去,并且不能在任何时候“慢”。

  相对于其他厂商各种不同定位、各种接口、各种闪存的产品线,Intel开始仅是发布了这一款“英雄级”产品,面对竞争对手的几乎整个整个产品线。而DC S3700在竞争中也证明了其实力:在各种复杂的环境中Intel的表现非常从容稳定,使之在很多测试中以大比分超过所有sata接口的对手,甚至让某些SAS与PCI-e接口产品也望尘莫及。以至于直到现在,其他sata磁盘在QoS相关的测试中即使有一项能超过S3700也相当不容易。而它在安全性方面也被某些专业用户誉为“绝不会出错的SSD”。可以说,S3700作为Sata时期的王者,当之无愧。

  由于S3700的成功,Intel在1年后发布了DC S3500。它主要面对高负载读取方向,将S3700的25nm eMLC改为耐久较低价格便宜的的20nm MLC。根据上面的实测,其读取性能不输于S3700,在对写入性能和耐久要求不高的应用中完全可以取代S3700。又于2014年发布了面向家用级的超频并且消减了一些功能的730。而近期intel发布的S3510/S3610/S3710系列则是为了引入低成本高密度而且目前已经完全成熟的20nm MLC,以提升容量。而新一代DC P3x00也沿用了S3700的诸如升压储能的一些特性。DC S3700的身影将在越来越多的地方看到。

  当然,Intel“天然呆”的属性使得S3700注定一生孤独——OEM领域的用户往往直接“shut up and take my money”,而在零售市场上与大部分所谓“评测”中,ASSSD跑分这种简单明了的方式则更能吸引眼球(其实大部分国内所谓评测站其实IOMeter都不会用吧)人家可没研究过过剩不过剩、自己需要什么,跑出来分好看就是强。S3700这种“非主流”的甚至牺牲某些已经过剩的性能特征换取安全性的行为当然是不会受欢迎的。

  由于优化跑分比优化性能容易得多,根本就不需要什么底力,不需要管混合操作,不需要进行复杂的需求分析;频率超起,数据保护一缩,颗粒一堆,分数自然就上来了,效果非常明显。所以厂商非常乐于“顺应”这种“需求”。其实,细心的用户已经发现,上面的测试中,ASSSD跑分里所有计分测试(持续、爆发4kQD1/QD32)840pro这种跑分王都是领先的,而一旦涉及到不是跑分需要的项目,引入实际中经常出现的混合操作,这类货就会落后,如果考虑到“一致性”或者“安全性”这些因素,这货更是直接变成残废。但是厂商不会管,有些厂商甚至会派出水军来强调那些没有用的东西,引导消费者在偏离需求的同时向着厂商利益的方向前进。其实,这种营销也可以算是一种“软欺诈”了。所以如今,可以说ASSSD这种跑分与盘的实际素质基本已成负相关

  哦,忘了超极速那货?上面测试得出SLC闪存并不会对性能造成本质性提升(虽然造成了跑分的本质性提升)。颗粒来源为回收,还是企业级产品拆机。之前被写成什么样,不知道;是不是自己打的标,不知道;还能活多久,也不知道。You broke rule NO.1,别的完全不需要谈,与传统意义上的“定位”不沾边


  那么消费者究竟需要什么样的产品?我们加进“金钱”这个因素加以讨论:

  性能与安全性、稳定性的选择方面。对于使用感受而言,相对于偶发的细小卡顿或者开机快那么1、2秒,用的省心、不出问题显然重要得多。一颗数据保护好的SSD不仅相当于内部已经做了冗余阵列处理,而且不容易出现意外问题。不要总是认为备份能解决一切问题,频繁的备份本身需要大量连续大块的时间,并且问题发生时往往有些临时数据,如设计草稿、素材、表格等没有备份。这都会影响用户体验。如果有一套好的存储设备,备份可以不那么频繁,数据不出错,偶尔还能相信一下,那不是更好吗?

  另外,因为家用级对一致性的要求很容易满足(低QD、低压力下不要出现过高延迟的点即可),这两者其实是不矛盾的,素质好的盘两者都好。那些不顾一切优化跑分的货,才会一事无成。

  其实总结一下,对使用体验需求比较高的用户的需求其实和企业级的需求是相当同步的,基本只是评价标准的问题。而家用级高端则完全是一个另类定位,通过极限的优化来让盘跑出高分。我觉得有必要划分出一个叫“跑分级”的定位,因为大部分所谓“高端家用级”除了跑分高以外还不一定赶得上某些便宜货

  这里有些人可能会说,我SSD绝对不会存重要的东西,只是个游戏盘、二奶。那么我选哪个呢?

  答:两者都不选

  细想一下,你是钱多的花不出去么?不管是数据保护还是性能都是要拿钱换的。既然它们都对使用感受没什么影响,那么我们为什么要去买它们?SSD上省出来的钱可以花在显卡、CPU上面,提升一个档次。这才能带来游戏等常用应用中切实感觉到的性能差距。我们为什么要去和一个不重要的因素较劲?

  另外某些玩家会折腾跑分,通过跑出高分来获得价值。这也不一定是错误的,毕竟硬件拿来玩也是可以的。但是,在你花几百上千在ASSSD这种跑分上的时候,你需要注意几点:

1.这种一键跑分能带来多少价值呢?一般情况下,买了个跑分盘,跑出来老高的分发在群里论坛上贴吧里,duang,很亮,很炫,吸引了一批小白围观赞美。然后,就完了,该怎么用怎么用,没有提升,几百上千就当烟花放完了,存在感还是那么低。

2.可玩性不高。一键跑分,最多关节能超内存CPU把它发挥到极致。如果闪存的时序、主控频率都能调节,那么作为玩具也不错,但是实际上不能,因此也不会有玩这货的圈子。HWBOT上这是个冷门项目。

3.这些钱花在其他方面会不会更好?1000块足以让显卡、CPU或者内存从低端变高端。这些东西实际提升足,可玩性更大,更能展示水平。

4.是否有其他方式玩这个跑分?比如通过内存虚拟磁盘的方式跑分。

5.极力优化跑分建立在一定程度上的对使用感受的牺牲。不如说到现在这种跑分营销做到如火如荼的程度,不牺牲安全性、稳定性之类使用体验就跑不出最高的分。



  展望未来,目前,对于sata的工作差不多到此为止了。各个厂商都逐渐转向PCI-e总线、NVMe模式的控制器与固件研发。越来越快、越来越大、越来越便宜仍然是SSD发展的主旋律。但是从另一个角度,制程更新、密度更大的闪存的可靠性也在降低,越来越需要更好的查错纠错系统。厂商已经开始表现出一些分化态势:Intel、东芝、闪迪等几个有稳定客户、不需要在零售市场中挣扎的企业已经开始逐步将一些企业级功能,如XOR、CRC校验、掉电保护,下放到家用级市场;而大部分其他厂家由于缺乏资源、硬的技术以及稳定的客户,或者纯粹由于要想尽赚钱,则仍然继续着自己的跑分营销;当然也有这种介于两者之间的企业,拿消费者当企业级的小白鼠。

  对于消费者而言,发展趋势仅供参考,如未来资金规划。不要总是想着“领先于时代”,因为往往这不仅意味着大量的资金浪费,而且买来的往往是不成熟甚至没有什么实际优势的产品。以目前的PCI-e总线SSD为例,撇开跑分,目前市场上大部分PCI-e SSD相对于SATA并没有什么实际优势。PCI-E总线是有低延迟优势,但是SSD本身的固件设计真的能把这个优势发挥出来提升使用体验吗?上面的测试中的Sandisk A110还算表现比较好的,仍然有混合读写延迟的问题,而三星XP941/SM951的离散度更是不能直视。价格方面XP941的价格都快赶上S3700了。你准备花多少钱在晒一次优越感上


  我们不仅需要根据自己的真实需求选择产品,更要准确认清自己究竟有什么样的需求。最近“信仰”这个词很火,甚至有某些牌子的NC粉公开说“我们要创造自己的信仰”其实,创造出来的只是一种畸形的需求,和一个无视科学的权重分配体系。

  在作出选择的过程中,我们不仅要看到产品在哪些方面“强”哪些方面“弱”,更要看到强弱的程度与自身需求有多高,各个需求之间有什么样的矛盾,在当前的预算下把钱花在某方面的提升上是否是最高效的。虽然大可不必每次都使用数学工具,但是一定要有综合评估的意识。比如对于要求较高的家用级用户,我们承认S3700素质比S3500、730高,但是其贵一倍的价格不值得我们付出,所以我们可以买S3500或730;P3700、750虽然性能没有对手,但是价格过高,使用感受并不比S3500强,我们就可以不选。敢于承认产品的不足,不要总想着捡便宜,不要根据主观臆断“脑放”出实际性能提升,将SSD玩成玄学,并将钱、时间、精力不断地投入到完全没有必要地方。






附录:

1.参考文献:

评测-ANAND、Tweaktown、Hexus、Tom‘s hardware的相关测试。
论坛测试-neeyuese:Intel 730 480GB 评测 - 不只是骨灰级那么简单
规格书-dc-s3700 product brief
规格书-Intel® Solid-State Drive DC S3700 Series – Quality of Service(Tech Brief)
规格书-dc-s3700 Product Specification
规格书-Power Loss Imminent (PLI) Technology
规格书-Validating High Endurance on the Intel® Solid-State Drive DC S3700 Series(Tech Brief)
规格书-Intel® Solid-State Drive DC S3700 Datacenter RAS Features(Tech Brief)
规格书-Texas Instruments相关元器件说明

2.Intel闪存part number的意义与美光略有不同,总结了一下目前的情况并根据建议作出一些修改。


3.我们来说说寿命这个问题

寿命不仅与闪存品质有关,还与主控ECC能力有关。寿命和Data retention(数据保存期)直接相关,新的闪存漏电少,保存期长;在使用过程中不断写入使得晶体管氧化层变薄,数据保存期逐渐变短;直至它不能将电荷留在里面足够长的时间以满足JEDEC标准。这时我们就可以说闪存的P/E用完了。

这里我们要说的是测试手段问题。

一般的压力测试都是写到死为止,这就存在一个不公平的现象:有些盘比较负责,当它认为闪存随时可能会坏的时候就会触发保护机制,使盘不能再被写入。而这种机制显然在“写到死”的测试中表现出劣势。显然,如果有这种机制存在,盘的耐久度测试数值是不能直接对比的

另外关于MLC与eMLC的问题,有些人认为eMLC数据保存期只有3个月比较短。但是实际上,eMLC是40度下3个月,MLC则是30度下1年。按每上升5摄氏度数据保存期下降一半的典型情况看,这两个值几乎是等价的。也就是说同样条件下eMLC和MLC的数据保存期是近似一致的。

这样标称的原因是为了和实际情况尽量吻合。


另外,写入数据的随机度也对耐久有很大的影响。有些盘甚至在随机写入下有高达20的写入放大



4.关于“8M”这个intel的专属问题,如果你把“intel盘可能8M”改成“intel的盘可能坏”就听起来很正常了。有哪一种电子产品不可能坏呢?
所以说提供buglist往往只是吃力不讨好的举动8M往往由于电源管理问题或某些特定的操作造成。如果没有这方面问题,那么Intel CA0主控出现问题的可能性堪比CPU。比如永世目前卖了几百个730还没有接到一次返修。

8M如果要成为一个“门”,就需要一个像320一样的重大固件bug。虽然“8M门”最火的时候返修率还是比很多其他SSD低。

5.Intel 730在intel ARK上的信息表明其没有PLI掉电保护技术。但是实际上整套东西还在。至于有没有用,待测试。


6.保修

保修是非常重要的,它可以预防可能发生的损失。不过目前看到很多人过分的纠结保修问题,甚至多花一倍的钱来买保修。

于是我们有典型的2种思路:
1.产品“可能”坏,所以不论多大代价都要买有保修的产品,来预防这种“可能”
2.产品坏的可能性为x,价格为y,所以我们可以拿x乘以y作出损失的期望,并以其为阀值,如果为了保修花的钱超过这个数值就不花这个钱

显然在大部分情况下,这两种思路都是错误的。第一种会直接性浪费大量资金,而第二种则是没有全面考虑产品损坏时自己的损失。

在此我们提出几点:
1.没有保修的产品损坏时,损失的不只是当前产品价格,还可能因为短期无法足够筹集资金,无法及时替换产品导致的工作时间延误,以及筹集资金带来的代价如信用卡利息
2.电子产品有“折价”问题,如果4年以后SSD坏了,那即使可以保修,保修回来的SSD也不会那么值钱
3.某些关键性配件如电源硬盘,如果损坏则主要损失可能在于其他配件或者配件中储存的信息
4.没有保修的产品二手不好卖、没保损坏会让心情“不爽”等一系列问题

对这个问题,我自己采取的是一种非线性概率模型来近似估计保修可以花多少钱买,成果就是到现在坏的都能保,不能保的都不坏。如果在这种问题上太过凭感觉,无脑不要保修则会冒着很大的风险;无脑买保修则会扼杀将资金利用在其他地方换取价值的选择,并且可能因为要花钱买保修而妥协品质造成其他损失。甚至这个钱花的毫无价值,比如10年质保的盘可能你真正用的时间不到3年。这个还是自己决定比较好,多说无益。

当然,如果自己没有鉴定工包真伪的能力,就不要去碰它;如果因为是看重“看爽退”的能力并且计划以后骗保,那么

呵呵

7.RST对稳定态、一致性的影响

也就是没有影响。一般别指望RST给你带来使用性能。

8.最后简单介绍一下IOMeter 1.1的使用方法

首先,打开IOmeter,第一面左边一栏是manager和附属的worker,并且可以用上面的按钮进行新建、复制、删除等操作进行管理。用于多线程、多盘测试。

中间是选择要测试的磁盘分区。如果磁盘没有分区则显示为蓝色,分区没有测试文件则有斜杠,黄色完整的标识则是有测试文件的分区。

右边可以选择测试范围、IO深度(QD)、指令发射速度以及数据类型(随机方式或重复的字节)。第二页则是网络目标的测试。


第三页可以选择进行的测试属性及其顺序。也可以新建、复制或编辑已有的方案。


第五页则可以控制测试时间、使用的cpu数等设置,QD1-32阶梯测试等也可以在这里设置。


第四页是结果实时显示,可以按下底下的按钮选择显示哪些项目,或选择显示从测试开始计算的结果还是实时结果。上面的“记录实时结果到文件”是IOmeter 1.1相对于以前版本的新增功能,可以生成一个inst开头的文件记录每秒的结果,以便绘制性能变化曲线。


点击绿色的旗帜可以开始测试。这时会要求你选择保存测试记录文件的位置,也可以点取消不记录测试文件。


开始后,如果磁盘没有分区或者分区中已经有测试文件,则测试直接开始。如果有分区并且其中没有测试文件,IOMeter会先按照第一页的设置在磁盘中生成测试文件。测试文件的生成过程比较长,可以在我的电脑等位置看到磁盘空间逐步被测试数据占用。如果测试中需要停止,可以单击上面红色的stop按钮。


注意,每次进行全盘写入测试之后必须Secure Erase才能继续进行下面的测试,以保证结果的准确性

这里给出一些典型预设以供参考。


真相:不要被外表所迷惑,其实,浴室是抠脚大汉






本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?注册

x
2#
shx330 发表于 2015-5-19 21:57 | 只看该作者
挺好的文章,我现在对性能的要求是只要能达到主流就行,倒是对可靠性和寿命的要求更高
3#
zjzlgx122 发表于 2015-5-19 22:30 | 只看该作者
intel大法好0 0         
4#
dert88 发表于 2015-5-19 22:58 | 只看该作者
太长了,看了好久。
有些内容可以删除替换。

企业产品为啥要和民用产品比呢?毫无意义。
这货又不是给一般家用的。
应和同类企业产品比,win server和linux服务环境下比较更有意义。

一般家用,游戏上网用这货也没什么意义,多费电而已。

做服务器,做数据,做开发的专业需要。
当然了,土豪用来当仓库也是只能羡慕的。
5#
111alan  楼主| 发表于 2015-5-19 23:26 | 只看该作者
本帖最后由 111alan 于 2015-5-20 00:51 编辑
dert88 发表于 2015-5-19 22:58
太长了,看了好久。
有些内容可以删除替换。

实际上有没有意义是根据用户情况和市场情况来定的。本文也是偏向桌面应用的。就是因为目前“跑分”的概念已经根深蒂固到影响用户的逻辑完备性,所以这才不是没意义。

另外定价上企业级已经和家用级重合了,用户需求也有一定重合。明显需要研究的对象强制说成“没有可比性”显然是错误的。

用户远不止“游戏”这一种,对于要求比较高的用户,1%的电力消耗有纠结意义么?往往是数据安全、性能稳定才是更实际的吧。

6#
笨啦灯 发表于 2015-5-19 23:35 | 只看该作者
本帖最后由 笨啦灯 于 2015-5-19 23:44 编辑

如果自己没有鉴定工包真伪的能力,就不要去碰它

——————————

说好的工包兰呢



其实挺希望看到SF2281主控的intel盘,比如520,和超激素SF盘的对比,
520貌似挺多人用,是论坛里intel大法好的首选,S3700还是太贵了
7#
xffsfy 发表于 2015-5-20 02:03 | 只看该作者
半个钟头看完了主帖,然后去淘宝搜了下S3700,然后默默关掉了页面....
8#
bigww 发表于 2015-5-20 02:17 | 只看该作者
其实,现在家里用的电脑,除了一些特殊工作可能要用来干活以外,大多数都用来当娱乐机吧。。
所以用SSD来存游戏也算一个趋势吧,毕竟对网游来说,SSD还是比HDD稍微感觉的出一点读盘优势的。。
9#
NOIP117 发表于 2015-5-20 07:20 | 只看该作者
好帖子,先上班去,有空来看
10#
3939-西蒙菲沙酱 发表于 2015-5-20 07:24 | 只看该作者
看到S3700就默默的点了右上角。。。咱家没钱。。。不是我的领域我就不看了
11#
大号跳蚤 发表于 2015-5-20 08:20 发自PCEVA移动客户端 | 只看该作者
写得很好,有很多干货。
不过好长,看得睡着了,醒了继续看,又睡着了 。。。
总算看完了 。。。
12#
muya1987 发表于 2015-5-20 08:39 | 只看该作者
家用来说。性能够用就行。当然也不能太差。中端的,然后稳定性和寿命要好点,就OK啦
13#
zhangzh0199 发表于 2015-5-20 09:18 | 只看该作者
看的心里痒痒的,真想进个3700耍耍
14#
athloncn 发表于 2015-5-20 10:01 | 只看该作者
我还在用intel 525
并且准备长期用下去。
15#
wocaonidaye 发表于 2015-5-20 12:03 | 只看该作者
dert88 发表于 2015-5-19 22:58
太长了,看了好久。
有些内容可以删除替换。

毕竟大家都是中国人。中国的软件你懂的。
16#
初恋璀璨如夏花 发表于 2015-5-20 14:23 | 只看该作者
家用盘如何手动设置op,op留多大合适
17#
phantomsea 发表于 2015-5-20 14:24 | 只看该作者
这就是传说中的注定孤独一生?
18#
CheyTac 发表于 2015-5-20 15:21 | 只看该作者
  S3500国行用户帮顶
  
19#
zhangjun197796 发表于 2015-5-20 16:20 | 只看该作者
发表的太晚了你怎么不找写啊!
20#
tove 发表于 2015-5-20 16:56 | 只看该作者
xffsfy 发表于 2015-5-20 02:03
半个钟头看完了主帖,然后去淘宝搜了下S3700,然后默默关掉了页面....

+1




字数补丁。。。。。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

快速回复 返回顶部