PCEVA,PC绝对领域,探寻真正的电脑知识

标题: Intel Lewisburg PCH (C620)新增VROC key 可实现CPU NVMe SSD RAID [打印本页]

作者: nighttob    时间: 2017-5-16 13:50
标题: Intel Lewisburg PCH (C620)新增VROC key 可实现CPU NVMe SSD RAID
本帖最后由 nighttob 于 2017-5-16 13:53 编辑

如题。放狗大概搜了一下还没有说这个功能的。

简单来说就是在Purley这代平台上面,可以加一个VROC key(就像ESRT2的RAID5 key和LSI 9240的RAID5 key那样),实现给插在CPU PCIe lanes上的NVMe SSD做RAID的功能。可能除了RAID以外还有其他功能。

当然还是软RAID,应该就像RST、RSTe和ESRT2那样。
考虑到SKL LGA3647 CPU有x48 PCIe lanes,这个RAID的规模也是很可观的,双路主板甚至可以拿出一整个CPU用来提供通道。
但具体是什么UI,用什么驱动现在还不知道。
总之在BCM的硬件RoC上市之前,Purley平台的软RAID也是能解决很多人的需求的。

除此以外,Lewisburg PCH还集成了8+6两组SATA控制器,4个10Gb MAC,连接CPU的通路也增加到DMI3 x4+PCIe 3.0 x8,这些都是先前爆料中有的,就不说了。

新平台有一系列的新功能、新特性,可以说是很接地气的,但产品延期上市也可以说明要想搞好确实不易。

作者: DGX    时间: 2017-5-16 14:45
LGA3647逼格满满啊
LGA2066嘛..............
懂的自懂

作者: nighttob    时间: 2017-5-16 15:26
还有个事忘了说了,SAS接口又双叒叕换了
新一代的SAS接口标准号是SFF-8654,看上去就是拍扁了的SFF-8087,主要会用在主机端,比如主板PCIe连热插拔背板。
SFF-8654有两种规格,一种是x4宽度,另一种是x8宽度,就是扁长和扁更长的区别。
作者: 红色狂想    时间: 2017-5-16 15:37
为接下来的SSD黑群NAS市场装机热打下了坚实的基础
作者: tsammammb    时间: 2017-5-16 17:03
红色狂想 发表于 2017-5-16 15:37
为接下来的SSD黑群NAS市场装机热打下了坚实的基础

确定真有那么多需求?普通的应用一块SSD缓存加速就够了吧,nvme raid只有企业级应用有市场吧

作者: inSeek    时间: 2017-5-16 21:28
48 Lane 给 PCH 8 Lane之后,就又双叒叕只有40 Lane 了...
作者: Atom    时间: 2017-5-16 22:21
dmi终于拓宽了,不然4个10G网卡就撑满了

作者: jerrytsao    时间: 2017-5-17 09:00
本帖最后由 jerrytsao 于 2017-5-17 09:16 编辑
inSeek 发表于 2017-5-16 21:28
48 Lane 给 PCH 8 Lane之后,就又双叒叕只有40 Lane 了...

Intel说的Lane数都指除掉DMI后的CPU实际可用Lane数, 就像X99里的40, X299里的44和Purley里的48

另外, CPU和PCH之间还是只有一个DMI, 而PCH里自身的Lane数和这个数字没有任何关系

[attach]387218[/attach]
作者: yyyyqqqq    时间: 2017-5-17 11:42
现在的RSTe不就已经支持连到CPU PCIe上的NVMe SSD做RAID了?http://www.intel.com/content/www ... ssds/000020643.html
作者: nighttob    时间: 2017-5-17 12:13
yyyyqqqq 发表于 2017-5-17 11:42
现在的RSTe不就已经支持连到CPU PCIe上的NVMe SSD做RAID了?http://www.intel.com/content/www/us/en/suppo ...

哦,看来是我火星了
估计C620上面是要套另外一个壳


作者: mikuluka    时间: 2017-5-17 13:07
本帖最后由 mikuluka 于 2017-5-17 13:09 编辑
tsammammb 发表于 2017-5-16 17:03
确定真有那么多需求?普通的应用一块SSD缓存加速就够了吧,nvme raid只有企业级应用有市场吧
...

反正有备份一直在作死从未被超越 用过750G 6盘R0X58半载 X79试过256GSSD*4R0 现在已经作死P3605了,,,总有人会折腾的虽说没卵用,750 R0已经挂掉一回了 迷之尴尬的电路工作吧整台机子的系统搞趴下了最后双盘换新现在还是R0在服役不过多了一个4T的机械备份

作者: inSeek    时间: 2017-5-17 13:27
jerrytsao 发表于 2017-5-17 09:00
Intel说的Lane数都指除掉DMI后的CPU实际可用Lane数, 就像X99里的40, X299里的44和Purley里的48

另外, CPU ...

我指的是【连接CPU的通路也增加到DMI3 x4+PCIe 3.0 x8】中的那个8x
对应到你给的图里就是【8x PCIE G3 to PCH for 100G QAT】这一行


作者: 菲尼克斯    时间: 2017-5-17 14:38
inSeek 发表于 2017-5-16 21:28
48 Lane 给 PCH 8 Lane之后,就又双叒叕只有40 Lane 了...

48lane全是CPU可以提供的,不需要减去PCH

作者: gtx9    时间: 2017-5-17 15:06
PCIE通道还是胶水业巨头AMD多

单插槽128条



[attach]387238[/attach]


[attach]387240[/attach]

作者: inSeek    时间: 2017-5-17 17:27
菲尼克斯 发表于 2017-5-17 14:38
48lane全是CPU可以提供的,不需要减去PCH

我指的是【PCH连接CPU的通路也增加到DMI3 x4+PCIe 3.0 x8】中的那个8x。如果这个8x也用上,CPU可用PCIE Lane不需要48-8?


我那个贴接连有人回一样的说法- - 是我理解楼主贴的意思,理解的不对吗?还是什么情况...

作者: jerrytsao    时间: 2017-5-17 17:36
inSeek 发表于 2017-5-17 13:27
我指的是【连接CPU的通路也增加到DMI3 x4+PCIe 3.0 x8】中的那个8x
对应到你给的图里就是【8x PCIE G3 to  ...

那些Lane都是因特定用途分配过去的, 通用互联通路还是DMI x4不变


作者: inSeek    时间: 2017-5-17 19:43
jerrytsao 发表于 2017-5-17 17:36
那些Lane都是因特定用途分配过去的, 通用互联通路还是DMI x4不变

所以我的意思是,启用多个万兆和14个SATA之后,这8x就得启用的话,就又剩下40条可用了。我明白这是可选的。

作者: 红色狂想    时间: 2017-5-17 22:23
tsammammb 发表于 2017-5-16 17:03
确定真有那么多需求?普通的应用一块SSD缓存加速就够了吧,nvme raid只有企业级应用有市场吧
...

人的欲望是无止境的嘛,有些人图的就是世界一片宁静,只要时机成熟条件具备,自然敢于去折腾,要的就是那种极致与快感。
作者: yyyyqqqq    时间: 2017-5-19 07:49
nighttob 发表于 2017-5-17 12:13
哦,看来是我火星了
估计C620上面是要套另外一个壳

不过现在只支持Intel自己的NVMe SSD做RAID,而且只能做数据盘;不过有了VROC之后,可以使用一些指定的第三方的NVMe SSD,并且安装系统

作者: abpplo    时间: 2017-7-7 11:00
yyyyqqqq 发表于 2017-5-19 07:49
不过现在只支持Intel自己的NVMe SSD做RAID,而且只能做数据盘;不过有了VROC之后,可以使用一些指定的第 ...

intel可真够坑的.





欢迎光临 PCEVA,PC绝对领域,探寻真正的电脑知识 (https://bbs.pceva.com.cn/) Powered by Discuz! X3.2