PCEVA,PC绝对领域,探寻真正的电脑知识
打印 上一主题 下一主题
开启左侧

讨论一下双路CPU系统的PCI-E分布

[复制链接]
跳转到指定楼层
1#
Mufasa 发表于 2020-10-15 22:24 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
点击数:4876|回复数:2
不知不觉弄了好几台双路E5机器,大部分是两个CPU的PCI-E控制器各承担一些负荷。

实际使用中感觉不出有什么不对劲的地方,但还是分享出来,供大家讨论。

注:CPU1与南桥相连,双路主板,只安装一颗CPU时,必须安装在CPU1才能开机。

主机1,工作站
CPU1 连接 x16显卡 x8万兆网卡 x4NVME SSD
CPU2 无设备

主机2,工作站
CPU1 连接 x8万兆网卡
CPU2 连接 x16显卡

主机3,服务器
CPU1 连接 x16显卡
CPU2 连接 x8万兆网卡 x8磁盘阵列卡

主机4,下载机
CPU1 连接 x4 PCH SAS控制器
CPU2 连接 x16显卡 x8万兆网卡

主机5,存储
CPU1 连接 x8磁盘阵列卡
CPU2 连接 x16显卡 x8万兆网卡

主机6,文件服务器
CPU1 连接 x16显卡 x4磁盘阵列卡
CPU2 连接 x8万兆网卡 x4NVME SSD

主机7,文件服务器
CPU1 连接 x16显卡 x4 PCH SAS控制器
CPU2 连接 x8万兆网卡

对于存储类的应用,如果存储控制器和万兆网卡分别在两颗CPU上,数据需要经过QPI传输。
当然QPI的带宽应付1GB/s或者2GB/s的万兆网卡数据流没有任何压力。
(我这里感觉不出区别)
不知道高性能企业级应用,是否有这方面的讲究?
2#
nighttob 发表于 2020-10-15 23:09 | 只看该作者
我就知道现在GPU服务器会区分balance mode和single root mode
前者是GPU平均分布在2个CPU上,后者是走PLX全都在1个CPU上

倒不如说是NUMA对性能的影响更大,所以Intel这几代玩命增CPU间互联的line数和带宽
IO跨CPU真没见有多计较过
3#
gloobox 发表于 2020-10-17 17:04 | 只看该作者
都是2011-0的那种吗?

来自安卓客户端来自安卓客户端
您需要登录后才可以回帖 登录 | 注册

本版积分规则

快速回复 返回顶部