tx97 发表于 2016-10-14 20:07

请教ESXi连接配置问题

最近单位买了新服务器和存储柜,但是由于蛋碎的财政采购规定,这两个东西及其配件分成了3次采购,根据以往经验,到最后配齐要等到半年之后了。由于纯新手以前没有用过ESXi和存储柜,有些问题搞不清楚,加之身处N线城市,供货商回答也是也许可能大概可以,只有请各位帮忙指教了。
先说说我目前设备采购的情况:
1、服务器,只配了3块300g硬盘,4×千兆网卡,没有光纤卡;存储柜没有对应光纤模块。也就是这两货只能走千兆网线连接,即将到货。
2、服务器光纤卡,存储柜光纤模块,预计3个月之后到货。
3、4×800G 服务器SSD,Intel P3700,5×SAS 10k 1.8T,大概半年后能到货。
我的想法是:
1、现在先在服务器和存储柜都做4路网卡链路聚合,使两者目前的连接速度最大化,虚拟机文件放在存储柜上。每个虚拟机分3个盘,C系统,D数据比如SQL数据库文件,E对读写速度要求不高的普通数据。
2、第二批设备到了,将服务器和存储柜连接方式改为光纤连接。
3、第三批设备到了,将虚拟机系统盘移到P3700上,虚拟机数据盘移到4×SSD阵列上,普通数据还是放存储柜或者5×SAS阵列。
现在搞不清楚的地方是:
1、我的想法是否可行,有没有什么错误?
2、如果设想可行,第一二步使用的都是存储柜里的同一个LUN,接口方式从网线改成了光纤,ESXi里能否顺利切换?
3、服务器大概要运行6、7个虚拟机,是建立6、7个LUN与之一一对应还是只建一个LUN,给每个虚拟机划分相应容量?之前在新手版请教过,当时是计划用hyper-v,有网友指导说建一个LUN比较好,win2012可以对多台虚拟机的读写操作统一缓存。现在改用EXSi,请问该怎么设置。
4、有没有更好的方案?
谢谢各位





eva2015 发表于 2016-10-14 21:56

1. 我想先问问是什么盘柜?有的盘柜,控制器是只能有一种链接方式,iscsi或FC。所以可能光纤模块不到,盘柜就没法用。

2.iscsi换FC我没试过,也不确定能否顺利,但停机是一定的。

3.lun之前要先组raid吧?其实划lun就相当于给盘柜分区,raid决定磁盘性能,lun也就是决定空间占用。具体怎么分要看需求。

tx97 发表于 2016-10-14 22:28

eva2015 发表于 2016-10-14 21:56
1. 我想先问问是什么盘柜?有的盘柜,控制器是只能有一种链接方式,iscsi或FC。所以可能光纤模块不到,盘柜 ...

华为的S2600T,8个网口,可以先走网口的。停机不怕,只要能切就好。3是想问问两种划分方式哪个性能更好。

NOIP117 发表于 2016-10-14 22:55

光口如果不是10G意义也不大,另外配套的交换机也要买好,还有模块,服务器用多模就可以。

tx97 发表于 2016-10-14 23:05

NOIP117 发表于 2016-10-14 22:55
光口如果不是10G意义也不大,另外配套的交换机也要买好,还有模块,服务器用多模就可以。 ...

光纤卡是2×10G,万兆交换机没有买,因为供货商保证光纤卡和S2600T光模块可以直连。

eva2015 发表于 2016-10-14 23:09

我记得好像vmkernel和iscsi是必须物理分开的,所以服务器上只能是1个口做管理,3个网卡走数据iscsi。
理想状态就是关机后装上硬件,接上光纤,拔掉iscsi网线,开机以后直接那些lun就能刷出来,然后从新挂载虚拟机,开机。
但这只是理想。。。估计还得有华为的厂商帮忙确认

性能吗,不知道你的ssd要怎么用?我看产品介绍,这个型号的存储应该支持由存储管理ssd当缓存,我比较偏向于这种模式,
然后是raid,企业中raid5是性价比比较好的方式,你一共就5块盘,想要性能可以组raid10,当然这样会浪费很多空间,
我比较推荐4块盘组raid5,然后留一块热备。

tx97 发表于 2016-10-14 23:37

eva2015 发表于 2016-10-14 23:09
我记得好像vmkernel和iscsi是必须物理分开的,所以服务器上只能是1个口做管理,3个网卡走数据iscsi。
理想 ...

不好意思忘了说,服务器也是菊花的2288,配置是一管理口+4×网口,存储柜第一批是12×NL SAS插满。我们这里华为的总代都是扯淡,我的想法叫供货商问过他们,也许可以就是他们说的。还有P3700他们说是不能用,看菊花官网兼容列表S3700可以支持,本想退而求次买S3700,但是菊花总代说官网上说的兼容只是说测试过能找到设备,不保证能正常使用{:7_375:}。只好按照现在方案买4×菊花SSD+P3700,如果P3700真的不能用就先插到老服务器上,如果老服务器也不能用就只好我先用着了{:7_399:}。
SSD和SAS都插服务器,本来第三批是准备再买一个笼子,上15K SAS和SSD,但是菊花总代给了一个最奇葩的理论:存储柜速度以最慢的设备为准,如果我们把SSD和SAS插存储柜是没有任何效果的{:7_383:},速度会自动降到NL SAS的水平……既然总代都这么说了,只好不要笼子把第三批的硬盘都装服务器了,以免万一真的如此抽风不好交代。4SSD准备做RAID5不要热备,5SAS是4RAID加热备。

eva2015 发表于 2016-10-15 01:18

服务器上的管理口应该是类似于网络kvm的端口吧?就像dell的idrac,这应该是不能当作普通网络端口用的。

我说的vmkernel给是Esxi的管理ip,这个端口应该是省不了的。

P3700是PCIE的?那就是只能插在服务器上了,Esxi中我也不确定能不能认出来。。。

hgy9 发表于 2016-10-15 08:21

存储连接模式只有iscsi san和fc san,现在主流存储iscsi端口和fc端口都有,只要服务器上有HBA卡就可以用fc san,我记得存储是一次性购买的,没有别配fc模块这种做法,就算另配,小心license这个坑,别买好了硬件,没授权还是用不了。而服务器HBA卡是可以后加的,但为了兼容性,建议是一步到位。
服务器没必要做链路聚合,做链路冗余更重要,网口分配:管理*2,业务*2,都是主备,如果非要用iscsi,需要另划vlan进行逻辑隔离。
虚拟机可以先部署在服务器本地硬盘,存储到位后可以做迁移。
服务器别配ssd什么鬼?sas盘1个lun,ssd再划1个lun?看需求,个人觉得压根没必要配ssd。
虚拟机做集群存储是标配,计划fc san的话,应该配双光交。
总之一句话,服务器应该多考虑整体安全,消除单点故障。最后,存储的LUN一般都是建议以2T为单位进行划分。

nighttob 发表于 2016-10-15 09:20

你们的应用负载有那么大么,需要P3700
跑业务的话,单盘再可靠也得有双份,除非你们不怕死

如果你打算把第三批买的东西都直接装在服务器上,相当于变相架空存储柜了
所以我不懂你们的思路到底是啥。现在主流玩法都是服务器只跑业务,配备最必要的系统盘,其余数据存储都交给FC存储柜,ESXi也是完全支持基于iSCSI/FC的SAN存储的
不管是SSD/HDD分层存储还是什么看上去高大上的玩意都是FC存储柜自己解决
你要是后期给服务器本体添加那么多存储配件,相当于服务器既要跑业务也要跑存储,那么你的存储柜还有啥用?只存冷数据存么?

只要配置不是太奇葩,10k 15k HDD的速度真的不慢,只是价格跟SSD比没有竞争力,另外就是搬动的时候能明显感觉到区别

tx97 发表于 2016-10-15 13:19

hgy9 发表于 2016-10-15 08:21
存储连接模式只有iscsi san和fc san,现在主流存储iscsi端口和fc端口都有,只要服务器上有HBA卡就可以用fc...

感谢回复,配成这样是电脑公司做方案,LD拍板,我们只管使用。现在方案已定,只考虑如何使用了。
现在主要问题是第二步转换能否实现?

tx97 发表于 2016-10-15 13:25

nighttob 发表于 2016-10-15 09:20
你们的应用负载有那么大么,需要P3700
跑业务的话,单盘再可靠也得有双份,除非你们不怕死



买P3700是我的个人爱好了,单位年底预算花不掉要被没收,实在想不出买什么了。但是菊花说P3700不能用,老大冒火说P3700和菊花SSD都买,如果真的不能用下次不买菊花服务器了。
配置都是电脑公司搞出来的。

tx97 发表于 2016-10-15 13:35

nighttob 发表于 2016-10-15 09:20
你们的应用负载有那么大么,需要P3700
跑业务的话,单盘再可靠也得有双份,除非你们不怕死



续,至于为啥第三批都放服务器,原因见7楼

nighttob 发表于 2016-10-15 13:49

那你们自己折腾吧,软件上都可以实现,就是好不好用的问题
客观来说华为现在的存储也是有点模样,如果不是你们买的东西太水就是经销商太水

eterfinity 发表于 2016-10-15 17:56

楼主告诉你一个悲剧的事实
1.8T sas 10k硬盘
你要注意下, 目前 1.8TB的sas盘都是512e或者4kn的,不支持ESXi,重复一遍,不支持ESXi.
这里的不支持是说,哪怕你安装在存储上,然后用iscsi或者fc或者fcoe去挂lun,也是不好用.
现象为,新增vmfs后,虽然能识别也能运行,但是一做快照,虚拟机就慢得要死.

eterfinity 发表于 2016-10-15 17:58

任何一个有经验的负责的售前,都不会对vmware环境的后端配512e或者4kn机械盘

eterfinity 发表于 2016-10-15 18:05

800G的ssd装在服务器上 做vmware的vflash read cache正好.

nighttob 发表于 2016-10-15 18:10

eterfinity 发表于 2016-10-15 17:56
楼主告诉你一个悲剧的事实
1.8T sas 10k硬盘
你要注意下, 目前 1.8TB的sas盘都是512e或者4kn的,不支持ESX ...

你不说这个我差点忘了
前几天看IBM的一个KB说的就是这事,ESXi不支持AF的盘
但没你解释的这么清楚

nighttob 发表于 2016-10-15 18:15

https://kb.vmware.com/selfservic ... &externalId=2091600
https://kb.vmware.com/selfservic ... &externalId=2131787
去VMware的KB找了下,这说的很清楚了

tx97 发表于 2016-10-15 18:19

eterfinity 发表于 2016-10-15 17:58
任何一个有经验的负责的售前,都不会对vmware环境的后端配512e或者4kn机械盘

谢谢指导,避免了一个大坑。有经验的售前……我们这是别想了。
页: [1] 2
查看完整版本: 请教ESXi连接配置问题