Ryan

华为服务器使用 FusionServer Tools uMate 批量做RAID
上次实施一套大数据平台装了几十台机器,都是手动做RAID的,做到脖子疼啊。这次又有一套Hadoop大数据平台(65...
扫描右侧二维码阅读全文
10
2019/03

华为服务器使用 FusionServer Tools uMate 批量做RAID

上次实施一套大数据平台装了几十台机器,都是手动做RAID的,做到脖子疼啊。


这次又有一套Hadoop大数据平台(65台机子)实施,博主这么懒,肯定要找点偷懒的方式。本来想尝试以下批量改BMC IP的,不过好像没什么效果(https://support.huawei.com/enterprise/KnowledgebaseReadAction.action?contentId=KB1000572399),最后是人力改了,5线程(个人)异步操作。不到10分钟搞定了。
然后博主发现了RAID可以批量做,所以就有了下文。当然批量做RAID仅限于大量同阵列卡,以及硬盘规划一样的机器。

工具下载安装

1.这里直接给出下载地址:https://support.huawei.com/enterprise/zh/servers/fusionserver-tools-pid-21015513/software/23701267?idAbsPath=fixnode01%7C7919749%7C9856522%7C21782478%7C21782482%7C21015513
下载 FusionServer Tools uMate 和 FusionServer Tools Toolkit就可以了。
2.都直接解压就可以了,uMate是绿色软件,Toolkit是iso镜像。

批量做RAID

1.把笔记本接入管理交换机(前提是BMC IP)
2.打开uMate,选择 Raid Config
umate-raid-1.png
3.提示危险操作,yes就行了
umate-raid-2.png
4.进入了批量做RAID的子窗口,首先要填一下管理口信息,点ADD添加,点NEXT进入扫描
umate-raid-3.png
5.扫描完成会出现可以机器列表,选择需要统一做RAID的机器,点NEXT进入下一步
umate-raid-4.png
6.这里需要选择Toolkit ISO路径以及RAID配置文件,计算机系统毕竟外国人做的,尽量不要使用ANSI字符集以外的字符来做文件名以避免意外。
umate-raid-5.png
这是配置文件参考(两个600G SAS做RAID1作为系统盘,剩余的SATA盘全部单独做RAID 0,其实应该做JBOD吧,但是售后书建议不要RAID和JBOD混合,每次开机磁盘顺序会乱?),手动建立文件请把文件修改为unix格式,utf-8编码,具体写法请参考华为官方知识库

<?xml vers
ion="1.0" encoding="utf-8" ?> 
<Profile version="V1">
<!--RAID controller 1-->
<RAID>
    <!--Support RAID controller type:LSI2208\LSI2308\LSI3008\LSI3108\AvagoSAS3408\AvagoSAS3508-->
    <AdapterType>LSI3108</AdapterType>
    <!--Enabled表示强制使用配置,不保留数据-->
    <ForceCfg>Enabled</ForceCfg>
    <!--RAID Array 1-->
    <RAIDArray>
        <RAIDType>1</RAIDType>
        <DiskArray>
            <Disk>0</Disk>
            <Disk>1</Disk>
        </DiskArray>
        <LUN>
            <LUNSize>MAXSIZE</LUNSize>
        </LUN>
        <DedicateHSP>
            <Disk>NA</Disk>
        </DedicateHSP>
        <WritePolicy>WriteBack</WritePolicy>
        <!--ReadAhead,ReadAheadNone -->
        <ReadPolicy>ReadAhead</ReadPolicy>
        <CachePolicy>Direct</CachePolicy>
        <Strpsz>128</Strpsz>
    </RAIDArray>
    <RAIDArray>
        <RAIDType>0</RAIDType>
        <DiskArray>
            <Disk>2</Disk>
        </DiskArray>
        <LUN>
            <LUNSize>MAXSIZE</LUNSize>
        </LUN>
        <DedicateHSP>
            <Disk>NA</Disk>
        </DedicateHSP>
        <WritePolicy>WriteBack</WritePolicy>
        <!--ReadAhead,ReadAheadNone -->
        <ReadPolicy>ReadAhead</ReadPolicy>
        <CachePolicy>Direct</CachePolicy>
    </RAIDArray>
    <RAIDArray>
        <RAIDType>0</RAIDType>
        <DiskArray>
            <Disk>3</Disk>
        </DiskArray>
        <LUN>
            <LUNSize>MAXSIZE</LUNSize>
        </LUN>
        <DedicateHSP>
            <Disk>NA</Disk>
        </DedicateHSP>
        <WritePolicy>WriteBack</WritePolicy>
        <!--ReadAhead,ReadAheadNone -->
        <ReadPolicy>ReadAhead</ReadPolicy>
        <CachePolicy>Direct</CachePolicy>
    </RAIDArray>
    <RAIDArray>
        <RAIDType>0</RAIDType>
        <DiskArray>
            <Disk>4</Disk>
        </DiskArray>
        <LUN>
            <LUNSize>MAXSIZE</LUNSize>
        </LUN>
        <DedicateHSP>
            <Disk>NA</Disk>
        </DedicateHSP>
        <WritePolicy>WriteBack</WritePolicy>
        <!--ReadAhead,ReadAheadNone -->
        <ReadPolicy>ReadAhead</ReadPolicy>
        <CachePolicy>Direct</CachePolicy>
    </RAIDArray>
    <RAIDArray>
        <RAIDType>0</RAIDType>
        <DiskArray>
            <Disk>5</Disk>
        </DiskArray>
        <LUN>
            <LUNSize>MAXSIZE</LUNSize>
        </LUN>
        <DedicateHSP>
            <Disk>NA</Disk>
        </DedicateHSP>
        <WritePolicy>WriteBack</WritePolicy>
        <!--ReadAhead,ReadAheadNone -->
        <ReadPolicy>ReadAhead</ReadPolicy>
        <CachePolicy>Direct</CachePolicy>
    </RAIDArray>
    <RAIDArray>
        <RAIDType>0</RAIDType>
        <DiskArray>
            <Disk>6</Disk>
        </DiskArray>
        <LUN>
            <LUNSize>MAXSIZE</LUNSize>
        </LUN>
        <DedicateHSP>
            <Disk>NA</Disk>
        </DedicateHSP>
        <WritePolicy>WriteBack</WritePolicy>
        <!--ReadAhead,ReadAheadNone -->
        <ReadPolicy>ReadAhead</ReadPolicy>
        <CachePolicy>Direct</CachePolicy>
    </RAIDArray>
    <RAIDArray>
        <RAIDType>0</RAIDType>
        <DiskArray>
            <Disk>7</Disk>
        </DiskArray>
        <LUN>
            <LUNSize>MAXSIZE</LUNSize>
        </LUN>
        <DedicateHSP>
            <Disk>NA</Disk>
        </DedicateHSP>
        <WritePolicy>WriteBack</WritePolicy>
        <!--ReadAhead,ReadAheadNone -->
        <ReadPolicy>ReadAhead</ReadPolicy>
        <CachePolicy>Direct</CachePolicy>
    </RAIDArray>
    <RAIDArray>
        <RAIDType>0</RAIDType>
        <DiskArray>
            <Disk>8</Disk>
        </DiskArray>
        <LUN>
            <LUNSize>MAXSIZE</LUNSize>
        </LUN>
        <DedicateHSP>
            <Disk>NA</Disk>
        </DedicateHSP>
        <WritePolicy>WriteBack</WritePolicy>
        <!--ReadAhead,ReadAheadNone -->
        <ReadPolicy>ReadAhead</ReadPolicy>
        <CachePolicy>Direct</CachePolicy>
    </RAIDArray>
    <RAIDArray>
        <RAIDType>0</RAIDType>
        <DiskArray>
            <Disk>9</Disk>
        </DiskArray>
        <LUN>
            <LUNSize>MAXSIZE</LUNSize>
        </LUN>
        <DedicateHSP>
            <Disk>NA</Disk>
        </DedicateHSP>
        <WritePolicy>WriteBack</WritePolicy>
        <!--ReadAhead,ReadAheadNone -->
        <ReadPolicy>ReadAhead</ReadPolicy>
        <CachePolicy>Direct</CachePolicy>
    </RAIDArray>
    <GlobalHSP>
        <Disk>NA</Disk>
    </GlobalHSP>
    <BootDrive>0</BootDrive>
</RAID>
<!--RAID controller 2-->
</Profile>

7.点Next进入下一步会提示危险操作,输入 yes 并点击 yes 继续。
umate-raid-6.png
8.接下来就是漫长的等待
umate-raid-7.png
9.每台机器大概15分钟就能做好RAID,超过半小时的建议看看机器状态,看是不是机器死掉了。
umate-raid-8.png
10.提示成功不一定成功,建议抽查一下,博主发现这批机器竟然有两种阵列卡(。。。)
umate-raid-8.png

搬瓦工年付$187机房套餐补货了,电信联通优化,512M内存/500G流量/1G带宽,建站稳定,优惠码:BWH1ZBPVK,【点击购买】!
搬瓦工年付$28CN2高速线路,512M内存/500G流量/1G带宽,电信联通优化,延迟低,速度快,建站稳定,优惠码同上,【点击购买】!
Last modification:March 10th, 2019 at 09:38 pm
If you think my article is useful to you, please feel free to appreciate

Leave a Comment