目录
一、RAID磁盘阵列
1、RAID 0
2、RAID 1
3、RAID 5
4、RAID 6
5、RAID 10/01
6、RAID级别汇总表
二、mdadm命令
三、RAID的创建
1、创建RAID 5
1.1 创建RAID 5
1.2 检查安装进度
1.3 详细信息
1.4 格式化
1.5 挂载
1.6 模拟故障
2、创建RAID 10(0 1)
四、删除RAID
1、是Redundant Array of Independent Disks的缩写,中文简称为独立元余磁盘阵列。
2、把多块独立的物理硬盘按不同的方式组合起来形成一个硬盘组 (逻辑硬盘),从而提供比单个硬盘更高的存储性能和提供数据备份技术。
3、成磁盘阵列的不同方式称为RAID级别 (RAID Levels)。
4、常用的RAID级别:
RAIDO,RAID1,RAID5,RAID6,RAID1+0
RAID磁盘阵列其目的:为了组合、管理多块磁盘(分区)来满足不同场合需求。
RAID 0 (条带化存储)
1、RAIDC0连续以位或字节为单位分割数据,并行读/写于多个磁盘上,因此具有很高的数据传输率,但它没有数据余
2、RAID0只是单纯地提高性能入并没有为数据的可靠性提供保证,而且其中的一个磁盘失效将影响到所有数据
3、RAIDO不能应用于数据安全性要求高的场合
RAD1(镜像存储)
1、通过磁盘数据镜像实现数据余,在成对的独立磁盘上产生互为备份的数据
2、当原始数据繁忙时,可直接从镜像贝中读取数据,因此RAID1可以提高读取性能
3、RAID1是磁盘阵列中单位成本最高的,但提供了很高的数据安全性和可用性。当一个磁盘失效时,系统可以自动切换到镜像磁盘上读写,而不需要组失效的数据。
1、N (N>=3)块盘组成阵列,一份数据产生N-1个条带 同时还有1份校验数据共N份数据在N块盘上循环均衡存储.
2、N块盘同时读写,读性能很高,但由于有校验机制的问题,写性能相对不高。
3、(N-1)/N磁盘利用率
4、可靠性高,允许坏1块盘,不影响所有数据。
1、N(N>=4)块盘组成阵列,(N-2)/N磁盘利用率。
2、与RAID5相比RAIDG增加了第二个独立的奇偶校验信息块。
3、两个独立的奇偶系统使用不同的算法,即使两块磁盘同时失效也不会影响数据的使用。
4、相对于RAID5有更大的 “写损失” 因此写性能较差 。
1、RAID 1+0(先做镜象,再做条带)
• N(偶数, N>=4)块盘两两镜像后,组合成一个RAID 0。
•N/2磁盘利用率。
•N/2块盘同时写入,块盘同时读取。
•性能高 可靠性高。
2、RAID 0+1 (先做条带,再做镜象)
•读写性能与RAID10相同。
•安全性低于RAID10。
RAID级别 硬盘数量 磁盘利用率 是否有校验 保护能力 写性能
RAID0 N N 无 无 单个硬盘的N倍
RAID1 N(偶数) N/2 无 允许一个设备故障 需写两对存储设备,互为主备
RAID5 N>=3 (N-1)/N 有 允许一个设备故障 需写计算校验
RAID6 N>=4 (N-2)/N 有 允许两个设备故障 需双重写计算效验
RAID10 N>=4(偶数) N/2 无 允许两个基组中各坏一个 N/2块盘同时写入
mdadm命令:
[root@192 ~]#mdadm -C -v /dev/md5 -l5 -n3 /dev/sd[b-d]1 -x1 /dev/sde1
-C:表示新建。
-v:显示创建过程中的详细信息。
/dev/md5:表示创建 RAID5 的名称。
-a yes:–auto,表示如果有什么设备文件没有存在的话就自动创建,可省略。
-l:指定 RAID 的级别,l5 表示创建 RAID5。
-n:指定使用几块硬盘创建 RAID,n3 表示使用 3 块硬盘创建 RAID。
/dev/sd[b-d]1:指定使用这三块磁盘分区去创建RAID5。
-x:指定使用几块硬盘做RAID的热备用盘,-x1表示保留1块空闲的硬盘作备用
/dev/sde1:指定用作于备用的磁盘
cat /proc/mdstat #还能查看创建RAID的进度
mdadm -D /dev/md5 #查看RAID磁盘详细信息
mdadm命令其它常用选项
-r:移除设备
-a:添加设备
-S:停止RAID
-A:启动RAID
mdadm -C -V /dev/mdo -a yes -15 -n3 /dev/sdbcd1 -1 /dev/sde1
root@192~#cat /proc/mdstat ##检查安装进度
[root@192~]# mdadm -D /dev/md5 ##查询详细的信息
[root@192~]#mkfs.xfs /dev/md5 ##格式化
[root@192~]#mount /dev/md5 /abc
[root@192~]#mdadm /dev/md5 -f /dev/sdb1 ##模拟故障
mdadm: set /dev/sdb1 faulty in /dev/md5
[root@192~]#mdadm -D /dev/md5
1、创建RAID10(先做镜象,再做条带)
mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[bc]1
mdadm -Cv /dev/md1 -l1 -n2 /dev/sd[bc]1
mdadm -Cv /dev/md10 -10 -n2 /dev/mdo /dev/md1
2、一条命令:
mdadm -CV /dev/mdo -110 -n4 -1 /dev/sd{b,c,d,e,f}1
1.先umount组建好的raid:umount /dev/md0
2.停止raid设备:mdadm -S /dev/md0
3.此时如果忘了raid中的硬盘名称,要么重启系统,要么运行:mdadm -A -s /dev/md5 然后再用mdadm -D /dev/md0查看raid 中包含哪几个硬盘。再次运行第二步停止命令:mdadm -S /dev/md0
4.删除raid里的所有硬盘:
mdadm --misc --zero-superblock /dev/sdc
mdadm --misc --zero-superblock /dev/sdd
mdadm --misc --zero-superblock /dev/sde
mdadm --misc --zero-superblock /dev/sdf
有几块硬盘,就按格式删几次,注意最后面的硬盘名称,也可以写在一条命令:
[root@localhost ~]# mdadm --misc --zero-superblock /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
5.删除配置文件:rm -rf /etc/mdadm.conf 补充:释放的硬盘在做一个raid5 raid1+0
生成配置: mdadm -D -s >> /etc/mdadm.conf
停止设备: mdadm -S /dev/md0
激活设备: mdadm -A -s /dev/md0
强行启动: mdadm -R /dev/md0
增加新的成员 mdadm -G /dev/md0 -n5 -a /dev/sdg
版权说明:如非注明,本站文章均为 扬州驻场服务-网络设备调试-监控维修-南京泽同信息科技有限公司 原创,转载请注明出处和附带本文链接。
请在这里放置你的在线分享代码