导航:首页 > 编程系统 > linux做raid1

linux做raid1

发布时间:2023-03-31 02:22:17

『壹』 linux如何把系统硬盘转换为raid1

可以这么考虑!需要两块并芹硬盘才行 mdadm-C/慧岁dev/md0-l1-n2/dev/sd[a-b] mkfs.ext4/dev/md0 mdadm/dev/md0|grep-iuuid记录这个命令里显示的uuid 编辑/etc/mdadm.conf可能这个文件要自己手动创建 添加 ARRAY/dev/md0UUID=上面绝碧毕记的那个uuid 将md0添加到fstab中就行了

『贰』 linux下如何做硬件RAID

一般LENOVO服务器是CTRL+M进RAID控制器里做RAID
之后就可以安装系统redhat 4 update 4以后的raid 驱动都很全,按正常安装就可以,不用自己再加载
下面来讲讲如何用优盘来挂载驱动的方法,此方法要在Linux下执行操作:
1.下载官网上的最新驱动。
2.例如解压压缩驱动包cpq_cciss-2.6.10-13.rhel4.i686.dd.gzgzip –d cpq_cciss-2.6.10-13.rhel4.i686.dd.gz
3.这个方法优盘驱动必须在Linux下制作,注意设备名/dev/sdx中的x是变量,具体就是优盘的设备名,千万别搞错了,这个操作会清空整个设备的数据的。#Cat xxxxxxxxxxxxxxxxxx.img /dev/sdx
或者
#dd if= xxxxxxxxxxxxxxxxxxx.i686.dd of=/dev/sdx
4.下面的方法就和软盘版一样了,在光盘启动到boot的时候,输入下面的命令来加载驱动。linux dd
5.提示是否提供驱动磁盘
6.选择驱动磁盘的来源:如果为软驱则为 fd0, 如果usb 软驱或者 U 盘则为 sd 开头的,反正看具体的情况。提示插入驱动磁盘,此时按OK。
7.正在加载驱动,如果为 U 盘,则可能看不到此页面,因为速度很快就跳过了。
8.如果驱动不正确则提示如下:引用Failure to mount drive disk
如果驱动正确则提示加载 usb-storage ,此时驱动已经完全加载。完成一次加载后提示是否再加载其他存储驱动,如果已经加载完则选择NO。

『叁』 linux 如何把系统硬盘转换为raid1

需要两块硬盘才行
mdadm -C /如键dev/md0 -l 1 -n 2 /dev/sd[a-b]
mkfs.ext4 /dev/md0
mdadm /渣困巧dev/md0|grep -i uuid 记录这个命令里显示的uuid

编辑/etc/mdadm.conf 可能这个文件要自己尺胡手动创建
添加
ARRAY /dev/md0 UUID=上面记的那个uuid
将md0添加到fstab中就行了

『肆』 如何使用Linux程序mdadm创建软件RAID1软阵列 第2页

创建 RAID-1 阵列
磁盘分区完成后,我们可以使用以下命令创建 RAID-1 阵列:
# mdadm -Cv /dev/md0 -l1 -n2 /dev/sdb1 /dev/sdc1
说明:
-Cv: 创建一个阵列并打印出详细信息。
/dev/md0: 阵列名称。
-l1 (l as in "level"): 指定阵列类型为 RAID-1 。
-n2: 指定我们将两个分区加入到阵列中去,分别为/dev/sdb1 和 /dev/sdc1
以上命令和下面的等价:
# mdadm --create --verbose /dev/md0 --level=1 --raid-devices=2 /dev/sdb1 /dev/sdc1
如果你想在在磁盘失效时添加另外一个磁盘到阵列中,可以指定 '--spare-devices=1 /dev/sdd1' 到以上命令。
输入 “y” 继续创建阵列,回车:
可以使用以下命令查看进度:
# cat /proc/mdstat
另外一个获取阵列信息的方法是:
# mdadm --query /dev/md0
# mdadm --detail /dev/md0 (或 mdadm -D /dev/md0)
'mdadm -D'命令提供的信息中,最重要就是阵列状态类。激活状态说明阵列正在进行读写操作。其他几个状态分别为:完成(读写完成)、降级(有一块磁盘失效或丢失)或者恢复中(一张新盘已插入,系统正在写入数据)。这几个状态涵盖了大多数情况。
格式化或加载磁盘阵列
下一步就是格式化阵列了,本例中使用ext4格式:
# mkfs.ext4 /dev/md0
现在可以加载阵列并验证其正常加载:
# mount /dev/md0 /mnt
# mount

『伍』 求助:急!!!西霸 3114阵列卡 linux系统下 做RAID1老是不成功

首先要换芯片一样的阵列卡
在确定数据线,电源接口,还有卡接触还有驱动程序没有任何问题的前提下
如果还是不可以的话就换相同阵列卡前提下重新做阵列
最神桐戚好是按之前的阵列卡方式做,如盘的数量和阵列缓存
3114一般是默认的就可以了,千万记得只做阵列而不要重新分区

然后进入MAXDOS或者其他DOS工具
运行diskgen
然后用DISKGEN重建分区表游陵,也就是恢复分区表
至于DISKGEN重建分区轮让表怎么搞的你网络一下有详细的说明
这个方法成功率有95%以上
还是不行只有进系统后用数据恢复软件恢复了。
祝你好运

『陆』 如何在linux下做软raid实现方法

磁盘阵列软RAID实例.
前言:, 容量倍增,加速。 raid1, 安全镜像备份。 raid5, 奇偶数据校验保证安全,磁盘利用率(n-1)。
****************************************
1. 准备硬盘分区。
****************************************
raid5 至少需要3快硬盘,我手上只有一块闲置硬盘,就拿它练手。
在一块硬盘上实现raid 是没有意义的,这里仅是为了实验,知道其过程。
分区如下:
主分区 /sdb1, 扩展分区/sdb10 随便干别的事情。
扩展分区/sdb{5..9} 做raid5
----------------------------------------
[root@hjj ~]# fdisk -l /dev/sdb
----------------------------------------

Disk /dev/sdb: 160.0 GB, 160041885696 bytes
255 heads, 63 sectors/track, 19457 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x86ea33f5

Device Boot Start End Blocks Id System
/dev/sdb1 1 3241 26033301 83 Linux
/dev/sdb2 3242 19457 130255020 5 Extended
/dev/sdb5 3242 6482 26033301 fd Linux raid autodetect
/dev/sdb6 6483 9723 26033301 fd Linux raid autodetect
/dev/sdb7 9724 12964 26033301 fd Linux raid autodetect
/dev/sdb8 12965 16205 26033301 fd Linux raid autodetect
/dev/sdb9 16206 19446 26033301 fd Linux raid autodetect
/dev/sdb10 19447 19457 88326 83 Linux

----------------------------------------
[root@hjj ~]# partprobe /dev/sdb
----------------------------------------
重新检测分区要通过, 可能需要重启系统。

****************************************
2. 创建raid5 设备/dev/md0
****************************************
raid 设备文件名,习惯上用md0, md1....等命名
注意: 创建需要内核支持, 选中相应的raid 选项,重编译内核,否则该命令不能通过,错误为invalid parameter
2.1 创建
--------------------------------------------------------------------------------
[root@hjj ~]# mdadm -C /dev/md0 -a yes -l 5 -n 4 -x 1 /dev/sdb{5..9}
--------------------------------------------------------------------------------
mdadm: Defaulting to version 1.2 metadata
解释一下:
-C ---> create
-a ---> autodetected
-l ---> level raid5
-n ---> raid devices 4 (使用)
-x ---> spare devices 1(备用)

给一个参考多硬盘命令
[root@hjj ~]# mdadm -C /dev/md0 -a yes -l 5 -n 3 /dev/sd[bcd]1

2.2: 设备名称查询
[root@hjj ~]# ll /dev/md* -d
drwxr-xr-x 2 root root 60 Nov 7 01:51 /dev/md
brw-rw---- 1 root disk 9, 0 Nov 7 01:52 /dev/md0
2.3: 设备信息查询
----------------------------------------
[root@hjj ~]# mdadm --detail /dev/md0
----------------------------------------
/dev/md0:
Version : 1.2
Creation Time : Thu Nov 7 01:14:01 2013
Raid Level : raid5
Array Size : 78096384 (74.48 GiB 79.97 GB)
Used Dev Size : 26032128 (24.83 GiB 26.66 GB)
Raid Devices : 4
Total Devices : 5
Persistence : Superblock is persistent

Update Time : Thu Nov 7 01:43:21 2013
State : clean, degraded, recovering
Active Devices : 3
Working Devices : 5
Failed Devices : 0
Spare Devices : 2

Layout : left-symmetric
Chunk Size : 512K

Rebuild Status : 63% complete

Name : hjj.localdomain:0 (local to host hjj.localdomain)
UUID : 9dee9c47:58dfe491:5c8db1c6:9686eba5
Events : 25

Number Major Minor RaidDevice State
0 8 21 0 active sync /dev/sdb5
1 8 22 1 active sync /dev/sdb6
2 8 23 2 active sync /dev/sdb7
5 8 24 3 spare rebuilding /dev/sdb8

4 8 25 - spare /dev/sdb9

****************************************
3: 格式化raid 设备(磁盘)
[root@hjj ~]# mkfs -t ext4 /dev/md0
****************************************
mke2fs 1.41.12 (17-May-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=384 blocks
4882432 inodes, 19524096 blocks
976204 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
596 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424

Writing inode tables: done
Creating journal (32768 blocks):
done
Writing superblocks and filesystem accounting information:
done

This filesystem will be automatically checked every 34 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.

****************************************
4. 挂载及使用raid 磁盘
****************************************
[root@hjj ~]# mount /dev/md0 /mnt
[root@hjj ~]# cd /mnt
[root@hjj /mnt]# ls
lost+found

使用raid 设备(虚拟盘)
[root@hjj /mnt]# echo "haha" > abc.txt
[root@hjj /mnt]# cat abc.txt
haha
[root@hjj ~]# df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/mapper/VolGroup-lv_root
51475068 40659416 8177828 84% /
tmpfs 1015868 224 1015644 1% /dev/shm
/dev/sda1 487652 67236 390720 15% /boot
/dev/mapper/VolGroup-lv_home
97521332 10652080 81892408 12% /home
/dev/md0 76739624 53016 72765408 1% /mnt

****************************************
5. 设置开机启动RAID
****************************************
[root@hjj ~]# mdadm --detail --scan
ARRAY /dev/md0 metadata=1.2 spares=2 name=hjj.localdomain:0 UUID=9dee9c47:58dfe491:5c8db1c6:9686eba5
[root@hjj ~]# mdadm --detail --scan >/etc/mdadm.conf
经以上操作,系统重启时自动命名为md0, 否则会是md127 等等值, 不固定。
[root@hjj ~]# vim /etc/fstab
添加:
/dev/md0 /mnt ext4 defaults 0 0

****************************************
6. 其它:停用设备,插拔磁盘
更详细文档: man mdadm
****************************************
停用raid 盘:
[root@hjj ~]# mdadm --stop /dev/md0
查询
[root@hjj ~]# ll /dev/md* , 无设备

mdadm 还可模拟拔出硬盘,修复硬盘,插入硬盘
[root@hjj ~]# mdadm /dev/md0 --remove /dev/sdb5
验证:
[root@hjj ~]# mdadm --zero-superblock --force /dev/md0
[root@hjj ~]# mdadm /dev/md0 --add /dev/sdb5
验证:

验证方法:

[root@hjj ~]# mdadm --detail /dev/md0

删除该raid 设备, 完整的操作过程如下示例。 比较规范,系统无错误。

当然,不按规范删除也可以。反正你也不要设备上的所有数据了。

mdadm /dev/md0 --fail /dev/sdb5 --remove /dev/sdb5
mdadm /dev/md0 --fail /dev/sdb6 --remove /dev/sdb6
mdadm /dev/md0 --fail /dev/sdb7 --remove /dev/sdb7
mdadm /dev/md0 --fail /dev/sdb8 --remove /dev/sdb8
mdadm /dev/md0 --fail /dev/sdb9 --remove /dev/sdb9

mdadm --remove /dev/md0
mdadm --stop /dev/md0

mdadm --misc --zero-superblock /dev/sdb5
mdadm --misc --zero-superblock /dev/sdb6
mdadm --misc --zero-superblock /dev/sdb7
mdadm --misc --zero-superblock /dev/sdb8
mdadm --misc --zero-superblock /dev/sdb9

即: 先删除RAID中的所有设备,然后停止,删除该RAID即可
为了防止系统启动时候启动raid, 应检查,修改相应的配置。
例如mdadm.conf, fstab 等

『柒』 请问如何在安装linux时做raid1,我已经挂上两块相同磁盘,需要详细解答

硬件?软件?
--------------
安装时好像只能用安装程序做 lvm 的 raid 。

mdadm 貌似需要装好。
所有的软 raid ,都需要有单独的一个单硬盘分区作为系统的分区来启动系统。
------------------
2个应该也可以,一个分个小的分区装系统。装好后剩余空间和另一个硬盘的相同大小的分区组成 raid。
这么组软件 raid ,windows 的动态卷就支持的,我想 linux 本来就是针对服务器的,应该支持的更好。

现在 raid 最差也得弄一个南桥提供的 raid 吧?现在还需要纯软件 raid 么……

『捌』 RAID1在linux系统下如何实现两块硬盘之间的冗余备份

你有RAID卡,可以使用硬件RAID,开机进RAID卡搭轮设置,然后把两个硬盘做成RAID1,这样生成一个逻辑硬盘
操作系统只要有RAID卡驱动,识别败搜到察枝历的是逻辑硬盘,在它看来就只是一块硬盘

『玖』 如何使用linux程序mdadm创建软件RAID1软阵列

RAID0: 一个软RAID区在硬盘0上,另一个软RAID区在硬盘1上。系统装在硬盘0上。 装好系统做好RAID后,去掉硬盘滑扒1。RAID正常。 在硬盘0上重装系统,认出硬盘0上的RAID。或让型读衫猜写正常,添加一个软RAID区后,重建正常。 在硬盘2上重装系统,挂硬盘0或者

『拾』 如何使用linux程序mdadm创建软件RAID1软阵列

安装mdadm
我们将使用mdadm(简称多盘管理)工具创建、组装、管理和监控软件RAID-1。晌滑在诸如Fedora、CentOS、RHEL或者Arch Linux 的发行版中,mdadm是默认安装的。在基于Debian的发行版中,可以使用aptitude 或者 apt-get 安装mdadm。
Fedora, CentOS 或 RHEL
由于adadm是预装的,所以我们只需要差世开启RAID守护服务,并将其配置成开机启动即可:

Shell

1
2

# systemctl start mdmonitor
# systemctl enable mdmonitor

对于CentOS/RHEL 6系统,使用以下命令:

Shell

1
2

# service mdmonitor start
# chkconfig mdmonitor on

Debian, Ubuntu 或 Linux Mint
在Debian或类Debian系统中,mdadm可以使用 aptitude 或者 apt-get 安装:

Shell

1

# aptitude install mdadm

Ubuntu系统中,会要求配置Postfix MTA 以发送电子邮件通知。你可以跳过去。
Debian系统中,安装程序会显示以下解释信息,用来帮助我们去判断是否将根目录安装到RAID阵列中。下面的所有操作都有赖虚谨肢于这一步,所以应该仔细阅读他。

阅读全文

与linux做raid1相关的资料

热点内容
一部国外电影一个老头爱上一个老太 浏览:704
中云文化大数据秦龙 浏览:444
俄罗斯电影《沙漠》2021 浏览:656
中兴u930升级包 浏览:159
剧情介绍有哪些APP 浏览:528
搞笑的恋爱电影在线观看 浏览:804
十大封禁爱情电影美国 浏览:90
gl小说百度网盘txt下载 浏览:925
格瑞斯甲亢看哪些数据 浏览:587
Rocco e le storie tese (1997) 浏览:147
大数据政策措施 浏览:63
我们先在碰头电影院前面用英语怎么说 浏览:497
现代忠犬受卑微主仆 浏览:347
win10拖动文件崩溃 浏览:692
win8系统网络设置 浏览:691
眼角膜电影在线观看 浏览:317
现代校园一女多男 浏览:449
主角被多位女主逆推的小说 浏览:295
男人可以看的电影网站 浏览:216
原始影像数据有哪些缺点 浏览:47

友情链接