導航:首頁 > 編程系統 > linux做raid1

linux做raid1

發布時間:2023-03-31 02:22:17

『壹』 linux如何把系統硬碟轉換為raid1

可以這么考慮!需要兩塊並芹硬碟才行 mdadm-C/慧歲dev/md0-l1-n2/dev/sd[a-b] mkfs.ext4/dev/md0 mdadm/dev/md0|grep-iuuid記錄這個命令里顯示的uuid 編輯/etc/mdadm.conf可能這個文件要自己手動創建 添加 ARRAY/dev/md0UUID=上面絕碧畢記的那個uuid 將md0添加到fstab中就行了

『貳』 linux下如何做硬體RAID

一般LENOVO伺服器是CTRL+M進RAID控制器里做RAID
之後就可以安裝系統redhat 4 update 4以後的raid 驅動都很全,按正常安裝就可以,不用自己再載入
下面來講講如何用優盤來掛載驅動的方法,此方法要在Linux下執行操作:
1.下載官網上的最新驅動。
2.例如解壓壓縮驅動包cpq_cciss-2.6.10-13.rhel4.i686.dd.gzgzip –d cpq_cciss-2.6.10-13.rhel4.i686.dd.gz
3.這個方法優盤驅動必須在Linux下製作,注意設備名/dev/sdx中的x是變數,具體就是優盤的設備名,千萬別搞錯了,這個操作會清空整個設備的數據的。#Cat xxxxxxxxxxxxxxxxxx.img /dev/sdx
或者
#dd if= xxxxxxxxxxxxxxxxxxx.i686.dd of=/dev/sdx
4.下面的方法就和軟盤版一樣了,在光碟啟動到boot的時候,輸入下面的命令來載入驅動。linux dd
5.提示是否提供驅動磁碟
6.選擇驅動磁碟的來源:如果為軟碟機則為 fd0, 如果usb 軟碟機或者 U 盤則為 sd 開頭的,反正看具體的情況。提示插入驅動磁碟,此時按OK。
7.正在載入驅動,如果為 U 盤,則可能看不到此頁面,因為速度很快就跳過了。
8.如果驅動不正確則提示如下:引用Failure to mount drive disk
如果驅動正確則提示載入 usb-storage ,此時驅動已經完全載入。完成一次載入後提示是否再載入其他存儲驅動,如果已經載入完則選擇NO。

『叄』 linux 如何把系統硬碟轉換為raid1

需要兩塊硬碟才行
mdadm -C /如鍵dev/md0 -l 1 -n 2 /dev/sd[a-b]
mkfs.ext4 /dev/md0
mdadm /渣困巧dev/md0|grep -i uuid 記錄這個命令里顯示的uuid

編輯/etc/mdadm.conf 可能這個文件要自己尺胡手動創建
添加
ARRAY /dev/md0 UUID=上面記的那個uuid
將md0添加到fstab中就行了

『肆』 如何使用Linux程序mdadm創建軟體RAID1軟陣列 第2頁

創建 RAID-1 陣列
磁碟分區完成後,我們可以使用以下命令創建 RAID-1 陣列:
# mdadm -Cv /dev/md0 -l1 -n2 /dev/sdb1 /dev/sdc1
說明:
-Cv: 創建一個陣列並列印出詳細信息。
/dev/md0: 陣列名稱。
-l1 (l as in "level"): 指定陣列類型為 RAID-1 。
-n2: 指定我們將兩個分區加入到陣列中去,分別為/dev/sdb1 和 /dev/sdc1
以上命令和下面的等價:
# mdadm --create --verbose /dev/md0 --level=1 --raid-devices=2 /dev/sdb1 /dev/sdc1
如果你想在在磁碟失效時添加另外一個磁碟到陣列中,可以指定 '--spare-devices=1 /dev/sdd1' 到以上命令。
輸入 「y」 繼續創建陣列,回車:
可以使用以下命令查看進度:
# cat /proc/mdstat
另外一個獲取陣列信息的方法是:
# mdadm --query /dev/md0
# mdadm --detail /dev/md0 (或 mdadm -D /dev/md0)
'mdadm -D'命令提供的信息中,最重要就是陣列狀態類。激活狀態說明陣列正在進行讀寫操作。其他幾個狀態分別為:完成(讀寫完成)、降級(有一塊磁碟失效或丟失)或者恢復中(一張新盤已插入,系統正在寫入數據)。這幾個狀態涵蓋了大多數情況。
格式化或載入磁碟陣列
下一步就是格式化陣列了,本例中使用ext4格式:
# mkfs.ext4 /dev/md0
現在可以載入陣列並驗證其正常載入:
# mount /dev/md0 /mnt
# mount

『伍』 求助:急!!!西霸 3114陣列卡 linux系統下 做RAID1老是不成功

首先要換晶元一樣的陣列卡
在確定數據線,電源介面,還有卡接觸還有驅動程序沒有任何問題的前提下
如果還是不可以的話就換相同陣列卡前提下重新做陣列
最神桐戚好是按之前的陣列卡方式做,如盤的數量和陣列緩存
3114一般是默認的就可以了,千萬記得只做陣列而不要重新分區

然後進入MAXDOS或者其他DOS工具
運行diskgen
然後用DISKGEN重建分區表游陵,也就是恢復分區表
至於DISKGEN重建分區輪讓表怎麼搞的你網路一下有詳細的說明
這個方法成功率有95%以上
還是不行只有進系統後用數據恢復軟體恢復了。
祝你好運

『陸』 如何在linux下做軟raid實現方法

磁碟陣列軟RAID實例.
前言:, 容量倍增,加速。 raid1, 安全鏡像備份。 raid5, 奇偶數據校驗保證安全,磁碟利用率(n-1)。
****************************************
1. 准備硬碟分區。
****************************************
raid5 至少需要3快硬碟,我手上只有一塊閑置硬碟,就拿它練手。
在一塊硬碟上實現raid 是沒有意義的,這里僅是為了實驗,知道其過程。
分區如下:
主分區 /sdb1, 擴展分區/sdb10 隨便干別的事情。
擴展分區/sdb{5..9} 做raid5
----------------------------------------
[root@hjj ~]# fdisk -l /dev/sdb
----------------------------------------

Disk /dev/sdb: 160.0 GB, 160041885696 bytes
255 heads, 63 sectors/track, 19457 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x86ea33f5

Device Boot Start End Blocks Id System
/dev/sdb1 1 3241 26033301 83 Linux
/dev/sdb2 3242 19457 130255020 5 Extended
/dev/sdb5 3242 6482 26033301 fd Linux raid autodetect
/dev/sdb6 6483 9723 26033301 fd Linux raid autodetect
/dev/sdb7 9724 12964 26033301 fd Linux raid autodetect
/dev/sdb8 12965 16205 26033301 fd Linux raid autodetect
/dev/sdb9 16206 19446 26033301 fd Linux raid autodetect
/dev/sdb10 19447 19457 88326 83 Linux

----------------------------------------
[root@hjj ~]# partprobe /dev/sdb
----------------------------------------
重新檢測分區要通過, 可能需要重啟系統。

****************************************
2. 創建raid5 設備/dev/md0
****************************************
raid 設備文件名,習慣上用md0, md1....等命名
注意: 創建需要內核支持, 選中相應的raid 選項,重編譯內核,否則該命令不能通過,錯誤為invalid parameter
2.1 創建
--------------------------------------------------------------------------------
[root@hjj ~]# mdadm -C /dev/md0 -a yes -l 5 -n 4 -x 1 /dev/sdb{5..9}
--------------------------------------------------------------------------------
mdadm: Defaulting to version 1.2 metadata
解釋一下:
-C ---> create
-a ---> autodetected
-l ---> level raid5
-n ---> raid devices 4 (使用)
-x ---> spare devices 1(備用)

給一個參考多硬碟命令
[root@hjj ~]# mdadm -C /dev/md0 -a yes -l 5 -n 3 /dev/sd[bcd]1

2.2: 設備名稱查詢
[root@hjj ~]# ll /dev/md* -d
drwxr-xr-x 2 root root 60 Nov 7 01:51 /dev/md
brw-rw---- 1 root disk 9, 0 Nov 7 01:52 /dev/md0
2.3: 設備信息查詢
----------------------------------------
[root@hjj ~]# mdadm --detail /dev/md0
----------------------------------------
/dev/md0:
Version : 1.2
Creation Time : Thu Nov 7 01:14:01 2013
Raid Level : raid5
Array Size : 78096384 (74.48 GiB 79.97 GB)
Used Dev Size : 26032128 (24.83 GiB 26.66 GB)
Raid Devices : 4
Total Devices : 5
Persistence : Superblock is persistent

Update Time : Thu Nov 7 01:43:21 2013
State : clean, degraded, recovering
Active Devices : 3
Working Devices : 5
Failed Devices : 0
Spare Devices : 2

Layout : left-symmetric
Chunk Size : 512K

Rebuild Status : 63% complete

Name : hjj.localdomain:0 (local to host hjj.localdomain)
UUID : 9dee9c47:58dfe491:5c8db1c6:9686eba5
Events : 25

Number Major Minor RaidDevice State
0 8 21 0 active sync /dev/sdb5
1 8 22 1 active sync /dev/sdb6
2 8 23 2 active sync /dev/sdb7
5 8 24 3 spare rebuilding /dev/sdb8

4 8 25 - spare /dev/sdb9

****************************************
3: 格式化raid 設備(磁碟)
[root@hjj ~]# mkfs -t ext4 /dev/md0
****************************************
mke2fs 1.41.12 (17-May-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=384 blocks
4882432 inodes, 19524096 blocks
976204 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
596 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424

Writing inode tables: done
Creating journal (32768 blocks):
done
Writing superblocks and filesystem accounting information:
done

This filesystem will be automatically checked every 34 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.

****************************************
4. 掛載及使用raid 磁碟
****************************************
[root@hjj ~]# mount /dev/md0 /mnt
[root@hjj ~]# cd /mnt
[root@hjj /mnt]# ls
lost+found

使用raid 設備(虛擬盤)
[root@hjj /mnt]# echo "haha" > abc.txt
[root@hjj /mnt]# cat abc.txt
haha
[root@hjj ~]# df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/mapper/VolGroup-lv_root
51475068 40659416 8177828 84% /
tmpfs 1015868 224 1015644 1% /dev/shm
/dev/sda1 487652 67236 390720 15% /boot
/dev/mapper/VolGroup-lv_home
97521332 10652080 81892408 12% /home
/dev/md0 76739624 53016 72765408 1% /mnt

****************************************
5. 設置開機啟動RAID
****************************************
[root@hjj ~]# mdadm --detail --scan
ARRAY /dev/md0 metadata=1.2 spares=2 name=hjj.localdomain:0 UUID=9dee9c47:58dfe491:5c8db1c6:9686eba5
[root@hjj ~]# mdadm --detail --scan >/etc/mdadm.conf
經以上操作,系統重啟時自動命名為md0, 否則會是md127 等等值, 不固定。
[root@hjj ~]# vim /etc/fstab
添加:
/dev/md0 /mnt ext4 defaults 0 0

****************************************
6. 其它:停用設備,插拔磁碟
更詳細文檔: man mdadm
****************************************
停用raid 盤:
[root@hjj ~]# mdadm --stop /dev/md0
查詢
[root@hjj ~]# ll /dev/md* , 無設備

mdadm 還可模擬拔出硬碟,修復硬碟,插入硬碟
[root@hjj ~]# mdadm /dev/md0 --remove /dev/sdb5
驗證:
[root@hjj ~]# mdadm --zero-superblock --force /dev/md0
[root@hjj ~]# mdadm /dev/md0 --add /dev/sdb5
驗證:

驗證方法:

[root@hjj ~]# mdadm --detail /dev/md0

刪除該raid 設備, 完整的操作過程如下示例。 比較規范,系統無錯誤。

當然,不按規范刪除也可以。反正你也不要設備上的所有數據了。

mdadm /dev/md0 --fail /dev/sdb5 --remove /dev/sdb5
mdadm /dev/md0 --fail /dev/sdb6 --remove /dev/sdb6
mdadm /dev/md0 --fail /dev/sdb7 --remove /dev/sdb7
mdadm /dev/md0 --fail /dev/sdb8 --remove /dev/sdb8
mdadm /dev/md0 --fail /dev/sdb9 --remove /dev/sdb9

mdadm --remove /dev/md0
mdadm --stop /dev/md0

mdadm --misc --zero-superblock /dev/sdb5
mdadm --misc --zero-superblock /dev/sdb6
mdadm --misc --zero-superblock /dev/sdb7
mdadm --misc --zero-superblock /dev/sdb8
mdadm --misc --zero-superblock /dev/sdb9

即: 先刪除RAID中的所有設備,然後停止,刪除該RAID即可
為了防止系統啟動時候啟動raid, 應檢查,修改相應的配置。
例如mdadm.conf, fstab 等

『柒』 請問如何在安裝linux時做raid1,我已經掛上兩塊相同磁碟,需要詳細解答

硬體?軟體?
--------------
安裝時好像只能用安裝程序做 lvm 的 raid 。

mdadm 貌似需要裝好。
所有的軟 raid ,都需要有單獨的一個單硬碟分區作為系統的分區來啟動系統。
------------------
2個應該也可以,一個分個小的分區裝系統。裝好後剩餘空間和另一個硬碟的相同大小的分區組成 raid。
這么組軟體 raid ,windows 的動態卷就支持的,我想 linux 本來就是針對伺服器的,應該支持的更好。

現在 raid 最差也得弄一個南橋提供的 raid 吧?現在還需要純軟體 raid 么……

『捌』 RAID1在linux系統下如何實現兩塊硬碟之間的冗餘備份

你有RAID卡,可以使用硬體RAID,開機進RAID卡搭輪設置,然後把兩個硬碟做成RAID1,這樣生成一個邏輯硬碟
操作系統只要有RAID卡驅動,識別敗搜到察枝歷的是邏輯硬碟,在它看來就只是一塊硬碟

『玖』 如何使用linux程序mdadm創建軟體RAID1軟陣列

RAID0: 一個軟RAID區在硬碟0上,另一個軟RAID區在硬碟1上。系統裝在硬碟0上。 裝好系統做好RAID後,去掉硬碟滑扒1。RAID正常。 在硬碟0上重裝系統,認出硬碟0上的RAID。或讓型讀衫猜寫正常,添加一個軟RAID區後,重建正常。 在硬碟2上重裝系統,掛硬碟0或者

『拾』 如何使用linux程序mdadm創建軟體RAID1軟陣列

安裝mdadm
我們將使用mdadm(簡稱多盤管理)工具創建、組裝、管理和監控軟體RAID-1。晌滑在諸如Fedora、CentOS、RHEL或者Arch Linux 的發行版中,mdadm是默認安裝的。在基於Debian的發行版中,可以使用aptitude 或者 apt-get 安裝mdadm。
Fedora, CentOS 或 RHEL
由於adadm是預裝的,所以我們只需要差世開啟RAID守護服務,並將其配置成開機啟動即可:

Shell

1
2

# systemctl start mdmonitor
# systemctl enable mdmonitor

對於CentOS/RHEL 6系統,使用以下命令:

Shell

1
2

# service mdmonitor start
# chkconfig mdmonitor on

Debian, Ubuntu 或 Linux Mint
在Debian或類Debian系統中,mdadm可以使用 aptitude 或者 apt-get 安裝:

Shell

1

# aptitude install mdadm

Ubuntu系統中,會要求配置Postfix MTA 以發送電子郵件通知。你可以跳過去。
Debian系統中,安裝程序會顯示以下解釋信息,用來幫助我們去判斷是否將根目錄安裝到RAID陣列中。下面的所有操作都有賴虛謹肢於這一步,所以應該仔細閱讀他。

閱讀全文

與linux做raid1相關的資料

熱點內容
最快電影在線觀看網站 瀏覽:952
小仙兒百度雲盤mp3 瀏覽:452
戴眼鏡上門女家教 瀏覽:682
韓國片 警察妻子是花店老闆 瀏覽:934
日版iphone6維修 瀏覽:369
郵票數據英語怎麼讀 瀏覽:924
linuxshort幾個位元組 瀏覽:410
怎麼查看文件位元組多少 瀏覽:500
男男大尺度電影在線視頻 瀏覽:850
蘋果6p玩王者榮耀卡嗎 瀏覽:395
和諧片網站 瀏覽:966
北京錦平寶網路技術有限公司 瀏覽:791
隔世怨靈片段 瀏覽:235
泰國血腥犯罪暴力電影 瀏覽:227
普陀單抽文件櫃多少錢 瀏覽:569
觀看香港網站 瀏覽:816
文件簽字有效 瀏覽:247
抖音直播電影不侵權的電影有哪些 瀏覽:439

友情鏈接