導航:首頁 > 編程系統 > linuxraidlvm

linuxraidlvm

發布時間:2023-04-01 23:09:51

linux 載入raid卡之後識別到硬碟了,系統能安裝上去,啟動時候起不起來,報如下錯誤:

不能將/boot安裝到LVM上。
直接安裝到raid的lvm卷上的結果,就是認不出系統,不能啟動。
你要有一個普通的ide/sata硬碟,將/boot分區安裝到上面,其他的可以放在raid盤上。

Ⅱ 如何使用LVM卷管理Linux系統中的磁碟

LVM邏輯卷管理器是對Linux系統中對存儲資源進行管理的一種機制,部署LVM邏輯卷管理器需要依次對對物理卷、卷組和邏輯卷的逐個配置,常見的命令分別包括有:
功能/命令 物理卷管理 卷組管理 邏輯卷管理
掃描 pvscan vgscan lvscan
建立 pvcreate vgcreate lvcreate
顯示 pvdisplay vgdisplay lvdisplay
刪除 pvremove vgremove lvremove
擴展 vgextend lvextend

為避免實驗之間互相沖突,請您自行還原虛擬機到最初始狀態,並在虛擬機中添加兩塊新硬碟設備後開機,如圖7-7所示:

圖7-7 在虛擬機中添加一塊新的硬碟設備
在虛擬機中添加兩塊新硬碟設備的目的是為了更好的向同學們演示LVM邏輯卷管理器對於讓用戶無需關心底層物理硬碟設備的特性,咱們將會對這兩塊新的硬碟先進行創建物理卷操作,可以簡單理解成讓硬碟設備支持了LVM技術,然後將兩塊硬碟進行卷組合並,卷組的名稱可以由您來自定義,接下來是將合並後的卷組根據需求再切割出一個約為150M的邏輯卷設備,最後將這個邏輯卷設備格式化成XFS文件系統後掛載使用。現在知道大致的流程後就可以,劉遄老師還會對下面每一個步驟再做一些簡單的描述。
第1步:讓新添加的兩塊硬碟設備支持LVM邏輯卷管理器技術:
[root@linuxprobe ~]# pvcreate /dev/sdb /dev/sdc
Physical volume "/dev/sdb" successfully created
Physical volume "/dev/sdc" successfully created

第2步:將兩塊硬碟設備都加入到storage卷組中,然後查看下卷組的狀態:
[root@linuxprobe ~]# vgcreate storage /dev/sdb /dev/sdc
Volume group "storage" successfully created
[root@linuxprobe ~]# vgdisplay
--- Volume group ---
VG Name storage
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 2
Act PV 2
VG Size 39.99 GiB
PE Size 4.00 MiB
Total PE 10238
Alloc PE / Size 0 / 0 Free PE / Size 10238 / 39.99 GiB
VG UUID KUeAMF-qMLh-XjQy-ArUo-LCQI-YF0o-pScxm1
………………省略部分輸出信息………………

第3步:切割出一個約為150M的邏輯卷設備:
同學們需要注意下切割單位的問題,在LVM邏輯卷管理器對LV邏輯卷的切割上面有兩種計量單位,第一種是常見以-L參數來以容量單位為對象,例如使用-L 150M來生成一個大小為150M的邏輯卷,還可以使用-l參數來指定要使用PE基本單元的個數,默認每個PE的大小為4M,因此允許使用-l 37來生成一個大小為37*4M=148M的邏輯卷:
[root@linuxprobe ~]# lvcreate -n vo -l 37 storage
Logical volume "vo" created
[root@linuxprobe ~]# lvdisplay
--- Logical volume ---
LV Path /dev/storage/vo
LV Name vo
VG Name storage
LV UUID D09HYI-BHBl-iXGr-X2n4-HEzo-FAQH-HRcM2I
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2017-02-01 01:22:54 -0500
LV Status available
# open 0
LV Size 148.00 MiB
Current LE 37
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:2
………………省略部分輸出信息………………

第4步:將生成好的邏輯卷格式化後掛載使用:
Linux系統會把LVM邏輯卷管理器中的邏輯卷設備存放在/dev設備目錄中(實際上是做了一個符號鏈接,但讀者們無需關心),同時會以卷組的名稱來建立一個目錄,其中保存有邏輯卷的設備映射文件。
[root@linuxprobe ~]# mkfs.ext4 /dev/storage/vo
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=1024 (log=0)
Fragment size=1024 (log=0)
Stride=0 blocks, Stripe width=0 blocks
38000 inodes, 151552 blocks
7577 blocks (5.00%) reserved for the super user
First data block=1
Maximum filesystem blocks=33816576
19 block groups
8192 blocks per group, 8192 fragments per group
2000 inodes per group
Superblock backups stored on blocks:
8193, 24577, 40961, 57345, 73729
Allocating group tables: done
Writing inode tables: done
Creating journal (4096 blocks): done
Writing superblocks and filesystem accounting information: done
[root@linuxprobe ~]# mkdir /linuxprobe
[root@linuxprobe ~]# mount /dev/storage/vo /linuxprobe

第5步:查看掛載狀態,並寫入到配置文件永久生效:
[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 905M 0 905M 0% /dev
tmpfs 914M 140K 914M 1% /dev/shm
tmpfs 914M 8.8M 905M 1% /run
tmpfs 914M 0 914M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/mapper/storage-vo 145M 7.6M 138M 6% /linuxprobe
[root@linuxprobe ~]# echo "/dev/storage/vo /linuxprobe ext4 defaults 0 0" >> /etc/fstab

7.2.2 擴容邏輯卷
雖然咱們的卷組是由兩塊硬碟設備共同組成的,但用戶使用存儲資源時感知不到底層硬碟的結構,也不用關心底層是由多少塊硬碟組成的,只要卷組中的資源足夠就可以一直為邏輯卷擴容,擴展前請一定要記得卸載設備和掛載點的關聯。
[root@linuxprobe ~]# umount /linuxprobe

第1步:將上個實驗中的邏輯卷vo擴展至290M:
[root@linuxprobe ~]# lvextend -L 290M /dev/storage/vo
Rounding size to boundary between physical extents: 292.00 MiB
Extending logical volume vo to 292.00 MiB
Logical volume vo successfully resized

第2步:檢查磁碟完整性,重置硬碟容量:
[root@linuxprobe ~]# e2fsck -f /dev/storage/vo
e2fsck 1.42.9 (28-Dec-2013)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
/dev/storage/vo: 11/38000 files (0.0% non-contiguous), 10453/151552 blocks
[root@linuxprobe ~]# resize2fs /dev/storage/vo
resize2fs 1.42.9 (28-Dec-2013)
Resizing the filesystem on /dev/storage/vo to 299008 (1k) blocks.
The filesystem on /dev/storage/vo is now 299008 blocks long.

第3步:重新掛載硬碟設備並查看掛載狀態:
[root@linuxprobe ~]# mount -a
[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 985M 0 985M 0% /dev
tmpfs 994M 80K 994M 1% /dev/shm
tmpfs 994M 8.8M 986M 1% /run
tmpfs 994M 0 994M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/mapper/storage-vo 279M 2.1M 259M 1% /linuxprobe

7.2.3 縮小邏輯卷
相比於擴容邏輯卷來講,對邏輯卷的縮小操作存在著更高丟失數據的風險,所以在生產環境中同學們一定要留心記得提前備份好數據,另外Linux系統規定對LVM邏輯卷的縮小操作需要先檢查文件系統的完整性,當然這也是在保證咱們的數據安全,操作前記得先把文件系統卸載掉:
[root@linuxprobe ~]# umount /linuxprobe

第1步:檢查文件系統的完整性:
[root@linuxprobe ~]# e2fsck -f /dev/storage/vo
e2fsck 1.42.9 (28-Dec-2013)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
/dev/storage/vo: 11/74000 files (0.0% non-contiguous), 15507/299008 blocks

第2步:將LV邏輯卷的容量減小到120M:
[root@linuxprobe ~]# resize2fs /dev/storage/vo 120M
resize2fs 1.42.9 (28-Dec-2013)
Resizing the filesystem on /dev/storage/vo to 122880 (1k) blocks.
The filesystem on /dev/storage/vo is now 122880 blocks long.
[root@linuxprobe ~]# lvrece -L 120M /dev/storage/vo
WARNING: Recing active logical volume to 120.00 MiB
THIS MAY DESTROY YOUR DATA (filesystem etc.)
Do you really want to rece vo? [y/n]: y
Recing logical volume vo to 120.00 MiB
Logical volume vo successfully resized

第3步:將文件系統重新掛載並查看系統狀態:
[root@linuxprobe ~]# mount -a
[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 985M 0 985M 0% /dev
tmpfs 994M 80K 994M 1% /dev/shm
tmpfs 994M 8.8M 986M 1% /run
tmpfs 994M 0 994M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/mapper/storage-vo 113M 1.6M 103M 2% /linuxprobe

7.2.4 邏輯卷快照
除此之外LVM邏輯卷管理器還具備有「快照卷」的功能,這項功能很類似於我們其他軟體的還原時間點功能。例如我們可以對某一個LV邏輯卷設備做一次快照,如果今後發現數據被改錯了,咱們可以將之前做好的快照卷進行覆蓋還原,LVM邏輯卷管理器的快照功能有兩項特點,第一是快照卷的大小應該盡量等同於LV邏輯卷的容量,第二是快照功能僅一次有效,一旦被還原後則會被自動立即刪除。我們首先應當查看下卷組的信息:
[root@linuxprobe ~]# vgdisplay
--- Volume group ---
VG Name storage
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 4
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 1
Max PV 0
Cur PV 2
Act PV 2
VG Size 39.99 GiB
PE Size 4.00 MiB
Total PE 10238
Alloc PE / Size 30 / 120.00 MiB Free PE / Size 10208 / 39.88 GiB
VG UUID CTaHAK-0TQv-Abdb-R83O-RU6V-YYkx-8o2R0e
………………省略部分輸出信息………………

通過卷組的輸出信息可以很清晰的看到卷組中已用120M,空閑資源有39.88G,接下來咱們在邏輯卷設備所掛載的目錄中用重定向寫入一個文件吧:
[root@linuxprobe ~]# echo "Welcome to Linuxprobe.com" > /linuxprobe/readme.txt
[root@linuxprobe ~]# ls /linuxprobe
total 14
drwx------. 2 root root 12288 Feb 1 07:18 lost+found
-rw-r--r--. 1 root root 26 Feb 1 07:38 readme.txt

第1步:使用-s參數來生成一個快照卷,使用-L參數來指定切割的大小,另外要記得在後面寫上這個快照是針對那個邏輯卷做的。
[root@linuxprobe ~]# lvcreate -L 120M -s -n SNAP /dev/storage/vo
Logical volume "SNAP" created
[root@linuxprobe ~]# lvdisplay
--- Logical volume ---
LV Path /dev/storage/SNAP
LV Name SNAP
VG Name storage
LV UUID BC7WKg-fHoK-Pc7J-yhSd-vD7d-lUnl-TihKlt
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2017-02-01 07:42:31 -0500
LV snapshot status active destination for vo
LV Status available
# open 0
LV Size 120.00 MiB
Current LE 30
COW-table size 120.00 MiB
COW-table LE 30
Allocated to snapshot 0.01%
Snapshot chunk size 4.00 KiB
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:3
………………省略部分輸出信息………………

第2步:咱們在LV設備卷所掛載的目錄中創建一個100M的垃圾文件,這樣再來看快照卷的狀態就會發現使用率上升了:
[root@linuxprobe ~]# dd if=/dev/zero of=/linuxprobe/files count=1 bs=100M
1+0 records in
1+0 records out
104857600 bytes (105 MB) copied, 3.35432 s, 31.3 MB/s
[root@linuxprobe ~]# lvdisplay
--- Logical volume ---
LV Path /dev/storage/SNAP
LV Name SNAP
VG Name storage
LV UUID BC7WKg-fHoK-Pc7J-yhSd-vD7d-lUnl-TihKlt
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2017-02-01 07:42:31 -0500
LV snapshot status active destination for vo
LV Status available
# open 0
LV Size 120.00 MiB
Current LE 30
COW-table size 120.00 MiB
COW-table LE 30
Allocated to snapshot 83.71%
Snapshot chunk size 4.00 KiB
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:3

第3步:為了校驗SNAP快照卷的效果,咱們需要對邏輯卷進行快照合並還原操作,在這之前記得先卸載掉邏輯卷設備與目錄的掛載~
[root@linuxprobe ~]# umount /linuxprobe
[root@linuxprobe ~]# lvconvert --merge /dev/storage/SNAP
Merging of volume SNAP started.
vo: Merged: 21.4%
vo: Merged: 100.0%
Merge of snapshot into logical volume vo has finished.
Logical volume "SNAP" successfully removed

第4步:快照卷會被自動刪除掉,並且剛剛在邏輯卷設備被快照後再創建出來的100M垃圾文件也被清除了:
[root@linuxprobe ~]# mount -a
[root@linuxprobe ~]# ls /linuxprobe/
lost+found readme.txt

看下《Linux就該這么學》第7章節吧,第7章 使用RAID與LVM磁碟陣列技術

Ⅲ linux怎麼移除raid

如果是磁碟陣列或用硬體raid卡做的raid,從操作系統層面是無法移除的。
只有進入盤陣的管理界面或raid卡管理界面移除。

如果是用LVM做的raid,則可以通過LVM的命令來管理。
LVM的相關命令:

linux lvm的操作手冊_pvcreate_vgcreate_lvcreate_相關
一、 前言

每個Linux使用者在安裝Linux時都會遇到這樣的困境:在為系統分區時,如何精確評估和分配各個硬碟分區的容量,因為系統管理員不但要考慮到當前某
個分區需要的容量,還要預見該分區以後可能需要的容量的最大值。因為如果估計不準確,當遇到某個分區不夠用時管理員可能甚至要備份整個系統、清除硬碟、重
新對硬碟分區,然後恢復數據到新分區。

雖然現在有很多動態調整磁碟的工具可以使用,例如Partation
Magic等等,但是它並不能完全解決問題,因為某個分區可能會再次被耗盡;另外一個方面這需要重新引導系統才能實現,對於很多關鍵的伺服器,停機是不可
接受的,而且對於添加新硬碟,希望一個能跨越多個硬碟驅動器的文件系統時,分區調整程序就不能解決問題。

因此完美的解決方法應該是在零停機前提下可以自如對文件系統的大小進行調整,可以方便實現文件系統跨越不同磁碟和分區。幸運的是Linux提供的邏輯盤卷 管理(LVM,Logical Volume Manager)機制就是一個完美的解決方案。

<!--[if !vml]--><!--[endif]-->
LVM是邏輯盤卷管理(Logical Volume
Manager)的簡稱,它是Linux環境下對磁碟分區進行管理的一種機制,LVM是建立在硬碟和分區之上的一個邏輯層,來提高磁碟分區管理的靈活性。
通過LVM系統管理員可以輕松管理磁碟分區,如:將若干個磁碟分區連接為一個整塊的卷組(volume
group),形成一個存儲池。管理員可以在卷組上隨意創建邏輯卷組(logical
volumes),並進一步在邏輯卷組上創建文件系統。管理員通過LVM可以方便的調整存儲卷組的大小,並且可以對磁碟存儲按照組的方式進行命名、管理和
分配,例如按照使用用途進行定義:「development」和「sales」,而不是使用物理磁碟名「sda」和「sdb」。而且當系統添加了新的磁
盤,通過LVM管理員就不必將磁碟的文件移動到新的磁碟上以充分利用新的存儲空間,而是直接擴展文件系統跨越磁碟即可。

二、LVM基本術語

前面談到,LVM是在磁碟分區和文件系統之間添加的一個邏輯層,來為文件系統屏蔽下層磁碟分區布局,提供一個抽象的盤卷,在盤卷上建立文件系統。首先我們討論以下幾個LVM術語:

<!--[if !supportLists]-->l <!--[endif]-->物理存儲介質(The physical media)
<!--[if !supportLists]-->l <!--[endif]--> 這里指系統的存儲設備:硬碟,如:/dev/hda1、/dev/sda等等,是存儲系統最低層的存儲單元。
<!--[if !supportLists]-->l <!--[endif]-->物理卷(physical volume)
<!--[if !supportLists]-->l <!--[endif]--> 物理卷就是指硬碟分區或從邏輯上與磁碟分區具有同樣功能的設備(如RAID),是LVM的基本存儲邏輯塊,但和基本的物理存儲介質(如分區、磁碟等)比較,卻包含有與LVM相關的管理參數。
<!--[if !supportLists]-->l <!--[endif]-->卷組(Volume Group)
<!--[if !supportLists]-->l <!--[endif]--> LVM卷組類似於非LVM系統中的物理硬碟,其由物理卷組成。可以在卷組上創建一個或多個「LVM分區」(邏輯卷),LVM卷組由一個或多個物理卷組成。
<!--[if !supportLists]-->l <!--[endif]-->邏輯卷(logical volume)
<!--[if !supportLists]-->l <!--[endif]--> LVM的邏輯卷類似於非LVM系統中的硬碟分區,在邏輯卷之上可以建立文件系統(比如/home或者/usr等)。
<!--[if !supportLists]-->l <!--[endif]-->PE(physical extent)
<!--[if !supportLists]-->l <!--[endif]--> 每一個物理卷被劃分為稱為PE(Physical Extents)的基本單元,具有唯一編號的PE是可以被LVM定址的最小單元。PE的大小是可配置的,默認為4MB。
<!--[if !supportLists]-->l <!--[endif]-->LE(logical extent)
<!--[if !supportLists]-->l <!--[endif]--> 邏輯卷也被劃分為被稱為LE(Logical Extents)的可被定址的基本單位。在同一個卷組中,LE的大小和PE是相同的,並且一一對應。

<!--[if !vml]--><!--[endif]-->

首先可以看到,物理卷(PV)被由大小等同的基本單元PE組成。

<!--[if !vml]--><!--[endif]-->

一個卷組由一個或多個物理卷組成,

<!--[if !vml]--><!--[endif]-->

從上圖可以看到,PE和LE有著一一對應的關系。邏輯卷建立在卷組上。邏輯卷就相當於非LVM系統的磁碟分區,可以在其上創建文件系統。

下圖是磁碟分區、卷組、邏輯卷和文件系統之間的邏輯關系的示意圖:

<!--[if !vml]--><!--[endif]-->

和非LVM系統將包含分區信息的元數據保存在位於分區的起始位置的分區表中一樣,邏輯卷以及卷組相關的元數據也是保存在位於物理捲起始處的VGDA(卷組 描述符區域)中。VGDA包括以下內容:PV描述符、VG描述符、LV描述符、和一些PE描述符 。

系統啟動LVM時激活VG,並將VGDA載入至內存,來識別LV的實際物理存儲位置。當系統進行I/O操作時,就會根據VGDA建立的映射機制來訪問實際的物理位置。

三、 安裝LVM
首先確定系統中是否安裝了lvm工具:

[root@www root]# rpm –qa|grep lvm
lvm-1.0.3-4

如果命令結果輸入類似於上例,那麼說明系統已經安裝了LVM管理工具;如果命令沒有輸出則說明沒有安裝LVM管理工具,則需要從網路下載或者從光碟裝LVM rpm工具包。

四、 創建和管理LVM

要創建一個LVM系統,一般需要經過以下步驟:

1、 創建分區

使用分區工具(如:fdisk等)創建LVM分區,方法和創建其他一般分區的方式是一樣的,區別僅僅是LVM的分區類型為8e。

2、 創建物理卷

創建物理卷的命令為pvcreate,利用該命令將希望添加到卷組的所有分區或者磁碟創建為物理卷。將整個磁碟創建為物理卷的命令為:
# pvcreate /dev/hdb

將單個分區創建為物理卷的命令為:
# pvcreate /dev/hda5

3、 創建卷組

創建卷組的命令為vgcreate,將使用pvcreate建立的物理卷創建為一個完整的卷組:

# vgcreate web_document /dev/hda5 /dev/hdb

vgcreate命令第一個參數是指定該卷組的邏輯名:web_document。後面參數是指定希望添加到該卷組的所有分區和磁碟。vgcreate在
創建卷組web_document以外,還設置使用大小為4 MB的PE(默認為4MB),這表示卷組上創建的所有邏輯卷都以4 MB
為增量單位來進行擴充或縮減。由於內核原因,PE大小決定了邏輯卷的最大大小,4 MB的PE決定了單個邏輯卷最大容量為256
GB,若希望使用大於256G的邏輯卷則創建卷組時指定更大的PE。PE大小范圍為8 KB到512 MB,並且必須總是2
的倍數(使用-s指定,具體請參考man vgcreate)。

4、 激活卷組

為了立即使用卷組而不是重新啟動系統,可以使用vgchange來激活卷組:

# vgchange -a y web_document

5、 添加新的物理卷到卷組中

當系統安裝了新的磁碟並創建了新的物理卷,而要將其添加到已有卷組時,就需要使用vgextend命令:

# vgextend web_document /dev/hdc1

這里/dev/hdc1是新的物理卷。

6、 從卷組中刪除一個物理卷

要從一個卷組中刪除一個物理卷,首先要確認要刪除的物理卷沒有被任何邏輯卷正在使用,就要使用pvdisplay命令察看一個該物理卷信息:

如果某個物理卷正在被邏輯卷所使用,就需要將該物理卷的數據備份到其他地方,然後再刪除。刪除物理卷的命令為vgrece:

# vgrece web_document /dev/hda1

7、 創建邏輯卷

創建邏輯卷的命令為lvcreate:

# lvcreate -L1500 –nwww1 web_document

該命令就在卷組web_document上創建名字為www1,大小為1500M的邏輯卷,並且設備入口為/dev/web_document
/www1(web_document為卷組名,www1為邏輯卷名)。如果希望創建一個使用全部卷組的邏輯卷,則需要首先察看該卷組的PE數,然後在創
建邏輯卷時指定:

# vgdisplay web_document| grep 「Total PE」
Total PE 45230
# lvcreate -l 45230 web_document -n www1

8、 創建文件系統

推薦使用reiserfs文件系統,來替代ext2和ext3:
<!--[if !vml]--><!--[endif]-->

創建了文件系統以後,就可以載入並使用它:

# mkdir /data/wwwroot
# mount /dev/web_document/www1 /data/wwwroot

如果希望系統啟動時自動載入文件系統,則還需要在/etc/fstab中添加內容:

/dev/web_document/www1 /data/wwwroot reiserfs defaults 1 2

9、 刪除一個邏輯卷

刪除邏輯卷以前首先需要將其卸載,然後刪除:

# umount /dev/web_document/www1
# lvremove /dev/web_document/www1
lvremove—do you really want to remove 「/dev/web_document/www1」? [y/n]: y
lvremove—doing automatic backup of volume group 「web_document」
lvremove—logical volume 「/dev/web_document/www1」successfully removed

10、 擴展邏輯卷大小

LVM提供了方便調整邏輯卷大小的能力,擴展邏輯卷大小的命令是lvcreate:

# lvextend -L12G/dev/web_document/www1
lvextend—extending logical volume 「/dev/web_document/www1」to 12 GB
lvextend—doing automatic backup of volume group 「web_document 「
lvextend—logical volume 「/dev/web_document/www1」successfully extended

上面的命令就實現將邏輯卷www1的大小擴招為12G。

# lvextend -L+1G/dev/web_document/www1
lvextend—extending logical volume 「/dev/web_document/www1」to 13 GB
lvextend—doing automatic backup of volume group 「web_document 「
lvextend—logical volume 「/dev/web_document/www1」successfully extended

上面的命令就實現將邏輯卷www1的大小增加1G。

增加了邏輯卷的容量以後,就需要修改文件系統大小以實現利用擴充的空間。筆者推薦使用reiserfs文件系統來替代ext2或者ext3。因此這里僅僅
討論reiserfs的情況。Reiserfs文件工具提供了文件系統大小調整工具:resize_reiserfs。對於希望調整被載入的文件系統大
小:

# resize_reiserfs -f /dev/web_document/www1

一般建議最好將文件系統卸載,調整大小,然後再載入:

# umount /dev/web_document/www1
# resize_reiserfs /dev/web_document/www1
# mount -treiserfs /dev/web_document/www1 /data/wwwroot

對於使用ext2或ext3文件系統的用戶可以考慮使用工具

ext2resize。
http://sourceforge.net/projects/ext2resize

11、 減少邏輯卷大小

使用lvrece即可實現對邏輯卷的容量,同樣需要首先將文件系統卸載:

# umount /data/wwwroot
# resize_reiserfs -s-2G/dev/web_document/www1
# lvrece -L-2G/dev/web_document/www1
# mount -treiserfs /dev/web_document/www1 /data/wwwroot

Ⅳ Linux裡面raid和lvm區別是什麼

LVM:主要側重動態磁碟擴容

全稱邏輯卷管理,是一個動態擴展磁碟分區容量的功能性工具,對於測試環境,可以用來管理磁分區滿了,擴容,但是在大規模環境性能低下,盡量不要使用它。

RAID:主要側重磁碟性能和數據安全

磁碟陣列可以把多個磁碟驅動器通過不同的連接方式連接在一起協同工作,大大提高了讀取速度,同時把磁碟系統的可靠性提高到接近無錯的境界,使其可靠性極高。

用RAID最直接的好處是:

1)提升數據安全性。2)提升數據讀寫性能。3)提供更大的單一邏輯磁碟數據容量存儲。

Ⅳ linux怎麼將新增磁碟作為lvm

linux磁碟配額,RAID,LVM磁碟配額,就是妥善的分配系統資源quota比較常用的情況針對 www server 例如:每個人的網頁空間的容量限制針對 mail server 例如:每個人的郵件空間限制針對 file server 例如:每個人最大的可用網路磁碟空間quota的使用限制僅針對整個文件系統:如果你的/dev/sda5是掛載在/home底下,那麼在/home底下的所在目錄都會受到限制核心必須支持quota : 也就是說linux核心必須支持quota這個功能才行,而由舊版本的quota可以籍由convertquota這個程序來轉換成新幫本的aquota的只針對一般身份使用者有效:例如root就不能設定quota,因為整個系統的數據幾乎都是他的所以不能針對【某個目錄】來進行quota的設計,但可以針對【某個文件系統】來設定,quota的規范設定項目:quota針對整個文件系統的限制項目主要分為底下幾個部分‘1可以管理inode(檔案數量)和block的數量(管理用戶磁碟容量的限制)2柔性勸導與硬性規定(soft/hard) ,通常hard限制要比soft高,若限制項目為block,可以限制hard為500MBytes而soft為400MBytehard代表硬性規定,絕對不允許超個的限制值,如若超過則系統會鎖住該用戶的磁碟使用權soft 代表軟性規定,如果超過了軟性的限制,但是低於硬性的限制,每次用戶登錄系統時,系統會主動發出磁碟即將爆滿的警告信息,且會給予一個寬限時間,不過,若使用者在寬限時間倒數期間將容量再次降低與soft限制之下,則寬限時間會停止3會倒數計時的寬限時間 這個寬限時間用於磁碟用量在soft到hard之間時,才會出現,soft就是為了提醒用戶注意這個磁碟配額的問題一般寬限時間為7天,如果7天內你都不進行任何磁碟管理,那麼soft限制值會即可取代hard限制來作為quota的限制,此時你的磁碟使用權就會被封鎖住而無法新增檔案了一個quota實例有五個賬戶,且每個用戶的初始群組都是myquotagrp,其他的帳號屬性則使用默認值,每個用戶能夠使用300MBytes的磁碟使用量(hard)250MBytes的磁碟使用量(soft),群組限制,針對myquotagrp這個群組最多僅能使用1GByte的容量,這個時候就會使群組的設定和用戶的設定產生一定的問題,最後那個寬限時間為14天在操作之前,先得查看一下,/home是否是一個獨立的filesystemdf -h /home,接著查看文件系統的類型,由於VFAT文件系統並不支持linux Quota的功能,使用mount grep home來查看/home的文件系統類型接下來可以使用如下的方法加入quota的支持mount -o remount,usrquota,grpquota /home,接著再執行mount grep home就可以看到這個文件系統上已經加入usrquota,grpquota的支持到你所想要設定的系統中了,另外使用者與群組的quota文件系統支持的參數為: usrquota grpquota若希望下次開機的時候自動的掛載該文件系統,可以直接修改/etc/fstab LABEL=/home /home ext3 defaults,usrquota,grpquota 1 2mount -a 的意思是將fstab中的文件系統重新的掛載接著建立quota記錄文件使用quotacheck:掃描文件系統並建立Quota的記錄文件quotacheck [-avugfM] [/mount_point]選項和參數-a :掃瞄所有在 /etc/mtab 內,含有 quota 支持的 filesystem,加上此參數後,-u : 針對用戶掃描檔案與目錄的使用情況,會建立aquota.user-g :針對群組掃描檔案與目錄的使用情況,會建立 aquota.group-v :顯示掃瞄過程的信息;-f :強制掃瞄文件系統,寫入新的 quota 配置文件 (危險)-M :強制以讀寫的方式掃瞄文件系統,只有在特殊情況下才會使用。quotacheck -avug僅針對整個系統含有usrquota, grpquota參數的文件系統進行quotacheck掃描由於/home目錄支持usrquota和grpquota,所以搜索結果會將兩個記錄文件放在/home底下,這兩個檔案就是quota最重要的信息因為特殊需求需要強制掃瞄已掛載的文件系統時,使用quotacheck -avug -mf這兩個文件不是純文本,是quota自己的數據文件,且該檔案會一直變動,這個因為當你對/home這個文件系統進行操作時你操作的結果會影響磁碟,所以當然會記載到這兩個檔案中的,所以要建立aquota.user 和 aquota.group 記得使用quotacheck指令不要手動編輯製作好quota配置文件,接著要啟動quota了,使用quotaon和quotaoff進行開啟和關閉啟動quota的服務-u :針對使用者啟動 quota (aquota.user)-g :針對群組啟動 quota (aquota.group)-v :顯示啟動過程的相關訊息;-a :根據 /etc/mtab 內的 filesystem 設定啟動有關的 quota ,若不加 -a 的話, 則後面就需要加上特定的那個 filesystem 喔!由於我們要啟動usr/group的quota,所以執行quotaon -avug ,由於只有在第一次啟動quota時才需要進行這個命令,因此等到下次重啟系統時系統的/etc/rc.d/rc.sysinit這個初始化腳本就會自動的下達這個命令了,因此你只要在這次實例中進行一次即可,未來不需要自行啟動quota的quotaoff :關閉 quota 的朋務-a :全部的 filesystem 的 quota 都關閉 (根據 /etc/mtab)-u :僅針對後面接的那個 /mount_point 關閉 user quota-g :僅針對後面接的那個 /mount_point 關閉 group quotaedquota :編輯賬號/群組的限值與寬限時間edquota [-u username] [-g groupname] -u進入quota的編輯頁面去設定username的限制值edquota -t <==修改寬限時間 -g 可以進入quota的編輯頁面去設定groupname的限制值edquota -p 範本賬號 -u 新賬號 將範本賬號這個人的quota限制值復制給新帳號,進入quota的編輯頁面去設定username的限制值例如設定myquota1這個用戶的限額設定 執行命令edquota -u myquota1畫面中的第一行為說明針對哪個帳號進行quota的限制設定,第二行則是標頭行,共分七個欄位 1,文件系統或分區2 磁碟容量(blocks) 3soft 磁碟容量(blocks) 4 hard block的hard限制值 5檔案數量 6 inode的soft限制值 7 inode的hard限制值當 soft/hard 為 0 時,表示沒有限制的意思,目前先設定號myquota1,接著執行 edquota -p myquota1 -u myquota2 賦給myquota2 一直到myquota5就行了接著再設定去組 edquota -g myquotagrp ,最後edquota -t 來將寬限時間改為14天查看限制值的報表 quota的報表主要有兩種模式,一種是針對每個個人或群組quota指令,一個是針對整個文件系統的repquota指令,先看quota : 單一用戶的quota報表quota [-gvs] [groupname]選項和參數:-u : 後面可以接username,表示顯示該用戶的quota限制值,若不接username表示顯示出執行者的quota的限制值-g : 後面可接 groupname ,表示顯示出該群組的 quota 限制值。-v :顯示每個用戶在 filesystem 的 quota 值;-s :使用 1024 為倍數來指定單位,會顯示如 M 之類的單位!quota -uvs myquota1 myquota2的含義是顯示這兩個用戶在所以文件系統中的quota值,大小以M為單位顯示顯示出 myquotagrp 的群組限額quota -gvs myquotagrp 顯示這個群組在所有文件系統中的quota值,大小以M為單位顯示如果要針對整個 filesystem 列出報表時, 那個可愛的 repquota 就派上用場啦!repquota :針對文件系統的限額做報表repquota -a [-vugs]-a :直接到 /etc/mtab 搜尋具有 quota 標志的 filesystem ,並報告 quota 的結果;-v :輸出的數據將含有 filesystem 相關的細部信息;-u :顯示出用戶的 quota 限值 (這是默認值);-g :顯示出個別群組的 quota 限值。-s :使用 M, G 為單位顯示結果查詢本案例中所有使用者的 quota 限制情況:執行repquota -auvs,查詢出mtab中含有quota的文件系統的所有用戶的限定值,輸出的結果含有firstsystem相關的細部信息並且以M,G為單位顯示結果quota的測試與管理首先建置一個270MB的大檔案,觀察結果dd if=/dev/zero of=bigfile bs=1M count=250 接著會看到警告warning的訊息repquota -auv 查看所有/etc/mtab文件系統中,用戶的磁碟配額的使用情況,並且將文件系統的相關細部信息一並輸出此時看到grace出現,並且開始倒數了此時再建立一個大檔案,讓總容量超過300M,接著看到的訊息不一樣了,提示沒有辦法寫入了, -sk 查看果然到了極限了如果在寬限時間歸零之前不做任何處理,那麼到歸零之後通過repquota -au進行查看時,就會發現grace的部分變成none啦,不繼續倒數了有時候使用者不知道系統出了什麼問題,最好寄一些警告信(email)給用戶比較妥當,透過warnquota來處理即可warnquota :對超過限額者發出警告信這是根據/etc/warnquota.conf的設定,然後找出系統上面quota用量超過soft的賬號,透過email的功能將警告信發送到用戶的電子郵件信箱warnquota不會自動執行,我們需要手動執行,單純執行warnquota之後,他會發送兩封信出去,一封給root一封給這個使用者執行warnquota可能不會產生任何訊息以及信件,因為只有當使用者quota有超過soft,warnquota才會發送警告信信件內容中,包括標題、信息內容說明、簽名文件等數據放在/etc/warnquota中,你也可以更改其中的內容不過這個發送信件的方式並不適用在/var/spool/mail也爆掉的quota控管中,因為這個系統的容量已經爆掉了,那麼新的信件當然就收不下來的,我們需要讓系統自動的執行warnquotavi /etc/cron.daily/warnquota 編輯每天的執行任務,讓固定的時間去執行/usr/sbin/warnquota指令chmod 755 /etc/cron.daily/warnquotasetquota :直接於指令中設定 quota 限額如果你想要使用 script 的方法來建立大量的賬號,並且所有的賬號都在建立時就給予 quota可以有兩個方法1 先建立一個原始quota 使用 edquota -p quota賬號 -u new賬號, 寫入腳本中2 直接以 setquota 建立用戶的 quota 設定值不同於edquota是呼叫vi來進行設定,setquota直接由指令輸入所必須要的各項限制值命令結構:setquota [-u-g] 名稱 block(soft) block(hard) inode(soft) inode(hard)quota -uv myquota5setquota -u myquota5 100000 200000 0 0 /homequota -uv myquota5這樣可以看到結果的改變不更改既有系統的 quota 實例例如設定郵件主機,原先沒有規劃將信箱所在的/var/spool/mail 目錄獨立成一個parition,那麼可以通過讓使用者的郵件信箱與家目錄的總體磁碟使用量為固定,由於/home以及/var/spool/mail根本不在一個文件系統中1. 將 /var/spool/mail 這個目錄完整的移懂到 /home 底下;2. 利用 ln -s /home/mail /var/spool/mail 來建立鏈接數據;3. 將 /home 進行 quota 限額設定

閱讀全文

與linuxraidlvm相關的資料

熱點內容
編程貓怎麼讓角色點擊子彈 瀏覽:894
火狐載入不了javascript 瀏覽:867
mathtype69安裝教程 瀏覽:964
企石文件櫃多少錢 瀏覽:444
關於超狗的電影 瀏覽:603
哪裡可以看被封的40部網路小說 瀏覽:960
韓國電影和別人老婆偷情 瀏覽:133
keil怎麼下載程序 瀏覽:872
神馬電影九 瀏覽:200
推廣app如何裂變 瀏覽:800
法國啄木鳥警察系列 瀏覽:961
一人之下小說txt全集 瀏覽:842
定電影的app 瀏覽:753
ie8模擬工具 瀏覽:403
全國大數據試驗區 瀏覽:992
php自動上傳文件 瀏覽:311
男主是在夜場上班的小說 瀏覽:663
樹莓派怎麼使用python學習編程 瀏覽:543
68天電影下載 瀏覽:343
僵屍電影全部 瀏覽:791

友情鏈接