导航:首页 > 编程系统 > linuxraidlvm

linuxraidlvm

发布时间:2023-04-01 23:09:51

linux 加载raid卡之后识别到硬盘了,系统能安装上去,启动时候起不起来,报如下错误:

不能将/boot安装到LVM上。
直接安装到raid的lvm卷上的结果,就是认不出系统,不能启动。
你要有一个普通的ide/sata硬盘,将/boot分区安装到上面,其他的可以放在raid盘上。

Ⅱ 如何使用LVM卷管理Linux系统中的磁盘

LVM逻辑卷管理器是对Linux系统中对存储资源进行管理的一种机制,部署LVM逻辑卷管理器需要依次对对物理卷、卷组和逻辑卷的逐个配置,常见的命令分别包括有:
功能/命令 物理卷管理 卷组管理 逻辑卷管理
扫描 pvscan vgscan lvscan
建立 pvcreate vgcreate lvcreate
显示 pvdisplay vgdisplay lvdisplay
删除 pvremove vgremove lvremove
扩展 vgextend lvextend

为避免实验之间互相冲突,请您自行还原虚拟机到最初始状态,并在虚拟机中添加两块新硬盘设备后开机,如图7-7所示:

图7-7 在虚拟机中添加一块新的硬盘设备
在虚拟机中添加两块新硬盘设备的目的是为了更好的向同学们演示LVM逻辑卷管理器对于让用户无需关心底层物理硬盘设备的特性,咱们将会对这两块新的硬盘先进行创建物理卷操作,可以简单理解成让硬盘设备支持了LVM技术,然后将两块硬盘进行卷组合并,卷组的名称可以由您来自定义,接下来是将合并后的卷组根据需求再切割出一个约为150M的逻辑卷设备,最后将这个逻辑卷设备格式化成XFS文件系统后挂载使用。现在知道大致的流程后就可以,刘遄老师还会对下面每一个步骤再做一些简单的描述。
第1步:让新添加的两块硬盘设备支持LVM逻辑卷管理器技术:
[root@linuxprobe ~]# pvcreate /dev/sdb /dev/sdc
Physical volume "/dev/sdb" successfully created
Physical volume "/dev/sdc" successfully created

第2步:将两块硬盘设备都加入到storage卷组中,然后查看下卷组的状态:
[root@linuxprobe ~]# vgcreate storage /dev/sdb /dev/sdc
Volume group "storage" successfully created
[root@linuxprobe ~]# vgdisplay
--- Volume group ---
VG Name storage
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 2
Act PV 2
VG Size 39.99 GiB
PE Size 4.00 MiB
Total PE 10238
Alloc PE / Size 0 / 0 Free PE / Size 10238 / 39.99 GiB
VG UUID KUeAMF-qMLh-XjQy-ArUo-LCQI-YF0o-pScxm1
………………省略部分输出信息………………

第3步:切割出一个约为150M的逻辑卷设备:
同学们需要注意下切割单位的问题,在LVM逻辑卷管理器对LV逻辑卷的切割上面有两种计量单位,第一种是常见以-L参数来以容量单位为对象,例如使用-L 150M来生成一个大小为150M的逻辑卷,还可以使用-l参数来指定要使用PE基本单元的个数,默认每个PE的大小为4M,因此允许使用-l 37来生成一个大小为37*4M=148M的逻辑卷:
[root@linuxprobe ~]# lvcreate -n vo -l 37 storage
Logical volume "vo" created
[root@linuxprobe ~]# lvdisplay
--- Logical volume ---
LV Path /dev/storage/vo
LV Name vo
VG Name storage
LV UUID D09HYI-BHBl-iXGr-X2n4-HEzo-FAQH-HRcM2I
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2017-02-01 01:22:54 -0500
LV Status available
# open 0
LV Size 148.00 MiB
Current LE 37
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:2
………………省略部分输出信息………………

第4步:将生成好的逻辑卷格式化后挂载使用:
Linux系统会把LVM逻辑卷管理器中的逻辑卷设备存放在/dev设备目录中(实际上是做了一个符号链接,但读者们无需关心),同时会以卷组的名称来建立一个目录,其中保存有逻辑卷的设备映射文件。
[root@linuxprobe ~]# mkfs.ext4 /dev/storage/vo
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=1024 (log=0)
Fragment size=1024 (log=0)
Stride=0 blocks, Stripe width=0 blocks
38000 inodes, 151552 blocks
7577 blocks (5.00%) reserved for the super user
First data block=1
Maximum filesystem blocks=33816576
19 block groups
8192 blocks per group, 8192 fragments per group
2000 inodes per group
Superblock backups stored on blocks:
8193, 24577, 40961, 57345, 73729
Allocating group tables: done
Writing inode tables: done
Creating journal (4096 blocks): done
Writing superblocks and filesystem accounting information: done
[root@linuxprobe ~]# mkdir /linuxprobe
[root@linuxprobe ~]# mount /dev/storage/vo /linuxprobe

第5步:查看挂载状态,并写入到配置文件永久生效:
[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 905M 0 905M 0% /dev
tmpfs 914M 140K 914M 1% /dev/shm
tmpfs 914M 8.8M 905M 1% /run
tmpfs 914M 0 914M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/mapper/storage-vo 145M 7.6M 138M 6% /linuxprobe
[root@linuxprobe ~]# echo "/dev/storage/vo /linuxprobe ext4 defaults 0 0" >> /etc/fstab

7.2.2 扩容逻辑卷
虽然咱们的卷组是由两块硬盘设备共同组成的,但用户使用存储资源时感知不到底层硬盘的结构,也不用关心底层是由多少块硬盘组成的,只要卷组中的资源足够就可以一直为逻辑卷扩容,扩展前请一定要记得卸载设备和挂载点的关联。
[root@linuxprobe ~]# umount /linuxprobe

第1步:将上个实验中的逻辑卷vo扩展至290M:
[root@linuxprobe ~]# lvextend -L 290M /dev/storage/vo
Rounding size to boundary between physical extents: 292.00 MiB
Extending logical volume vo to 292.00 MiB
Logical volume vo successfully resized

第2步:检查磁盘完整性,重置硬盘容量:
[root@linuxprobe ~]# e2fsck -f /dev/storage/vo
e2fsck 1.42.9 (28-Dec-2013)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
/dev/storage/vo: 11/38000 files (0.0% non-contiguous), 10453/151552 blocks
[root@linuxprobe ~]# resize2fs /dev/storage/vo
resize2fs 1.42.9 (28-Dec-2013)
Resizing the filesystem on /dev/storage/vo to 299008 (1k) blocks.
The filesystem on /dev/storage/vo is now 299008 blocks long.

第3步:重新挂载硬盘设备并查看挂载状态:
[root@linuxprobe ~]# mount -a
[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 985M 0 985M 0% /dev
tmpfs 994M 80K 994M 1% /dev/shm
tmpfs 994M 8.8M 986M 1% /run
tmpfs 994M 0 994M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/mapper/storage-vo 279M 2.1M 259M 1% /linuxprobe

7.2.3 缩小逻辑卷
相比于扩容逻辑卷来讲,对逻辑卷的缩小操作存在着更高丢失数据的风险,所以在生产环境中同学们一定要留心记得提前备份好数据,另外Linux系统规定对LVM逻辑卷的缩小操作需要先检查文件系统的完整性,当然这也是在保证咱们的数据安全,操作前记得先把文件系统卸载掉:
[root@linuxprobe ~]# umount /linuxprobe

第1步:检查文件系统的完整性:
[root@linuxprobe ~]# e2fsck -f /dev/storage/vo
e2fsck 1.42.9 (28-Dec-2013)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
/dev/storage/vo: 11/74000 files (0.0% non-contiguous), 15507/299008 blocks

第2步:将LV逻辑卷的容量减小到120M:
[root@linuxprobe ~]# resize2fs /dev/storage/vo 120M
resize2fs 1.42.9 (28-Dec-2013)
Resizing the filesystem on /dev/storage/vo to 122880 (1k) blocks.
The filesystem on /dev/storage/vo is now 122880 blocks long.
[root@linuxprobe ~]# lvrece -L 120M /dev/storage/vo
WARNING: Recing active logical volume to 120.00 MiB
THIS MAY DESTROY YOUR DATA (filesystem etc.)
Do you really want to rece vo? [y/n]: y
Recing logical volume vo to 120.00 MiB
Logical volume vo successfully resized

第3步:将文件系统重新挂载并查看系统状态:
[root@linuxprobe ~]# mount -a
[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 985M 0 985M 0% /dev
tmpfs 994M 80K 994M 1% /dev/shm
tmpfs 994M 8.8M 986M 1% /run
tmpfs 994M 0 994M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/mapper/storage-vo 113M 1.6M 103M 2% /linuxprobe

7.2.4 逻辑卷快照
除此之外LVM逻辑卷管理器还具备有“快照卷”的功能,这项功能很类似于我们其他软件的还原时间点功能。例如我们可以对某一个LV逻辑卷设备做一次快照,如果今后发现数据被改错了,咱们可以将之前做好的快照卷进行覆盖还原,LVM逻辑卷管理器的快照功能有两项特点,第一是快照卷的大小应该尽量等同于LV逻辑卷的容量,第二是快照功能仅一次有效,一旦被还原后则会被自动立即删除。我们首先应当查看下卷组的信息:
[root@linuxprobe ~]# vgdisplay
--- Volume group ---
VG Name storage
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 4
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 1
Max PV 0
Cur PV 2
Act PV 2
VG Size 39.99 GiB
PE Size 4.00 MiB
Total PE 10238
Alloc PE / Size 30 / 120.00 MiB Free PE / Size 10208 / 39.88 GiB
VG UUID CTaHAK-0TQv-Abdb-R83O-RU6V-YYkx-8o2R0e
………………省略部分输出信息………………

通过卷组的输出信息可以很清晰的看到卷组中已用120M,空闲资源有39.88G,接下来咱们在逻辑卷设备所挂载的目录中用重定向写入一个文件吧:
[root@linuxprobe ~]# echo "Welcome to Linuxprobe.com" > /linuxprobe/readme.txt
[root@linuxprobe ~]# ls /linuxprobe
total 14
drwx------. 2 root root 12288 Feb 1 07:18 lost+found
-rw-r--r--. 1 root root 26 Feb 1 07:38 readme.txt

第1步:使用-s参数来生成一个快照卷,使用-L参数来指定切割的大小,另外要记得在后面写上这个快照是针对那个逻辑卷做的。
[root@linuxprobe ~]# lvcreate -L 120M -s -n SNAP /dev/storage/vo
Logical volume "SNAP" created
[root@linuxprobe ~]# lvdisplay
--- Logical volume ---
LV Path /dev/storage/SNAP
LV Name SNAP
VG Name storage
LV UUID BC7WKg-fHoK-Pc7J-yhSd-vD7d-lUnl-TihKlt
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2017-02-01 07:42:31 -0500
LV snapshot status active destination for vo
LV Status available
# open 0
LV Size 120.00 MiB
Current LE 30
COW-table size 120.00 MiB
COW-table LE 30
Allocated to snapshot 0.01%
Snapshot chunk size 4.00 KiB
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:3
………………省略部分输出信息………………

第2步:咱们在LV设备卷所挂载的目录中创建一个100M的垃圾文件,这样再来看快照卷的状态就会发现使用率上升了:
[root@linuxprobe ~]# dd if=/dev/zero of=/linuxprobe/files count=1 bs=100M
1+0 records in
1+0 records out
104857600 bytes (105 MB) copied, 3.35432 s, 31.3 MB/s
[root@linuxprobe ~]# lvdisplay
--- Logical volume ---
LV Path /dev/storage/SNAP
LV Name SNAP
VG Name storage
LV UUID BC7WKg-fHoK-Pc7J-yhSd-vD7d-lUnl-TihKlt
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2017-02-01 07:42:31 -0500
LV snapshot status active destination for vo
LV Status available
# open 0
LV Size 120.00 MiB
Current LE 30
COW-table size 120.00 MiB
COW-table LE 30
Allocated to snapshot 83.71%
Snapshot chunk size 4.00 KiB
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:3

第3步:为了校验SNAP快照卷的效果,咱们需要对逻辑卷进行快照合并还原操作,在这之前记得先卸载掉逻辑卷设备与目录的挂载~
[root@linuxprobe ~]# umount /linuxprobe
[root@linuxprobe ~]# lvconvert --merge /dev/storage/SNAP
Merging of volume SNAP started.
vo: Merged: 21.4%
vo: Merged: 100.0%
Merge of snapshot into logical volume vo has finished.
Logical volume "SNAP" successfully removed

第4步:快照卷会被自动删除掉,并且刚刚在逻辑卷设备被快照后再创建出来的100M垃圾文件也被清除了:
[root@linuxprobe ~]# mount -a
[root@linuxprobe ~]# ls /linuxprobe/
lost+found readme.txt

看下《Linux就该这么学》第7章节吧,第7章 使用RAID与LVM磁盘阵列技术

Ⅲ linux怎么移除raid

如果是磁盘阵列或用硬件raid卡做的raid,从操作系统层面是无法移除的。
只有进入盘阵的管理界面或raid卡管理界面移除。

如果是用LVM做的raid,则可以通过LVM的命令来管理。
LVM的相关命令:

linux lvm的操作手册_pvcreate_vgcreate_lvcreate_相关
一、 前言

每个Linux使用者在安装Linux时都会遇到这样的困境:在为系统分区时,如何精确评估和分配各个硬盘分区的容量,因为系统管理员不但要考虑到当前某
个分区需要的容量,还要预见该分区以后可能需要的容量的最大值。因为如果估计不准确,当遇到某个分区不够用时管理员可能甚至要备份整个系统、清除硬盘、重
新对硬盘分区,然后恢复数据到新分区。

虽然现在有很多动态调整磁盘的工具可以使用,例如Partation
Magic等等,但是它并不能完全解决问题,因为某个分区可能会再次被耗尽;另外一个方面这需要重新引导系统才能实现,对于很多关键的服务器,停机是不可
接受的,而且对于添加新硬盘,希望一个能跨越多个硬盘驱动器的文件系统时,分区调整程序就不能解决问题。

因此完美的解决方法应该是在零停机前提下可以自如对文件系统的大小进行调整,可以方便实现文件系统跨越不同磁盘和分区。幸运的是Linux提供的逻辑盘卷 管理(LVM,Logical Volume Manager)机制就是一个完美的解决方案。

<!--[if !vml]--><!--[endif]-->
LVM是逻辑盘卷管理(Logical Volume
Manager)的简称,它是Linux环境下对磁盘分区进行管理的一种机制,LVM是建立在硬盘和分区之上的一个逻辑层,来提高磁盘分区管理的灵活性。
通过LVM系统管理员可以轻松管理磁盘分区,如:将若干个磁盘分区连接为一个整块的卷组(volume
group),形成一个存储池。管理员可以在卷组上随意创建逻辑卷组(logical
volumes),并进一步在逻辑卷组上创建文件系统。管理员通过LVM可以方便的调整存储卷组的大小,并且可以对磁盘存储按照组的方式进行命名、管理和
分配,例如按照使用用途进行定义:“development”和“sales”,而不是使用物理磁盘名“sda”和“sdb”。而且当系统添加了新的磁
盘,通过LVM管理员就不必将磁盘的文件移动到新的磁盘上以充分利用新的存储空间,而是直接扩展文件系统跨越磁盘即可。

二、LVM基本术语

前面谈到,LVM是在磁盘分区和文件系统之间添加的一个逻辑层,来为文件系统屏蔽下层磁盘分区布局,提供一个抽象的盘卷,在盘卷上建立文件系统。首先我们讨论以下几个LVM术语:

<!--[if !supportLists]-->l <!--[endif]-->物理存储介质(The physical media)
<!--[if !supportLists]-->l <!--[endif]--> 这里指系统的存储设备:硬盘,如:/dev/hda1、/dev/sda等等,是存储系统最低层的存储单元。
<!--[if !supportLists]-->l <!--[endif]-->物理卷(physical volume)
<!--[if !supportLists]-->l <!--[endif]--> 物理卷就是指硬盘分区或从逻辑上与磁盘分区具有同样功能的设备(如RAID),是LVM的基本存储逻辑块,但和基本的物理存储介质(如分区、磁盘等)比较,却包含有与LVM相关的管理参数。
<!--[if !supportLists]-->l <!--[endif]-->卷组(Volume Group)
<!--[if !supportLists]-->l <!--[endif]--> LVM卷组类似于非LVM系统中的物理硬盘,其由物理卷组成。可以在卷组上创建一个或多个“LVM分区”(逻辑卷),LVM卷组由一个或多个物理卷组成。
<!--[if !supportLists]-->l <!--[endif]-->逻辑卷(logical volume)
<!--[if !supportLists]-->l <!--[endif]--> LVM的逻辑卷类似于非LVM系统中的硬盘分区,在逻辑卷之上可以建立文件系统(比如/home或者/usr等)。
<!--[if !supportLists]-->l <!--[endif]-->PE(physical extent)
<!--[if !supportLists]-->l <!--[endif]--> 每一个物理卷被划分为称为PE(Physical Extents)的基本单元,具有唯一编号的PE是可以被LVM寻址的最小单元。PE的大小是可配置的,默认为4MB。
<!--[if !supportLists]-->l <!--[endif]-->LE(logical extent)
<!--[if !supportLists]-->l <!--[endif]--> 逻辑卷也被划分为被称为LE(Logical Extents)的可被寻址的基本单位。在同一个卷组中,LE的大小和PE是相同的,并且一一对应。

<!--[if !vml]--><!--[endif]-->

首先可以看到,物理卷(PV)被由大小等同的基本单元PE组成。

<!--[if !vml]--><!--[endif]-->

一个卷组由一个或多个物理卷组成,

<!--[if !vml]--><!--[endif]-->

从上图可以看到,PE和LE有着一一对应的关系。逻辑卷建立在卷组上。逻辑卷就相当于非LVM系统的磁盘分区,可以在其上创建文件系统。

下图是磁盘分区、卷组、逻辑卷和文件系统之间的逻辑关系的示意图:

<!--[if !vml]--><!--[endif]-->

和非LVM系统将包含分区信息的元数据保存在位于分区的起始位置的分区表中一样,逻辑卷以及卷组相关的元数据也是保存在位于物理卷起始处的VGDA(卷组 描述符区域)中。VGDA包括以下内容:PV描述符、VG描述符、LV描述符、和一些PE描述符 。

系统启动LVM时激活VG,并将VGDA加载至内存,来识别LV的实际物理存储位置。当系统进行I/O操作时,就会根据VGDA建立的映射机制来访问实际的物理位置。

三、 安装LVM
首先确定系统中是否安装了lvm工具:

[root@www root]# rpm –qa|grep lvm
lvm-1.0.3-4

如果命令结果输入类似于上例,那么说明系统已经安装了LVM管理工具;如果命令没有输出则说明没有安装LVM管理工具,则需要从网络下载或者从光盘装LVM rpm工具包。

四、 创建和管理LVM

要创建一个LVM系统,一般需要经过以下步骤:

1、 创建分区

使用分区工具(如:fdisk等)创建LVM分区,方法和创建其他一般分区的方式是一样的,区别仅仅是LVM的分区类型为8e。

2、 创建物理卷

创建物理卷的命令为pvcreate,利用该命令将希望添加到卷组的所有分区或者磁盘创建为物理卷。将整个磁盘创建为物理卷的命令为:
# pvcreate /dev/hdb

将单个分区创建为物理卷的命令为:
# pvcreate /dev/hda5

3、 创建卷组

创建卷组的命令为vgcreate,将使用pvcreate建立的物理卷创建为一个完整的卷组:

# vgcreate web_document /dev/hda5 /dev/hdb

vgcreate命令第一个参数是指定该卷组的逻辑名:web_document。后面参数是指定希望添加到该卷组的所有分区和磁盘。vgcreate在
创建卷组web_document以外,还设置使用大小为4 MB的PE(默认为4MB),这表示卷组上创建的所有逻辑卷都以4 MB
为增量单位来进行扩充或缩减。由于内核原因,PE大小决定了逻辑卷的最大大小,4 MB的PE决定了单个逻辑卷最大容量为256
GB,若希望使用大于256G的逻辑卷则创建卷组时指定更大的PE。PE大小范围为8 KB到512 MB,并且必须总是2
的倍数(使用-s指定,具体请参考man vgcreate)。

4、 激活卷组

为了立即使用卷组而不是重新启动系统,可以使用vgchange来激活卷组:

# vgchange -a y web_document

5、 添加新的物理卷到卷组中

当系统安装了新的磁盘并创建了新的物理卷,而要将其添加到已有卷组时,就需要使用vgextend命令:

# vgextend web_document /dev/hdc1

这里/dev/hdc1是新的物理卷。

6、 从卷组中删除一个物理卷

要从一个卷组中删除一个物理卷,首先要确认要删除的物理卷没有被任何逻辑卷正在使用,就要使用pvdisplay命令察看一个该物理卷信息:

如果某个物理卷正在被逻辑卷所使用,就需要将该物理卷的数据备份到其他地方,然后再删除。删除物理卷的命令为vgrece:

# vgrece web_document /dev/hda1

7、 创建逻辑卷

创建逻辑卷的命令为lvcreate:

# lvcreate -L1500 –nwww1 web_document

该命令就在卷组web_document上创建名字为www1,大小为1500M的逻辑卷,并且设备入口为/dev/web_document
/www1(web_document为卷组名,www1为逻辑卷名)。如果希望创建一个使用全部卷组的逻辑卷,则需要首先察看该卷组的PE数,然后在创
建逻辑卷时指定:

# vgdisplay web_document| grep “Total PE”
Total PE 45230
# lvcreate -l 45230 web_document -n www1

8、 创建文件系统

推荐使用reiserfs文件系统,来替代ext2和ext3:
<!--[if !vml]--><!--[endif]-->

创建了文件系统以后,就可以加载并使用它:

# mkdir /data/wwwroot
# mount /dev/web_document/www1 /data/wwwroot

如果希望系统启动时自动加载文件系统,则还需要在/etc/fstab中添加内容:

/dev/web_document/www1 /data/wwwroot reiserfs defaults 1 2

9、 删除一个逻辑卷

删除逻辑卷以前首先需要将其卸载,然后删除:

# umount /dev/web_document/www1
# lvremove /dev/web_document/www1
lvremove—do you really want to remove “/dev/web_document/www1”? [y/n]: y
lvremove—doing automatic backup of volume group “web_document”
lvremove—logical volume “/dev/web_document/www1”successfully removed

10、 扩展逻辑卷大小

LVM提供了方便调整逻辑卷大小的能力,扩展逻辑卷大小的命令是lvcreate:

# lvextend -L12G/dev/web_document/www1
lvextend—extending logical volume “/dev/web_document/www1”to 12 GB
lvextend—doing automatic backup of volume group “web_document “
lvextend—logical volume “/dev/web_document/www1”successfully extended

上面的命令就实现将逻辑卷www1的大小扩招为12G。

# lvextend -L+1G/dev/web_document/www1
lvextend—extending logical volume “/dev/web_document/www1”to 13 GB
lvextend—doing automatic backup of volume group “web_document “
lvextend—logical volume “/dev/web_document/www1”successfully extended

上面的命令就实现将逻辑卷www1的大小增加1G。

增加了逻辑卷的容量以后,就需要修改文件系统大小以实现利用扩充的空间。笔者推荐使用reiserfs文件系统来替代ext2或者ext3。因此这里仅仅
讨论reiserfs的情况。Reiserfs文件工具提供了文件系统大小调整工具:resize_reiserfs。对于希望调整被加载的文件系统大
小:

# resize_reiserfs -f /dev/web_document/www1

一般建议最好将文件系统卸载,调整大小,然后再加载:

# umount /dev/web_document/www1
# resize_reiserfs /dev/web_document/www1
# mount -treiserfs /dev/web_document/www1 /data/wwwroot

对于使用ext2或ext3文件系统的用户可以考虑使用工具

ext2resize。
http://sourceforge.net/projects/ext2resize

11、 减少逻辑卷大小

使用lvrece即可实现对逻辑卷的容量,同样需要首先将文件系统卸载:

# umount /data/wwwroot
# resize_reiserfs -s-2G/dev/web_document/www1
# lvrece -L-2G/dev/web_document/www1
# mount -treiserfs /dev/web_document/www1 /data/wwwroot

Ⅳ Linux里面raid和lvm区别是什么

LVM:主要侧重动态磁盘扩容

全称逻辑卷管理,是一个动态扩展磁盘分区容量的功能性工具,对于测试环境,可以用来管理磁分区满了,扩容,但是在大规模环境性能低下,尽量不要使用它。

RAID:主要侧重磁盘性能和数据安全

磁盘阵列可以把多个磁盘驱动器通过不同的连接方式连接在一起协同工作,大大提高了读取速度,同时把磁盘系统的可靠性提高到接近无错的境界,使其可靠性极高。

用RAID最直接的好处是:

1)提升数据安全性。2)提升数据读写性能。3)提供更大的单一逻辑磁盘数据容量存储。

Ⅳ linux怎么将新增磁盘作为lvm

linux磁盘配额,RAID,LVM磁盘配额,就是妥善的分配系统资源quota比较常用的情况针对 www server 例如:每个人的网页空间的容量限制针对 mail server 例如:每个人的邮件空间限制针对 file server 例如:每个人最大的可用网络磁盘空间quota的使用限制仅针对整个文件系统:如果你的/dev/sda5是挂载在/home底下,那么在/home底下的所在目录都会受到限制核心必须支持quota : 也就是说linux核心必须支持quota这个功能才行,而由旧版本的quota可以籍由convertquota这个程序来转换成新帮本的aquota的只针对一般身份使用者有效:例如root就不能设定quota,因为整个系统的数据几乎都是他的所以不能针对【某个目录】来进行quota的设计,但可以针对【某个文件系统】来设定,quota的规范设定项目:quota针对整个文件系统的限制项目主要分为底下几个部分‘1可以管理inode(档案数量)和block的数量(管理用户磁盘容量的限制)2柔性劝导与硬性规定(soft/hard) ,通常hard限制要比soft高,若限制项目为block,可以限制hard为500MBytes而soft为400MBytehard代表硬性规定,绝对不允许超个的限制值,如若超过则系统会锁住该用户的磁盘使用权soft 代表软性规定,如果超过了软性的限制,但是低于硬性的限制,每次用户登录系统时,系统会主动发出磁盘即将爆满的警告信息,且会给予一个宽限时间,不过,若使用者在宽限时间倒数期间将容量再次降低与soft限制之下,则宽限时间会停止3会倒数计时的宽限时间 这个宽限时间用于磁盘用量在soft到hard之间时,才会出现,soft就是为了提醒用户注意这个磁盘配额的问题一般宽限时间为7天,如果7天内你都不进行任何磁盘管理,那么soft限制值会即可取代hard限制来作为quota的限制,此时你的磁盘使用权就会被封锁住而无法新增档案了一个quota实例有五个账户,且每个用户的初始群组都是myquotagrp,其他的帐号属性则使用默认值,每个用户能够使用300MBytes的磁盘使用量(hard)250MBytes的磁盘使用量(soft),群组限制,针对myquotagrp这个群组最多仅能使用1GByte的容量,这个时候就会使群组的设定和用户的设定产生一定的问题,最后那个宽限时间为14天在操作之前,先得查看一下,/home是否是一个独立的filesystemdf -h /home,接着查看文件系统的类型,由于VFAT文件系统并不支持linux Quota的功能,使用mount grep home来查看/home的文件系统类型接下来可以使用如下的方法加入quota的支持mount -o remount,usrquota,grpquota /home,接着再执行mount grep home就可以看到这个文件系统上已经加入usrquota,grpquota的支持到你所想要设定的系统中了,另外使用者与群组的quota文件系统支持的参数为: usrquota grpquota若希望下次开机的时候自动的挂载该文件系统,可以直接修改/etc/fstab LABEL=/home /home ext3 defaults,usrquota,grpquota 1 2mount -a 的意思是将fstab中的文件系统重新的挂载接着建立quota记录文件使用quotacheck:扫描文件系统并建立Quota的记录文件quotacheck [-avugfM] [/mount_point]选项和参数-a :扫瞄所有在 /etc/mtab 内,含有 quota 支持的 filesystem,加上此参数后,-u : 针对用户扫描档案与目录的使用情况,会建立aquota.user-g :针对群组扫描档案与目录的使用情况,会建立 aquota.group-v :显示扫瞄过程的信息;-f :强制扫瞄文件系统,写入新的 quota 配置文件 (危险)-M :强制以读写的方式扫瞄文件系统,只有在特殊情况下才会使用。quotacheck -avug仅针对整个系统含有usrquota, grpquota参数的文件系统进行quotacheck扫描由于/home目录支持usrquota和grpquota,所以搜索结果会将两个记录文件放在/home底下,这两个档案就是quota最重要的信息因为特殊需求需要强制扫瞄已挂载的文件系统时,使用quotacheck -avug -mf这两个文件不是纯文本,是quota自己的数据文件,且该档案会一直变动,这个因为当你对/home这个文件系统进行操作时你操作的结果会影响磁盘,所以当然会记载到这两个档案中的,所以要建立aquota.user 和 aquota.group 记得使用quotacheck指令不要手动编辑制作好quota配置文件,接着要启动quota了,使用quotaon和quotaoff进行开启和关闭启动quota的服务-u :针对使用者启动 quota (aquota.user)-g :针对群组启动 quota (aquota.group)-v :显示启动过程的相关讯息;-a :根据 /etc/mtab 内的 filesystem 设定启动有关的 quota ,若不加 -a 的话, 则后面就需要加上特定的那个 filesystem 喔!由于我们要启动usr/group的quota,所以执行quotaon -avug ,由于只有在第一次启动quota时才需要进行这个命令,因此等到下次重启系统时系统的/etc/rc.d/rc.sysinit这个初始化脚本就会自动的下达这个命令了,因此你只要在这次实例中进行一次即可,未来不需要自行启动quota的quotaoff :关闭 quota 的朋务-a :全部的 filesystem 的 quota 都关闭 (根据 /etc/mtab)-u :仅针对后面接的那个 /mount_point 关闭 user quota-g :仅针对后面接的那个 /mount_point 关闭 group quotaedquota :编辑账号/群组的限值与宽限时间edquota [-u username] [-g groupname] -u进入quota的编辑页面去设定username的限制值edquota -t <==修改宽限时间 -g 可以进入quota的编辑页面去设定groupname的限制值edquota -p 范本账号 -u 新账号 将范本账号这个人的quota限制值复制给新帐号,进入quota的编辑页面去设定username的限制值例如设定myquota1这个用户的限额设定 执行命令edquota -u myquota1画面中的第一行为说明针对哪个帐号进行quota的限制设定,第二行则是标头行,共分七个字段 1,文件系统或分区2 磁盘容量(blocks) 3soft 磁盘容量(blocks) 4 hard block的hard限制值 5档案数量 6 inode的soft限制值 7 inode的hard限制值当 soft/hard 为 0 时,表示没有限制的意思,目前先设定号myquota1,接着执行 edquota -p myquota1 -u myquota2 赋给myquota2 一直到myquota5就行了接着再设定去组 edquota -g myquotagrp ,最后edquota -t 来将宽限时间改为14天查看限制值的报表 quota的报表主要有两种模式,一种是针对每个个人或群组quota指令,一个是针对整个文件系统的repquota指令,先看quota : 单一用户的quota报表quota [-gvs] [groupname]选项和参数:-u : 后面可以接username,表示显示该用户的quota限制值,若不接username表示显示出执行者的quota的限制值-g : 后面可接 groupname ,表示显示出该群组的 quota 限制值。-v :显示每个用户在 filesystem 的 quota 值;-s :使用 1024 为倍数来指定单位,会显示如 M 之类的单位!quota -uvs myquota1 myquota2的含义是显示这两个用户在所以文件系统中的quota值,大小以M为单位显示显示出 myquotagrp 的群组限额quota -gvs myquotagrp 显示这个群组在所有文件系统中的quota值,大小以M为单位显示如果要针对整个 filesystem 列出报表时, 那个可爱的 repquota 就派上用场啦!repquota :针对文件系统的限额做报表repquota -a [-vugs]-a :直接到 /etc/mtab 搜寻具有 quota 标志的 filesystem ,并报告 quota 的结果;-v :输出的数据将含有 filesystem 相关的细部信息;-u :显示出用户的 quota 限值 (这是默认值);-g :显示出个别群组的 quota 限值。-s :使用 M, G 为单位显示结果查询本案例中所有使用者的 quota 限制情况:执行repquota -auvs,查询出mtab中含有quota的文件系统的所有用户的限定值,输出的结果含有firstsystem相关的细部信息并且以M,G为单位显示结果quota的测试与管理首先建置一个270MB的大档案,观察结果dd if=/dev/zero of=bigfile bs=1M count=250 接着会看到警告warning的讯息repquota -auv 查看所有/etc/mtab文件系统中,用户的磁盘配额的使用情况,并且将文件系统的相关细部信息一并输出此时看到grace出现,并且开始倒数了此时再建立一个大档案,让总容量超过300M,接着看到的讯息不一样了,提示没有办法写入了, -sk 查看果然到了极限了如果在宽限时间归零之前不做任何处理,那么到归零之后通过repquota -au进行查看时,就会发现grace的部分变成none啦,不继续倒数了有时候使用者不知道系统出了什么问题,最好寄一些警告信(email)给用户比较妥当,透过warnquota来处理即可warnquota :对超过限额者发出警告信这是根据/etc/warnquota.conf的设定,然后找出系统上面quota用量超过soft的账号,透过email的功能将警告信发送到用户的电子邮件信箱warnquota不会自动执行,我们需要手动执行,单纯执行warnquota之后,他会发送两封信出去,一封给root一封给这个使用者执行warnquota可能不会产生任何讯息以及信件,因为只有当使用者quota有超过soft,warnquota才会发送警告信信件内容中,包括标题、信息内容说明、签名文件等数据放在/etc/warnquota中,你也可以更改其中的内容不过这个发送信件的方式并不适用在/var/spool/mail也爆掉的quota控管中,因为这个系统的容量已经爆掉了,那么新的信件当然就收不下来的,我们需要让系统自动的执行warnquotavi /etc/cron.daily/warnquota 编辑每天的执行任务,让固定的时间去执行/usr/sbin/warnquota指令chmod 755 /etc/cron.daily/warnquotasetquota :直接于指令中设定 quota 限额如果你想要使用 script 的方法来建立大量的账号,并且所有的账号都在建立时就给予 quota可以有两个方法1 先建立一个原始quota 使用 edquota -p quota账号 -u new账号, 写入脚本中2 直接以 setquota 建立用户的 quota 设定值不同于edquota是呼叫vi来进行设定,setquota直接由指令输入所必须要的各项限制值命令结构:setquota [-u-g] 名称 block(soft) block(hard) inode(soft) inode(hard)quota -uv myquota5setquota -u myquota5 100000 200000 0 0 /homequota -uv myquota5这样可以看到结果的改变不更改既有系统的 quota 实例例如设定邮件主机,原先没有规划将信箱所在的/var/spool/mail 目录独立成一个parition,那么可以通过让使用者的邮件信箱与家目录的总体磁盘使用量为固定,由于/home以及/var/spool/mail根本不在一个文件系统中1. 将 /var/spool/mail 这个目录完整的移懂到 /home 底下;2. 利用 ln -s /home/mail /var/spool/mail 来建立链接数据;3. 将 /home 进行 quota 限额设定

阅读全文

与linuxraidlvm相关的资料

热点内容
极速下载管家的文件路径 浏览:535
网站产品是什么意思 浏览:183
苹果电脑怎么压缩视频文件怎么打开 浏览:435
app的发展趋势国家政策报告 浏览:895
字符串反转java 浏览:321
如何制作安装系统镜像文件 浏览:399
win10文件夹左上角有红点 浏览:487
你为什么学plc编程 浏览:828
网络连接没了 浏览:991
代码打印pdf 浏览:563
扣扣红包网络连接失败 浏览:301
win10商城下载文件在哪 浏览:975
系统制作镜像文件 浏览:249
苹果手机指纹贴有危险 浏览:329
哪里有高中生学编程的 浏览:984
二零一八版cad的文件布局 浏览:181
js右键选中treeview 浏览:904
linux系统交换分区的文件格式是 浏览:218
数控机床编程里u5代表什么意思 浏览:202
da14580可以跑linux 浏览:819

友情链接