导航:首页 > 操作系统 > linux挂载lvm

linux挂载lvm

发布时间:2022-08-21 14:13:28

linux lvm挂载目录怎么修改

  1. mkdir /dir1

    mount /dev/vg0/lv0 /dir1

  2. mkdir /dir2

    umount /dir1

    mount /dev/vg0/lv0 /dir2

    即可

② 如何在LINUX下使用LVM

LVM是Logical Volume Manager(逻辑卷管理器)的简写,它为主机提供了更高层次的磁盘存储管理能力。LVM可以帮助系统管理员为应用与用户方便地分配存储空间。在LVM管理下的逻辑卷可以按需改变大小或添加移除。另外,LVM可以为所管理的逻辑卷提供定制的命名标识。因此,使用LVM主要是方便了对存储系统的管理,增加了系统的扩展性。
一、准备lvm环境
1.硬盘的准备
添加了一块硬盘/dev/hdb。
准备了三个分区,方案如下:容量为100M,仅为了实验准备。
/dev/hdb1
/dev/hdb2
/dev/hdb3
2.转换分区类型为lvm卷
fdisk /dev/hdb
t转换为lvm卷类型
Device Boot Start End Blocks Id System
/dev/hdb1 1 208 98248+ 8e Linux LVM
/dev/hdb2 209 416 98280 8e Linux LVM
/dev/hdb3 417 624 98280 8e Linux LVM
然后w保存并且
#partprobe /*使用磁盘分区生效*/
二、lvm创建过程
1.从硬盘驱动器分区中创建物理卷(physical volumes-PV)。
2.从物理卷中创建卷组(volume groups-VG)
3.从卷组中创建逻辑卷(logical volumes-LV),并分派逻辑卷挂载点,其中只有逻辑卷才可以写数据。
lvm的最大的特点就是可以动态的调整分区的大小,并且可以随着分区容量的增长而增加磁盘空间的容量。
LVM配置与创建
三、LVM的物理卷PV
1.相关命令
pvcreate 创建PV
pvscan 扫描PV
pvdisplay 显示PV
pvremove 删除PV
partprobe
2.创建物理卷
如果以上容量不够,可以再添加其它分区到物理卷中。

[root@redhat ~]# pvcreate /dev/hdb1 /dev/hdb2
Physical volume “/dev/hdb1″ successfully created
Physical volume “/dev/hdb2″ successfully created
[root@redhat ~]# pvscan
PV /dev/hdb1 lvm2 [95.95 MB]
PV /dev/hdb2 lvm2 [95.98 MB]
Total: 2 [191.92 MB] / in use: 0 [0 ] / in no VG: 2 [191.92 MB]
[root@redhat ~]# pvdisplay
— NEW Physical volume —
PV Name /dev/hdb1
VG Name
PV Size 95.95 MB
Allocatable NO
PE Size (KByte) 0
Total PE 0
Free PE 0
Allocated PE 0
PV UUID 2Ni0Tx-oeSy-zGUP-t7KG-Fh22-0BUi-iyPhhQ
— NEW Physical volume —
PV Name /dev/hdb2
VG Name
PV Size 95.98 MB
Allocatable NO
PE Size (KByte) 0
Total PE 0
Free PE 0
Allocated PE 0
PV UUID 2XLXfY-V3L2-Mtsl-79U4-ovuJ-YaQf-YV9qHs

四、创建LVM的卷组VG
1.相关命令
vgcreate 创建VG
vgscan 扫描VG
vgdispaly
vgextend
vgrece
vgchange
vgremove
2.创建逻辑卷VG

[root@redhat ~]# vgcreate vg0 /dev/hdb1 /dev/hdb2
Volume group “vg0″ successfully created
[root@redhat ~]# vgscan
Reading all physical volumes. This may take a while…
Found volume group “vg0″ using metadata type lvm2
[root@redhat ~]# vgdisplay
— Volume group —
VG Name vg0
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 2
Act PV 2
VG Size 184.00 MB
PE Size 4.00 MB /*分配的块的大小默认为4M*/
Total PE 46
Alloc PE / Size 0 / 0
Free PE / Size 46 / 184.00 MB
VG UUID kL5CGk-5Odk-r3PK-9q0A-s94h-OHv4-BojBnH增加VG容量到1TB的方法:
vgcreate -s 16M vg0 /dev/hdb1 /dev/hdb2

3.删除与添加逻辑卷
[root@redhat ~]# vgrece vg0 /dev/hdb2
Removed “/dev/hdb2″ from volume group “vg0″
[root@redhat ~]# vgextend vg0 /dev/hdb2
Volume group “vg0″ successfully extended
五、创建LVM的逻辑卷LV
1.相关命令
lvcreate
lvscan
lvdisplay
lvextend
lvrece
lvremove
lvresize
2.创建逻辑卷LV

[root@redhat ~]# lvcreate -L 184M -n data vg0
Logical volume “data” created
[root@redhat ~]# lvscan
ACTIVE ‘/dev/vg0/data’ [184.00 MB] inherit
[root@redhat ~]# lvdisplay
— Logical volume —
LV Name /dev/vg0/data
VG Name vg0
LV UUID HNKO5d-yRre-qVnP-ZT8D-fXir-XTeM-r6WjDX
LV Write Access read/write
LV Status available
# open 0
LV Size 184.00 MB
Current LE 46
Segments 2
Allocation inherit
Read ahead sectors 0
Block device 253:0

六、挂载LVM的逻辑卷LV
lv的格式化:
mkfs.ext3 /dev/vg0/data
mdkir /mnt/lvm
mount /dev/vg0/data /mnt/lvm
[root@redhat ~]# ls /mnt/lvm
lost+found
[root@redhat ~]# df -T
文件系统 类型 1K-块 已用 可用 已用% 挂载点
/dev/hda3 ext3 7625092 2219460 5012040 31% /
/dev/hda1 ext3 101086 10006 85861 11% /boot
tmpfs tmpfs 150108 0 150108 0% /dev/shm
/dev/mapper/vg0-data
ext3 182469 5664 167385 4% /mnt/lvm
七、LVM的容量调整
LVM的容量调整可以在多个环节进行调整,比如:可以在物理卷上,VG上,以及LV上,都可以进行容量的扩展,这也是LVM它的一个优势所在。
1.添加物理卷
首先应卸载在使用过程中的LV,然后必须保证该磁盘的类型是lvm类型,才能添加进来。

[root@redhat ~]# umount /dev/vg0/data
[root@redhat ~]# pvcreate /dev/hdb3
Physical volume “/dev/hdb3″ successfully created
[root@redhat ~]# pvscan
PV /dev/hdb1 VG vg0 lvm2 [92.00 MB / 0 free]
PV /dev/hdb2 VG vg0 lvm2 [92.00 MB / 0 free]
PV /dev/hdb3 lvm2 [95.98 MB]
Total: 3 [279.98 MB] / in use: 2 [184.00 MB] / in no VG: 1 [95.98 MB]

2.添加VG的容量
把上面新添加的LVM磁盘加入到vg0卷组中。

[root@redhat ~]# vgextend vg0 /dev/hdb3
Volume group “vg0″ successfully extended
[root@redhat ~]# vgdisplay
— Volume group —
VG Name vg0
System ID
Format lvm2
Metadata Areas 3
Metadata Sequence No 5
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 0
Max PV 0
Cur PV 3
Act PV 3
VG Size 276.00 MB
PE Size 4.00 MB
Total PE 69
Alloc PE / Size 46 / 184.00 MB
Free PE / Size 23 / 92.00 MB
VG UUID kL5CGk-5Odk-r3PK-9q0A-s94h-OHv4-BojBnH

3.添加入LV中VG增珈的容量
把新加入LVM磁盘的容量加入LV中。
[root@redhat ~]# lvextend -L +92M /dev/vg0/data
Extending logical volume data to 276.00 MB
Logical volume data successfully resized
[root@redhat ~]# lvscan
ACTIVE ‘/dev/vg0/data’ [276.00 MB] inherit
[root@redhat ~]# resize2fs -f /dev/vg0/data
resize2fs 1.39 (29-May-2006)
Resizing the filesystem on /dev/vg0/data to 282624 (1k) blocks.
The filesystem on /dev/vg0/data is now 282624 blocks long.
如果不做这一步的话,在实现挂载的时候,发现LV的容量没有真正的加入进LV卷中,因为相关信息写入到了磁盘超级块中。
4.挂载使用
[root@redhat ~]# mount /dev/vg0/data /mnt/lvm
[root@redhat ~]# df
文件系统 1K-块 已用 可用 已用% 挂载点
/dev/hda3 7625092 2219468 5012032 31% /
/dev/hda1 101086 10006 85861 11% /boot
tmpfs 150108 0 150108 0% /dev/shm
/dev/mapper/vg0-data 273569 6168 256097 3% /mnt/lvm
LVM的卸载
八、LVM的卸载方法
如果不想使用LVM的话,可以卸载它, 卸载的方法与分区的删除方法类似,就是最后创建的最先删除。顺序如下:
先删除LV
再删除VG
最后PV
以前的LVM的分区应用fdisk转换成其它类型的文件系统,当普通分区使用。
九、LVM的卸载过程
1.umount取消挂载

[root@redhat ~]# df
文件系统 1K-块 已用 可用 已用% 挂载点
/dev/hda3 7625092 2219468 5012032 31% /
/dev/hda1 101086 10006 85861 11% /boot
tmpfs 150108 0 150108 0% /dev/shm
/dev/mapper/vg0-data 273569 6168 256097 3% /mnt/lvm
[root@redhat ~]# umount /mnt/lvm

2.删除LV逻辑卷
[root@redhat ~]# lvremove /dev/vg0/data
Do you really want to remove active logical volume “data”? [y/n]: y
Logical volume “data” successfully removed
3.删除VG卷组
[root@redhat ~]# vgchange -a n vg0
0 logical volume(s) in volume group “vg0″ now active
说明:把vg0转换成休眠状态,实验中这一步可以不用。
[root@redhat ~]# vgremove vg0
Volume group “vg0″ successfully removed
4.删除PV

[root@redhat ~]# pvscan 查看pv的情况
PV /dev/hdb1 lvm2 [95.95 MB]
PV /dev/hdb2 lvm2 [95.98 MB]
PV /dev/hdb3 lvm2 [95.98 MB]
Total: 3 [287.90 MB] / in use: 0 [0 ] / in no VG: 3 [287.90 MB]
[root@redhat ~]# pvremove /dev/hdb1 /dev/hdb2 /dev/hdb3
Attempt to close device ‘/dev/cdrom’ which is not open.
Labels on physical volume “/dev/hdb1″ successfully wiped
Labels on physical volume “/dev/hdb2″ successfully wiped
Labels on physical volume “/dev/hdb3″ successfully wiped

5.最后就是用fdisk修改磁盘的类型了。

③ 如何使用LVM卷管理Linux系统中的磁盘

LVM逻辑卷管理器是对Linux系统中对存储资源进行管理的一种机制,部署LVM逻辑卷管理器需要依次对对物理卷、卷组和逻辑卷的逐个配置,常见的命令分别包括有:
功能/命令 物理卷管理 卷组管理 逻辑卷管理
扫描 pvscan vgscan lvscan
建立 pvcreate vgcreate lvcreate
显示 pvdisplay vgdisplay lvdisplay
删除 pvremove vgremove lvremove
扩展 vgextend lvextend

为避免实验之间互相冲突,请您自行还原虚拟机到最初始状态,并在虚拟机中添加两块新硬盘设备后开机,如图7-7所示:

图7-7 在虚拟机中添加一块新的硬盘设备
在虚拟机中添加两块新硬盘设备的目的是为了更好的向同学们演示LVM逻辑卷管理器对于让用户无需关心底层物理硬盘设备的特性,咱们将会对这两块新的硬盘先进行创建物理卷操作,可以简单理解成让硬盘设备支持了LVM技术,然后将两块硬盘进行卷组合并,卷组的名称可以由您来自定义,接下来是将合并后的卷组根据需求再切割出一个约为150M的逻辑卷设备,最后将这个逻辑卷设备格式化成XFS文件系统后挂载使用。现在知道大致的流程后就可以,刘遄老师还会对下面每一个步骤再做一些简单的描述。
第1步:让新添加的两块硬盘设备支持LVM逻辑卷管理器技术:
[root@linuxprobe ~]# pvcreate /dev/sdb /dev/sdc
Physical volume "/dev/sdb" successfully created
Physical volume "/dev/sdc" successfully created

第2步:将两块硬盘设备都加入到storage卷组中,然后查看下卷组的状态:
[root@linuxprobe ~]# vgcreate storage /dev/sdb /dev/sdc
Volume group "storage" successfully created
[root@linuxprobe ~]# vgdisplay
--- Volume group ---
VG Name storage
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 2
Act PV 2
VG Size 39.99 GiB
PE Size 4.00 MiB
Total PE 10238
Alloc PE / Size 0 / 0 Free PE / Size 10238 / 39.99 GiB
VG UUID KUeAMF-qMLh-XjQy-ArUo-LCQI-YF0o-pScxm1
………………省略部分输出信息………………

第3步:切割出一个约为150M的逻辑卷设备:
同学们需要注意下切割单位的问题,在LVM逻辑卷管理器对LV逻辑卷的切割上面有两种计量单位,第一种是常见以-L参数来以容量单位为对象,例如使用-L 150M来生成一个大小为150M的逻辑卷,还可以使用-l参数来指定要使用PE基本单元的个数,默认每个PE的大小为4M,因此允许使用-l 37来生成一个大小为37*4M=148M的逻辑卷:
[root@linuxprobe ~]# lvcreate -n vo -l 37 storage
Logical volume "vo" created
[root@linuxprobe ~]# lvdisplay
--- Logical volume ---
LV Path /dev/storage/vo
LV Name vo
VG Name storage
LV UUID D09HYI-BHBl-iXGr-X2n4-HEzo-FAQH-HRcM2I
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2017-02-01 01:22:54 -0500
LV Status available
# open 0
LV Size 148.00 MiB
Current LE 37
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:2
………………省略部分输出信息………………

第4步:将生成好的逻辑卷格式化后挂载使用:
Linux系统会把LVM逻辑卷管理器中的逻辑卷设备存放在/dev设备目录中(实际上是做了一个符号链接,但读者们无需关心),同时会以卷组的名称来建立一个目录,其中保存有逻辑卷的设备映射文件。
[root@linuxprobe ~]# mkfs.ext4 /dev/storage/vo
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=1024 (log=0)
Fragment size=1024 (log=0)
Stride=0 blocks, Stripe width=0 blocks
38000 inodes, 151552 blocks
7577 blocks (5.00%) reserved for the super user
First data block=1
Maximum filesystem blocks=33816576
19 block groups
8192 blocks per group, 8192 fragments per group
2000 inodes per group
Superblock backups stored on blocks:
8193, 24577, 40961, 57345, 73729
Allocating group tables: done
Writing inode tables: done
Creating journal (4096 blocks): done
Writing superblocks and filesystem accounting information: done
[root@linuxprobe ~]# mkdir /linuxprobe
[root@linuxprobe ~]# mount /dev/storage/vo /linuxprobe

第5步:查看挂载状态,并写入到配置文件永久生效:
[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 905M 0 905M 0% /dev
tmpfs 914M 140K 914M 1% /dev/shm
tmpfs 914M 8.8M 905M 1% /run
tmpfs 914M 0 914M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/mapper/storage-vo 145M 7.6M 138M 6% /linuxprobe
[root@linuxprobe ~]# echo "/dev/storage/vo /linuxprobe ext4 defaults 0 0" >> /etc/fstab

7.2.2 扩容逻辑卷
虽然咱们的卷组是由两块硬盘设备共同组成的,但用户使用存储资源时感知不到底层硬盘的结构,也不用关心底层是由多少块硬盘组成的,只要卷组中的资源足够就可以一直为逻辑卷扩容,扩展前请一定要记得卸载设备和挂载点的关联。
[root@linuxprobe ~]# umount /linuxprobe

第1步:将上个实验中的逻辑卷vo扩展至290M:
[root@linuxprobe ~]# lvextend -L 290M /dev/storage/vo
Rounding size to boundary between physical extents: 292.00 MiB
Extending logical volume vo to 292.00 MiB
Logical volume vo successfully resized

第2步:检查磁盘完整性,重置硬盘容量:
[root@linuxprobe ~]# e2fsck -f /dev/storage/vo
e2fsck 1.42.9 (28-Dec-2013)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
/dev/storage/vo: 11/38000 files (0.0% non-contiguous), 10453/151552 blocks
[root@linuxprobe ~]# resize2fs /dev/storage/vo
resize2fs 1.42.9 (28-Dec-2013)
Resizing the filesystem on /dev/storage/vo to 299008 (1k) blocks.
The filesystem on /dev/storage/vo is now 299008 blocks long.

第3步:重新挂载硬盘设备并查看挂载状态:
[root@linuxprobe ~]# mount -a
[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 985M 0 985M 0% /dev
tmpfs 994M 80K 994M 1% /dev/shm
tmpfs 994M 8.8M 986M 1% /run
tmpfs 994M 0 994M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/mapper/storage-vo 279M 2.1M 259M 1% /linuxprobe

7.2.3 缩小逻辑卷
相比于扩容逻辑卷来讲,对逻辑卷的缩小操作存在着更高丢失数据的风险,所以在生产环境中同学们一定要留心记得提前备份好数据,另外Linux系统规定对LVM逻辑卷的缩小操作需要先检查文件系统的完整性,当然这也是在保证咱们的数据安全,操作前记得先把文件系统卸载掉:
[root@linuxprobe ~]# umount /linuxprobe

第1步:检查文件系统的完整性:
[root@linuxprobe ~]# e2fsck -f /dev/storage/vo
e2fsck 1.42.9 (28-Dec-2013)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
/dev/storage/vo: 11/74000 files (0.0% non-contiguous), 15507/299008 blocks

第2步:将LV逻辑卷的容量减小到120M:
[root@linuxprobe ~]# resize2fs /dev/storage/vo 120M
resize2fs 1.42.9 (28-Dec-2013)
Resizing the filesystem on /dev/storage/vo to 122880 (1k) blocks.
The filesystem on /dev/storage/vo is now 122880 blocks long.
[root@linuxprobe ~]# lvrece -L 120M /dev/storage/vo
WARNING: Recing active logical volume to 120.00 MiB
THIS MAY DESTROY YOUR DATA (filesystem etc.)
Do you really want to rece vo? [y/n]: y
Recing logical volume vo to 120.00 MiB
Logical volume vo successfully resized

第3步:将文件系统重新挂载并查看系统状态:
[root@linuxprobe ~]# mount -a
[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 985M 0 985M 0% /dev
tmpfs 994M 80K 994M 1% /dev/shm
tmpfs 994M 8.8M 986M 1% /run
tmpfs 994M 0 994M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/mapper/storage-vo 113M 1.6M 103M 2% /linuxprobe

7.2.4 逻辑卷快照
除此之外LVM逻辑卷管理器还具备有“快照卷”的功能,这项功能很类似于我们其他软件的还原时间点功能。例如我们可以对某一个LV逻辑卷设备做一次快照,如果今后发现数据被改错了,咱们可以将之前做好的快照卷进行覆盖还原,LVM逻辑卷管理器的快照功能有两项特点,第一是快照卷的大小应该尽量等同于LV逻辑卷的容量,第二是快照功能仅一次有效,一旦被还原后则会被自动立即删除。我们首先应当查看下卷组的信息:
[root@linuxprobe ~]# vgdisplay
--- Volume group ---
VG Name storage
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 4
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 1
Max PV 0
Cur PV 2
Act PV 2
VG Size 39.99 GiB
PE Size 4.00 MiB
Total PE 10238
Alloc PE / Size 30 / 120.00 MiB Free PE / Size 10208 / 39.88 GiB
VG UUID CTaHAK-0TQv-Abdb-R83O-RU6V-YYkx-8o2R0e
………………省略部分输出信息………………

通过卷组的输出信息可以很清晰的看到卷组中已用120M,空闲资源有39.88G,接下来咱们在逻辑卷设备所挂载的目录中用重定向写入一个文件吧:
[root@linuxprobe ~]# echo "Welcome to Linuxprobe.com" > /linuxprobe/readme.txt
[root@linuxprobe ~]# ls /linuxprobe
total 14
drwx------. 2 root root 12288 Feb 1 07:18 lost+found
-rw-r--r--. 1 root root 26 Feb 1 07:38 readme.txt

第1步:使用-s参数来生成一个快照卷,使用-L参数来指定切割的大小,另外要记得在后面写上这个快照是针对那个逻辑卷做的。
[root@linuxprobe ~]# lvcreate -L 120M -s -n SNAP /dev/storage/vo
Logical volume "SNAP" created
[root@linuxprobe ~]# lvdisplay
--- Logical volume ---
LV Path /dev/storage/SNAP
LV Name SNAP
VG Name storage
LV UUID BC7WKg-fHoK-Pc7J-yhSd-vD7d-lUnl-TihKlt
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2017-02-01 07:42:31 -0500
LV snapshot status active destination for vo
LV Status available
# open 0
LV Size 120.00 MiB
Current LE 30
COW-table size 120.00 MiB
COW-table LE 30
Allocated to snapshot 0.01%
Snapshot chunk size 4.00 KiB
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:3
………………省略部分输出信息………………

第2步:咱们在LV设备卷所挂载的目录中创建一个100M的垃圾文件,这样再来看快照卷的状态就会发现使用率上升了:
[root@linuxprobe ~]# dd if=/dev/zero of=/linuxprobe/files count=1 bs=100M
1+0 records in
1+0 records out
104857600 bytes (105 MB) copied, 3.35432 s, 31.3 MB/s
[root@linuxprobe ~]# lvdisplay
--- Logical volume ---
LV Path /dev/storage/SNAP
LV Name SNAP
VG Name storage
LV UUID BC7WKg-fHoK-Pc7J-yhSd-vD7d-lUnl-TihKlt
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2017-02-01 07:42:31 -0500
LV snapshot status active destination for vo
LV Status available
# open 0
LV Size 120.00 MiB
Current LE 30
COW-table size 120.00 MiB
COW-table LE 30
Allocated to snapshot 83.71%
Snapshot chunk size 4.00 KiB
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:3

第3步:为了校验SNAP快照卷的效果,咱们需要对逻辑卷进行快照合并还原操作,在这之前记得先卸载掉逻辑卷设备与目录的挂载~
[root@linuxprobe ~]# umount /linuxprobe
[root@linuxprobe ~]# lvconvert --merge /dev/storage/SNAP
Merging of volume SNAP started.
vo: Merged: 21.4%
vo: Merged: 100.0%
Merge of snapshot into logical volume vo has finished.
Logical volume "SNAP" successfully removed

第4步:快照卷会被自动删除掉,并且刚刚在逻辑卷设备被快照后再创建出来的100M垃圾文件也被清除了:
[root@linuxprobe ~]# mount -a
[root@linuxprobe ~]# ls /linuxprobe/
lost+found readme.txt

看下《Linux就该这么学》第7章节吧,第7章 使用RAID与LVM磁盘阵列技术

④ linux下怎样以lvm的方式挂载到swap分区上

创建swap 分区
注意操作顺序和操作后的结果
1、将以分区格式化为swap类型
# mkswap /dev/VolGroup00/swaplvm
Setting up swapspace version 1, size = 54521 kB
2、在激活swap分区之前,查看一下swap相关信息:
# free
total used free shared buffers cached
Mem: 1025520 708440 317080 0 29284 385888
-/+ buffers/cache: 293268 732252
Swap: 2088952 0 2088952
# swapon -s
Filename Type Size Used
Priority
/dev/mapper/VolGroup00-LogVol04 partition 2088952 0 -1
3、激活swap分区
# swapon /dev/VolGroup00/swaplvm
4、激活之后的信息
# free
total used free shared buffers cached
Mem: 1025520 708560 316960 0 29344 385884
-/+ buffers/cache: 293332 732188
Swap: 2142192 0 2142192

# swapon -s
Filename Type Size Used
Priority
/dev/mapper/VolGroup00-LogVol04 partition 2088952 0 -1
/dev/mapper/VolGroup00-swaplvm partition 53240 0 -4
备注:
Swap 交换分区是一个特殊的文件系统,该文件系统的基本作用就是可以使操作系统
将一部分驻留于内存而暂时不操作的进程转移到 swap 分区中而腾出物理内存给新的需要
执行的进程。
红帽官方推荐的使用交换分区的比例是:
2G 物理内存以下,交换分区为物理内存的 1.5-2 倍
4G 以上物理内存推荐交换分区与物理内存为 1:1。

⑤ linux怎么将新增磁盘作为lvm

linux磁盘配额,RAID,LVM磁盘配额,就是妥善的分配系统资源quota比较常用的情况针对 www server 例如:每个人的网页空间的容量限制针对 mail server 例如:每个人的邮件空间限制针对 file server 例如:每个人最大的可用网络磁盘空间quota的使用限制仅针对整个文件系统:如果你的/dev/sda5是挂载在/home底下,那么在/home底下的所在目录都会受到限制核心必须支持quota : 也就是说linux核心必须支持quota这个功能才行,而由旧版本的quota可以籍由convertquota这个程序来转换成新帮本的aquota的只针对一般身份使用者有效:例如root就不能设定quota,因为整个系统的数据几乎都是他的所以不能针对【某个目录】来进行quota的设计,但可以针对【某个文件系统】来设定,quota的规范设定项目:quota针对整个文件系统的限制项目主要分为底下几个部分‘1可以管理inode(档案数量)和block的数量(管理用户磁盘容量的限制)2柔性劝导与硬性规定(soft/hard) ,通常hard限制要比soft高,若限制项目为block,可以限制hard为500MBytes而soft为400MBytehard代表硬性规定,绝对不允许超个的限制值,如若超过则系统会锁住该用户的磁盘使用权soft 代表软性规定,如果超过了软性的限制,但是低于硬性的限制,每次用户登录系统时,系统会主动发出磁盘即将爆满的警告信息,且会给予一个宽限时间,不过,若使用者在宽限时间倒数期间将容量再次降低与soft限制之下,则宽限时间会停止3会倒数计时的宽限时间 这个宽限时间用于磁盘用量在soft到hard之间时,才会出现,soft就是为了提醒用户注意这个磁盘配额的问题一般宽限时间为7天,如果7天内你都不进行任何磁盘管理,那么soft限制值会即可取代hard限制来作为quota的限制,此时你的磁盘使用权就会被封锁住而无法新增档案了一个quota实例有五个账户,且每个用户的初始群组都是myquotagrp,其他的帐号属性则使用默认值,每个用户能够使用300MBytes的磁盘使用量(hard)250MBytes的磁盘使用量(soft),群组限制,针对myquotagrp这个群组最多仅能使用1GByte的容量,这个时候就会使群组的设定和用户的设定产生一定的问题,最后那个宽限时间为14天在操作之前,先得查看一下,/home是否是一个独立的filesystemdf -h /home,接着查看文件系统的类型,由于VFAT文件系统并不支持linux Quota的功能,使用mount grep home来查看/home的文件系统类型接下来可以使用如下的方法加入quota的支持mount -o remount,usrquota,grpquota /home,接着再执行mount grep home就可以看到这个文件系统上已经加入usrquota,grpquota的支持到你所想要设定的系统中了,另外使用者与群组的quota文件系统支持的参数为: usrquota grpquota若希望下次开机的时候自动的挂载该文件系统,可以直接修改/etc/fstab LABEL=/home /home ext3 defaults,usrquota,grpquota 1 2mount -a 的意思是将fstab中的文件系统重新的挂载接着建立quota记录文件使用quotacheck:扫描文件系统并建立Quota的记录文件quotacheck [-avugfM] [/mount_point]选项和参数-a :扫瞄所有在 /etc/mtab 内,含有 quota 支持的 filesystem,加上此参数后,-u : 针对用户扫描档案与目录的使用情况,会建立aquota.user-g :针对群组扫描档案与目录的使用情况,会建立 aquota.group-v :显示扫瞄过程的信息;-f :强制扫瞄文件系统,写入新的 quota 配置文件 (危险)-M :强制以读写的方式扫瞄文件系统,只有在特殊情况下才会使用。quotacheck -avug仅针对整个系统含有usrquota, grpquota参数的文件系统进行quotacheck扫描由于/home目录支持usrquota和grpquota,所以搜索结果会将两个记录文件放在/home底下,这两个档案就是quota最重要的信息因为特殊需求需要强制扫瞄已挂载的文件系统时,使用quotacheck -avug -mf这两个文件不是纯文本,是quota自己的数据文件,且该档案会一直变动,这个因为当你对/home这个文件系统进行操作时你操作的结果会影响磁盘,所以当然会记载到这两个档案中的,所以要建立aquota.user 和 aquota.group 记得使用quotacheck指令不要手动编辑制作好quota配置文件,接着要启动quota了,使用quotaon和quotaoff进行开启和关闭启动quota的服务-u :针对使用者启动 quota (aquota.user)-g :针对群组启动 quota (aquota.group)-v :显示启动过程的相关讯息;-a :根据 /etc/mtab 内的 filesystem 设定启动有关的 quota ,若不加 -a 的话, 则后面就需要加上特定的那个 filesystem 喔!由于我们要启动usr/group的quota,所以执行quotaon -avug ,由于只有在第一次启动quota时才需要进行这个命令,因此等到下次重启系统时系统的/etc/rc.d/rc.sysinit这个初始化脚本就会自动的下达这个命令了,因此你只要在这次实例中进行一次即可,未来不需要自行启动quota的quotaoff :关闭 quota 的朋务-a :全部的 filesystem 的 quota 都关闭 (根据 /etc/mtab)-u :仅针对后面接的那个 /mount_point 关闭 user quota-g :仅针对后面接的那个 /mount_point 关闭 group quotaedquota :编辑账号/群组的限值与宽限时间edquota [-u username] [-g groupname] -u进入quota的编辑页面去设定username的限制值edquota -t <==修改宽限时间 -g 可以进入quota的编辑页面去设定groupname的限制值edquota -p 范本账号 -u 新账号 将范本账号这个人的quota限制值复制给新帐号,进入quota的编辑页面去设定username的限制值例如设定myquota1这个用户的限额设定 执行命令edquota -u myquota1画面中的第一行为说明针对哪个帐号进行quota的限制设定,第二行则是标头行,共分七个字段 1,文件系统或分区2 磁盘容量(blocks) 3soft 磁盘容量(blocks) 4 hard block的hard限制值 5档案数量 6 inode的soft限制值 7 inode的hard限制值当 soft/hard 为 0 时,表示没有限制的意思,目前先设定号myquota1,接着执行 edquota -p myquota1 -u myquota2 赋给myquota2 一直到myquota5就行了接着再设定去组 edquota -g myquotagrp ,最后edquota -t 来将宽限时间改为14天查看限制值的报表 quota的报表主要有两种模式,一种是针对每个个人或群组quota指令,一个是针对整个文件系统的repquota指令,先看quota : 单一用户的quota报表quota [-gvs] [groupname]选项和参数:-u : 后面可以接username,表示显示该用户的quota限制值,若不接username表示显示出执行者的quota的限制值-g : 后面可接 groupname ,表示显示出该群组的 quota 限制值。-v :显示每个用户在 filesystem 的 quota 值;-s :使用 1024 为倍数来指定单位,会显示如 M 之类的单位!quota -uvs myquota1 myquota2的含义是显示这两个用户在所以文件系统中的quota值,大小以M为单位显示显示出 myquotagrp 的群组限额quota -gvs myquotagrp 显示这个群组在所有文件系统中的quota值,大小以M为单位显示如果要针对整个 filesystem 列出报表时, 那个可爱的 repquota 就派上用场啦!repquota :针对文件系统的限额做报表repquota -a [-vugs]-a :直接到 /etc/mtab 搜寻具有 quota 标志的 filesystem ,并报告 quota 的结果;-v :输出的数据将含有 filesystem 相关的细部信息;-u :显示出用户的 quota 限值 (这是默认值);-g :显示出个别群组的 quota 限值。-s :使用 M, G 为单位显示结果查询本案例中所有使用者的 quota 限制情况:执行repquota -auvs,查询出mtab中含有quota的文件系统的所有用户的限定值,输出的结果含有firstsystem相关的细部信息并且以M,G为单位显示结果quota的测试与管理首先建置一个270MB的大档案,观察结果dd if=/dev/zero of=bigfile bs=1M count=250 接着会看到警告warning的讯息repquota -auv 查看所有/etc/mtab文件系统中,用户的磁盘配额的使用情况,并且将文件系统的相关细部信息一并输出此时看到grace出现,并且开始倒数了此时再建立一个大档案,让总容量超过300M,接着看到的讯息不一样了,提示没有办法写入了, -sk 查看果然到了极限了如果在宽限时间归零之前不做任何处理,那么到归零之后通过repquota -au进行查看时,就会发现grace的部分变成none啦,不继续倒数了有时候使用者不知道系统出了什么问题,最好寄一些警告信(email)给用户比较妥当,透过warnquota来处理即可warnquota :对超过限额者发出警告信这是根据/etc/warnquota.conf的设定,然后找出系统上面quota用量超过soft的账号,透过email的功能将警告信发送到用户的电子邮件信箱warnquota不会自动执行,我们需要手动执行,单纯执行warnquota之后,他会发送两封信出去,一封给root一封给这个使用者执行warnquota可能不会产生任何讯息以及信件,因为只有当使用者quota有超过soft,warnquota才会发送警告信信件内容中,包括标题、信息内容说明、签名文件等数据放在/etc/warnquota中,你也可以更改其中的内容不过这个发送信件的方式并不适用在/var/spool/mail也爆掉的quota控管中,因为这个系统的容量已经爆掉了,那么新的信件当然就收不下来的,我们需要让系统自动的执行warnquotavi /etc/cron.daily/warnquota 编辑每天的执行任务,让固定的时间去执行/usr/sbin/warnquota指令chmod 755 /etc/cron.daily/warnquotasetquota :直接于指令中设定 quota 限额如果你想要使用 script 的方法来建立大量的账号,并且所有的账号都在建立时就给予 quota可以有两个方法1 先建立一个原始quota 使用 edquota -p quota账号 -u new账号, 写入脚本中2 直接以 setquota 建立用户的 quota 设定值不同于edquota是呼叫vi来进行设定,setquota直接由指令输入所必须要的各项限制值命令结构:setquota [-u-g] 名称 block(soft) block(hard) inode(soft) inode(hard)quota -uv myquota5setquota -u myquota5 100000 200000 0 0 /homequota -uv myquota5这样可以看到结果的改变不更改既有系统的 quota 实例例如设定邮件主机,原先没有规划将信箱所在的/var/spool/mail 目录独立成一个parition,那么可以通过让使用者的邮件信箱与家目录的总体磁盘使用量为固定,由于/home以及/var/spool/mail根本不在一个文件系统中1. 将 /var/spool/mail 这个目录完整的移懂到 /home 底下;2. 利用 ln -s /home/mail /var/spool/mail 来建立链接数据;3. 将 /home 进行 quota 限额设定

⑥ linux LVM操作问题

解决linux下挂载LVM重名问题在linux下使用新硬盘安装系统,安装好以后再挂载原来的硬盘,分区格式全为系统 默认分区,系统默认使用的是lvm格式,并且默认的卷都是 VolGroup00 使用 pvs 查看显示如下:[root@localhost ~]# pvsPV VG Fmt Attr PSize PFree/dev/sda2 VolGroup00 lvm2 a- 136.62G 0/dev/sdb2 VolGroup00 lvm2 a- 136.62G 0发现可以正确认别到两个VG,但是同名,如何挂载呢?解决办法是,将原来的VG更名,解决冲突即可挂载。 重命名格式为:vgrename VolGroup00 VolGroup01此时会提示:[root@localhost ~]# vgrename VolGroup00 VolGroup01Found more than one VG called VolGroup00. Please supply VG uuid.原因是存在两个 VolGroup00,修改的方法他已经提示了要指定 VG uuid即可。 查看VG uuid的命令为:[root@localhost ~]# vgs -vFinding all volume groupsFinding volume group VolGroup00Finding volume group VolGroup00VG Attr Ext #PV #LV #SN VSize VFree VG UUIDVolGroup00 wz--n- 32.00M 1 2 0 136.62G 0 dcHa6G-abU2-Xfq8-EPBm-jBLj-sf18-O5uH0UVolGroup00 wz--n- 32.00M 1 2 0 136.62G 0 OF8g7h-PQJB-9D9z-yPxn-1kfY-Advq-YbNHJ9 查到VG uuid以后,再次执行改名:[root@localhost ~]# vgrename OF8g7h-PQJB-9D9z-yPxn-1kfY-Advq-YbNHJ9 VolGroup01Volume group VolGroup00 still has active LVs 修改成功以后,再执行:lvscan[root@localhost ~]# lvscaninactive '/dev/VolGroup01/LogVol00' [130.84 GB] inheritinactive '/dev/VolGroup01/LogVol01' [5.78 GB] inheritACTIVE '/dev/VolGroup00/LogVol00' [130.84 GB] inheritACTIVE '/dev/VolGroup00/LogVol01' [5.78 GB] inherit可以看到新修改的VolGroup01是inactive状态。再使用vgchange 加载 VolGroup01[root@localhost ~]# vgchange -ay /dev/VolGroup012 logical volume(s) in volume group VolGroup01 now active 最后 mount 就可以[root@localhost ~]# mount /dev/VolGroup01/LogVol00 /mnt/old至此,全部完成

⑦ 如何在Linux中直接挂载LVM分区

首先,用下面的命令检查可用的卷组:
$ sudo pvs
PV VG FmtAttrPSizePFree
/dev/sdb2 vg_ezsetupsystem40a8f02fadd0 lvm2 a--237.60g0

物理卷的名字和卷组的名字分别在PV和VG列的下面。本例中,只有一个创建在dev/sdb2下的组“vg_ezsetupsystem40a8f02fadd0”。
接下来检查卷组中存在的逻辑卷,使用lvdisplay命令:
$ sudo lvdisplay <volume-group-name>
使用lvdisplay显示了可用卷的信息(如:设备名、卷名、卷大小等等)。
$ sudo lvdisplay /dev/vg_ezsetupsystem40a8f02fadd0
---Logical volume ---
LV Path/dev/vg_ezsetupsystem40a8f02fadd0/lv_root
LV Name lv_root
VG Name vg_ezsetupsystem40a8f02fadd0
LV UUID imygta-P2rv-2SMU-5ugQ-g99D-A0Cb-m31eet
LV WriteAccess read/write
LV Creation host, time livecd.CentOS,2015-03-1618:38:18-0400
LV Status available
# open 0
LV Size50.00GiB
Current LE 12800
Segments1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:0

⑧ linux lvm新添加硬盘怎么挂载

我看到你的/dev/sda上有两个分区,一个500M的sda1,一个116G的sda2, 其中sda2是LVM。


你的描述有些含糊,我下面的话,是基于这些假设:


  1. 你知道什么是LVM。

  2. 你的/dev/sda2作为一个LVM分区,上面已经建立了Volume Groups, 并且在VG上建立了Logic Volumes,并且已经格式化了LV,在LV上存储了数据。

  3. 你目前不清楚如何挂载/dev/sda2上的LV,是你提问的原因。




我今天恰好遇到与你类似的情况:
挂载一个不是我建立的LVM分区上的LV。
因为我不知到该LVM上有哪些VG,又有哪些LV。所以我就古格了一下 "how_to_mount_lvm_partitions"
与你分享如下,希望对你有帮助
#让你的服务器,识别外来LVM上的VG、LV

sudovgscan--mknodes
sudovgchange-ay


#输出LV信息
sudolvscan


#使用lvscan输出的信息,利用mount,挂载LV到目录
:
Code:
sudomkdir/mnt/<somename>
sudomount/dev/VolGroup<xx>/LogVol<>/mnt/<somename>
#下面用我的磁盘,给你举个例子
lvscan
ACTIVE '/dev/lvm2/raring' [12.00 GiB] inherit
ACTIVE '/dev/lvm2/suse' [12.00 GiB] inherit
ACTIVE '/dev/lvm2/swap1' [2.00 GiB] inherit
ACTIVE '/dev/lvm2/swap2' [2.00 GiB] inherit
ACTIVE '/dev/lvm2/arch' [12.11 GiB] inherit


其中lvm2是VG
/dev/lvm2/后的是LV,相当于普通磁盘的分区。我们下面挂载raring分区到/mnt目录:

mount /dev/lvm2/raring /mnt


#使用ls /mnt就可以查看挂载到/mnt目录的文件了。另外,"资料说,需要修改配置文件",应该说的是/etc/fstab,对吧?这个文件告诉Linux,启动时要挂载哪些分区。如果你的服务器不需要关机,或则你喜欢手动挂载磁盘,那么就不需要修改这个文件。

⑨ 新装 linux 服务器,挂载原有多路径下lvm磁盘

先用fdisk -l 查看目前磁盘挂载情况

尝试挂载 /dev/xvdb 到 /data 目录

mkdir /data

mount /dev/xvdb /data


如果报错:

mount:you must specify the filesystem type

就格式化当前的设备

mkfs.ext4 /dev/xvdb


注意:首先 df -T -h 查看当前被挂载的设备的文件系统类型

Filesystem Type Size Used Avail Use% Mounted on

/dev/mapper/VolGroup-lv_root

ext4 16G 795M 14G 6% /

tmpfs tmpfs 5.8G 0 5.8G 0% /dev/shm

/dev/xvda1 ext4 485M 32M 429M 7% /boot

如果其他的硬盘是 ext3 就使用 mkfs.ext3 /dev/xvdb

如果是ext4 就使用 mkfs.ext3 /dev/xvdb然后再次尝试挂载设备

mount /dev/xvdb /data

注意:这种挂在为临时挂在,在系统重启之后挂载信息就会丢失,为了解决这个问题就必须要修改/etc/fstab 这个文件,添加信息进去

/dev/xvdb /opt ext4 defaults 1 2


fstab中存放了与分区有关的重要信息,其中每一行为一个分区记录,每一行又可分为六个部份,下面以/dev/hda7 / ext2 defaults 1 1为例逐个说明:

  1. 第一项是您想要mount的储存装置的实体位置,如hdb或如上例的/dev/hda7。设备名或者设备卷标名,(/dev/sda10 或者 LABEL=/)[源设备位置]

  2. 2. 第二项就是您想要将其加入至哪个目录位置,如/home或如上例的/,这其实就是在安装时提示的挂入点。设备挂载目录(例如上面的“/”或者“/mnt/D/”)[将要挂载到的位置]

  3. 3. 第三项就是所谓的local filesystem,其包含了以下格式:如ext、ext2、msdos、iso9660、nfs、swap等,或如上例的ext2,可以参见 /prco/filesystems说明。设备文件系统(例如上面的“ext3”或者“vfat”)[源设备的文件系统格式】、 4. 第四项就是mount时,所要设定的状态,如ro(只读)或如上例的defaults(包括了其它参数如rw, suid, dev, exec, auto, nouser, and async),可以参见“mount nfs”。(看帮助man mount)

  4. 对于已经挂载好的设备,例如上面的/dev/sda2,现在要改变挂载参数,这时可以不用卸载该设备,而可以使用下面的命令(没有挂载的设 备,remount 这个参数无效)#mount /mnt/D/ -o remount,ro (改defaults为ro)为了安全起见,可以指明其他挂载参数,例如:

  5. noexec(不允许可执行文件可执行,但千万不要把根分区挂为noexec,那就无法使用系统了,连mount 命令都无法使用了,这时只有重新做系统了!nodev(不允许挂载设备文件)nosuid,nosgid(不允许有suid和sgid属 性)nouser(不允许普通用户挂载)

  6. 5. 第五项是提供DUMP功能,在系统DUMP时是否需要BACKUP的标志位,其内定值是0。指明是否要备份,(0为不备份,1为要备份,一般根分区要备份)

  7. 6. 第六项是设定此filesystem是否要在开机时做check的动作,除了root的filesystem其必要的check为1之外,其它皆可视需要 设定,内定值是0。指明自检顺序。 (0为不自检,1或者2为要自检,如果是根分区要设为1,其他分区只能是2)</ol>

⑩ linux 6.8 怎么挂载 linux lvm

创建swap 分区 注意操作顺序和操作后的结果 1、将以分区格式化为swap类型 # mkswap /dev/VolGroup00/swaplvm Setting up swapspace version 1, size = 54521 kB 2、在激活swap分区之前,查看一下swap相关信息: # free total used free shared b...

阅读全文

与linux挂载lvm相关的资料

热点内容
安卓手机相机怎么提取文字 浏览:217
如何查看服务器映射的外网地址 浏览:975
图片刺绣算法 浏览:663
阿里云服务器没有实例 浏览:605
绵阳有没有什么app 浏览:848
怎么用游侠映射服务器 浏览:919
为什么无意下载的app无法删除 浏览:306
word2007打开pdf 浏览:117
php正则class 浏览:736
怎么在文件夹查找一堆文件 浏览:544
核酸报告用什么app 浏览:791
u8怎么ping通服务器地址 浏览:994
安卓什么手机支持背部轻敲调出健康码 浏览:870
程序员抽奖排行 浏览:744
扭蛋人生安卓如何下载 浏览:724
什么app文档资源多好 浏览:924
黑马程序员APP 浏览:148
掌阅小说是哪个app 浏览:47
如何把u盘的软件安装到安卓机 浏览:1000
php跑在什么服务器 浏览:126