導航:首頁 > 操作系統 > linux掛載lvm

linux掛載lvm

發布時間:2022-08-21 14:13:28

linux lvm掛載目錄怎麼修改

  1. mkdir /dir1

    mount /dev/vg0/lv0 /dir1

  2. mkdir /dir2

    umount /dir1

    mount /dev/vg0/lv0 /dir2

    即可

② 如何在LINUX下使用LVM

LVM是Logical Volume Manager(邏輯卷管理器)的簡寫,它為主機提供了更高層次的磁碟存儲管理能力。LVM可以幫助系統管理員為應用與用戶方便地分配存儲空間。在LVM管理下的邏輯卷可以按需改變大小或添加移除。另外,LVM可以為所管理的邏輯卷提供定製的命名標識。因此,使用LVM主要是方便了對存儲系統的管理,增加了系統的擴展性。
一、准備lvm環境
1.硬碟的准備
添加了一塊硬碟/dev/hdb。
准備了三個分區,方案如下:容量為100M,僅為了實驗准備。
/dev/hdb1
/dev/hdb2
/dev/hdb3
2.轉換分區類型為lvm卷
fdisk /dev/hdb
t轉換為lvm卷類型
Device Boot Start End Blocks Id System
/dev/hdb1 1 208 98248+ 8e Linux LVM
/dev/hdb2 209 416 98280 8e Linux LVM
/dev/hdb3 417 624 98280 8e Linux LVM
然後w保存並且
#partprobe /*使用磁碟分區生效*/
二、lvm創建過程
1.從硬碟驅動器分區中創建物理卷(physical volumes-PV)。
2.從物理卷中創建卷組(volume groups-VG)
3.從卷組中創建邏輯卷(logical volumes-LV),並分派邏輯卷掛載點,其中只有邏輯卷才可以寫數據。
lvm的最大的特點就是可以動態的調整分區的大小,並且可以隨著分區容量的增長而增加磁碟空間的容量。
LVM配置與創建
三、LVM的物理卷PV
1.相關命令
pvcreate 創建PV
pvscan 掃描PV
pvdisplay 顯示PV
pvremove 刪除PV
partprobe
2.創建物理卷
如果以上容量不夠,可以再添加其它分區到物理卷中。

[root@redhat ~]# pvcreate /dev/hdb1 /dev/hdb2
Physical volume 「/dev/hdb1″ successfully created
Physical volume 「/dev/hdb2″ successfully created
[root@redhat ~]# pvscan
PV /dev/hdb1 lvm2 [95.95 MB]
PV /dev/hdb2 lvm2 [95.98 MB]
Total: 2 [191.92 MB] / in use: 0 [0 ] / in no VG: 2 [191.92 MB]
[root@redhat ~]# pvdisplay
— NEW Physical volume —
PV Name /dev/hdb1
VG Name
PV Size 95.95 MB
Allocatable NO
PE Size (KByte) 0
Total PE 0
Free PE 0
Allocated PE 0
PV UUID 2Ni0Tx-oeSy-zGUP-t7KG-Fh22-0BUi-iyPhhQ
— NEW Physical volume —
PV Name /dev/hdb2
VG Name
PV Size 95.98 MB
Allocatable NO
PE Size (KByte) 0
Total PE 0
Free PE 0
Allocated PE 0
PV UUID 2XLXfY-V3L2-Mtsl-79U4-ovuJ-YaQf-YV9qHs

四、創建LVM的卷組VG
1.相關命令
vgcreate 創建VG
vgscan 掃描VG
vgdispaly
vgextend
vgrece
vgchange
vgremove
2.創建邏輯卷VG

[root@redhat ~]# vgcreate vg0 /dev/hdb1 /dev/hdb2
Volume group 「vg0″ successfully created
[root@redhat ~]# vgscan
Reading all physical volumes. This may take a while…
Found volume group 「vg0″ using metadata type lvm2
[root@redhat ~]# vgdisplay
— Volume group —
VG Name vg0
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 2
Act PV 2
VG Size 184.00 MB
PE Size 4.00 MB /*分配的塊的大小默認為4M*/
Total PE 46
Alloc PE / Size 0 / 0
Free PE / Size 46 / 184.00 MB
VG UUID kL5CGk-5Odk-r3PK-9q0A-s94h-OHv4-BojBnH增加VG容量到1TB的方法:
vgcreate -s 16M vg0 /dev/hdb1 /dev/hdb2

3.刪除與添加邏輯卷
[root@redhat ~]# vgrece vg0 /dev/hdb2
Removed 「/dev/hdb2″ from volume group 「vg0″
[root@redhat ~]# vgextend vg0 /dev/hdb2
Volume group 「vg0″ successfully extended
五、創建LVM的邏輯卷LV
1.相關命令
lvcreate
lvscan
lvdisplay
lvextend
lvrece
lvremove
lvresize
2.創建邏輯卷LV

[root@redhat ~]# lvcreate -L 184M -n data vg0
Logical volume 「data」 created
[root@redhat ~]# lvscan
ACTIVE 『/dev/vg0/data』 [184.00 MB] inherit
[root@redhat ~]# lvdisplay
— Logical volume —
LV Name /dev/vg0/data
VG Name vg0
LV UUID HNKO5d-yRre-qVnP-ZT8D-fXir-XTeM-r6WjDX
LV Write Access read/write
LV Status available
# open 0
LV Size 184.00 MB
Current LE 46
Segments 2
Allocation inherit
Read ahead sectors 0
Block device 253:0

六、掛載LVM的邏輯卷LV
lv的格式化:
mkfs.ext3 /dev/vg0/data
mdkir /mnt/lvm
mount /dev/vg0/data /mnt/lvm
[root@redhat ~]# ls /mnt/lvm
lost+found
[root@redhat ~]# df -T
文件系統 類型 1K-塊 已用 可用 已用% 掛載點
/dev/hda3 ext3 7625092 2219460 5012040 31% /
/dev/hda1 ext3 101086 10006 85861 11% /boot
tmpfs tmpfs 150108 0 150108 0% /dev/shm
/dev/mapper/vg0-data
ext3 182469 5664 167385 4% /mnt/lvm
七、LVM的容量調整
LVM的容量調整可以在多個環節進行調整,比如:可以在物理卷上,VG上,以及LV上,都可以進行容量的擴展,這也是LVM它的一個優勢所在。
1.添加物理卷
首先應卸載在使用過程中的LV,然後必須保證該磁碟的類型是lvm類型,才能添加進來。

[root@redhat ~]# umount /dev/vg0/data
[root@redhat ~]# pvcreate /dev/hdb3
Physical volume 「/dev/hdb3″ successfully created
[root@redhat ~]# pvscan
PV /dev/hdb1 VG vg0 lvm2 [92.00 MB / 0 free]
PV /dev/hdb2 VG vg0 lvm2 [92.00 MB / 0 free]
PV /dev/hdb3 lvm2 [95.98 MB]
Total: 3 [279.98 MB] / in use: 2 [184.00 MB] / in no VG: 1 [95.98 MB]

2.添加VG的容量
把上面新添加的LVM磁碟加入到vg0卷組中。

[root@redhat ~]# vgextend vg0 /dev/hdb3
Volume group 「vg0″ successfully extended
[root@redhat ~]# vgdisplay
— Volume group —
VG Name vg0
System ID
Format lvm2
Metadata Areas 3
Metadata Sequence No 5
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 0
Max PV 0
Cur PV 3
Act PV 3
VG Size 276.00 MB
PE Size 4.00 MB
Total PE 69
Alloc PE / Size 46 / 184.00 MB
Free PE / Size 23 / 92.00 MB
VG UUID kL5CGk-5Odk-r3PK-9q0A-s94h-OHv4-BojBnH

3.添加入LV中VG增珈的容量
把新加入LVM磁碟的容量加入LV中。
[root@redhat ~]# lvextend -L +92M /dev/vg0/data
Extending logical volume data to 276.00 MB
Logical volume data successfully resized
[root@redhat ~]# lvscan
ACTIVE 『/dev/vg0/data』 [276.00 MB] inherit
[root@redhat ~]# resize2fs -f /dev/vg0/data
resize2fs 1.39 (29-May-2006)
Resizing the filesystem on /dev/vg0/data to 282624 (1k) blocks.
The filesystem on /dev/vg0/data is now 282624 blocks long.
如果不做這一步的話,在實現掛載的時候,發現LV的容量沒有真正的加入進LV卷中,因為相關信息寫入到了磁碟超級塊中。
4.掛載使用
[root@redhat ~]# mount /dev/vg0/data /mnt/lvm
[root@redhat ~]# df
文件系統 1K-塊 已用 可用 已用% 掛載點
/dev/hda3 7625092 2219468 5012032 31% /
/dev/hda1 101086 10006 85861 11% /boot
tmpfs 150108 0 150108 0% /dev/shm
/dev/mapper/vg0-data 273569 6168 256097 3% /mnt/lvm
LVM的卸載
八、LVM的卸載方法
如果不想使用LVM的話,可以卸載它, 卸載的方法與分區的刪除方法類似,就是最後創建的最先刪除。順序如下:
先刪除LV
再刪除VG
最後PV
以前的LVM的分區應用fdisk轉換成其它類型的文件系統,當普通分區使用。
九、LVM的卸載過程
1.umount取消掛載

[root@redhat ~]# df
文件系統 1K-塊 已用 可用 已用% 掛載點
/dev/hda3 7625092 2219468 5012032 31% /
/dev/hda1 101086 10006 85861 11% /boot
tmpfs 150108 0 150108 0% /dev/shm
/dev/mapper/vg0-data 273569 6168 256097 3% /mnt/lvm
[root@redhat ~]# umount /mnt/lvm

2.刪除LV邏輯卷
[root@redhat ~]# lvremove /dev/vg0/data
Do you really want to remove active logical volume 「data」? [y/n]: y
Logical volume 「data」 successfully removed
3.刪除VG卷組
[root@redhat ~]# vgchange -a n vg0
0 logical volume(s) in volume group 「vg0″ now active
說明:把vg0轉換成休眠狀態,實驗中這一步可以不用。
[root@redhat ~]# vgremove vg0
Volume group 「vg0″ successfully removed
4.刪除PV

[root@redhat ~]# pvscan 查看pv的情況
PV /dev/hdb1 lvm2 [95.95 MB]
PV /dev/hdb2 lvm2 [95.98 MB]
PV /dev/hdb3 lvm2 [95.98 MB]
Total: 3 [287.90 MB] / in use: 0 [0 ] / in no VG: 3 [287.90 MB]
[root@redhat ~]# pvremove /dev/hdb1 /dev/hdb2 /dev/hdb3
Attempt to close device 『/dev/cdrom』 which is not open.
Labels on physical volume 「/dev/hdb1″ successfully wiped
Labels on physical volume 「/dev/hdb2″ successfully wiped
Labels on physical volume 「/dev/hdb3″ successfully wiped

5.最後就是用fdisk修改磁碟的類型了。

③ 如何使用LVM卷管理Linux系統中的磁碟

LVM邏輯卷管理器是對Linux系統中對存儲資源進行管理的一種機制,部署LVM邏輯卷管理器需要依次對對物理卷、卷組和邏輯卷的逐個配置,常見的命令分別包括有:
功能/命令 物理卷管理 卷組管理 邏輯卷管理
掃描 pvscan vgscan lvscan
建立 pvcreate vgcreate lvcreate
顯示 pvdisplay vgdisplay lvdisplay
刪除 pvremove vgremove lvremove
擴展 vgextend lvextend

為避免實驗之間互相沖突,請您自行還原虛擬機到最初始狀態,並在虛擬機中添加兩塊新硬碟設備後開機,如圖7-7所示:

圖7-7 在虛擬機中添加一塊新的硬碟設備
在虛擬機中添加兩塊新硬碟設備的目的是為了更好的向同學們演示LVM邏輯卷管理器對於讓用戶無需關心底層物理硬碟設備的特性,咱們將會對這兩塊新的硬碟先進行創建物理卷操作,可以簡單理解成讓硬碟設備支持了LVM技術,然後將兩塊硬碟進行卷組合並,卷組的名稱可以由您來自定義,接下來是將合並後的卷組根據需求再切割出一個約為150M的邏輯卷設備,最後將這個邏輯卷設備格式化成XFS文件系統後掛載使用。現在知道大致的流程後就可以,劉遄老師還會對下面每一個步驟再做一些簡單的描述。
第1步:讓新添加的兩塊硬碟設備支持LVM邏輯卷管理器技術:
[root@linuxprobe ~]# pvcreate /dev/sdb /dev/sdc
Physical volume "/dev/sdb" successfully created
Physical volume "/dev/sdc" successfully created

第2步:將兩塊硬碟設備都加入到storage卷組中,然後查看下卷組的狀態:
[root@linuxprobe ~]# vgcreate storage /dev/sdb /dev/sdc
Volume group "storage" successfully created
[root@linuxprobe ~]# vgdisplay
--- Volume group ---
VG Name storage
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 2
Act PV 2
VG Size 39.99 GiB
PE Size 4.00 MiB
Total PE 10238
Alloc PE / Size 0 / 0 Free PE / Size 10238 / 39.99 GiB
VG UUID KUeAMF-qMLh-XjQy-ArUo-LCQI-YF0o-pScxm1
………………省略部分輸出信息………………

第3步:切割出一個約為150M的邏輯卷設備:
同學們需要注意下切割單位的問題,在LVM邏輯卷管理器對LV邏輯卷的切割上面有兩種計量單位,第一種是常見以-L參數來以容量單位為對象,例如使用-L 150M來生成一個大小為150M的邏輯卷,還可以使用-l參數來指定要使用PE基本單元的個數,默認每個PE的大小為4M,因此允許使用-l 37來生成一個大小為37*4M=148M的邏輯卷:
[root@linuxprobe ~]# lvcreate -n vo -l 37 storage
Logical volume "vo" created
[root@linuxprobe ~]# lvdisplay
--- Logical volume ---
LV Path /dev/storage/vo
LV Name vo
VG Name storage
LV UUID D09HYI-BHBl-iXGr-X2n4-HEzo-FAQH-HRcM2I
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2017-02-01 01:22:54 -0500
LV Status available
# open 0
LV Size 148.00 MiB
Current LE 37
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:2
………………省略部分輸出信息………………

第4步:將生成好的邏輯卷格式化後掛載使用:
Linux系統會把LVM邏輯卷管理器中的邏輯卷設備存放在/dev設備目錄中(實際上是做了一個符號鏈接,但讀者們無需關心),同時會以卷組的名稱來建立一個目錄,其中保存有邏輯卷的設備映射文件。
[root@linuxprobe ~]# mkfs.ext4 /dev/storage/vo
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=1024 (log=0)
Fragment size=1024 (log=0)
Stride=0 blocks, Stripe width=0 blocks
38000 inodes, 151552 blocks
7577 blocks (5.00%) reserved for the super user
First data block=1
Maximum filesystem blocks=33816576
19 block groups
8192 blocks per group, 8192 fragments per group
2000 inodes per group
Superblock backups stored on blocks:
8193, 24577, 40961, 57345, 73729
Allocating group tables: done
Writing inode tables: done
Creating journal (4096 blocks): done
Writing superblocks and filesystem accounting information: done
[root@linuxprobe ~]# mkdir /linuxprobe
[root@linuxprobe ~]# mount /dev/storage/vo /linuxprobe

第5步:查看掛載狀態,並寫入到配置文件永久生效:
[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 905M 0 905M 0% /dev
tmpfs 914M 140K 914M 1% /dev/shm
tmpfs 914M 8.8M 905M 1% /run
tmpfs 914M 0 914M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/mapper/storage-vo 145M 7.6M 138M 6% /linuxprobe
[root@linuxprobe ~]# echo "/dev/storage/vo /linuxprobe ext4 defaults 0 0" >> /etc/fstab

7.2.2 擴容邏輯卷
雖然咱們的卷組是由兩塊硬碟設備共同組成的,但用戶使用存儲資源時感知不到底層硬碟的結構,也不用關心底層是由多少塊硬碟組成的,只要卷組中的資源足夠就可以一直為邏輯卷擴容,擴展前請一定要記得卸載設備和掛載點的關聯。
[root@linuxprobe ~]# umount /linuxprobe

第1步:將上個實驗中的邏輯卷vo擴展至290M:
[root@linuxprobe ~]# lvextend -L 290M /dev/storage/vo
Rounding size to boundary between physical extents: 292.00 MiB
Extending logical volume vo to 292.00 MiB
Logical volume vo successfully resized

第2步:檢查磁碟完整性,重置硬碟容量:
[root@linuxprobe ~]# e2fsck -f /dev/storage/vo
e2fsck 1.42.9 (28-Dec-2013)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
/dev/storage/vo: 11/38000 files (0.0% non-contiguous), 10453/151552 blocks
[root@linuxprobe ~]# resize2fs /dev/storage/vo
resize2fs 1.42.9 (28-Dec-2013)
Resizing the filesystem on /dev/storage/vo to 299008 (1k) blocks.
The filesystem on /dev/storage/vo is now 299008 blocks long.

第3步:重新掛載硬碟設備並查看掛載狀態:
[root@linuxprobe ~]# mount -a
[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 985M 0 985M 0% /dev
tmpfs 994M 80K 994M 1% /dev/shm
tmpfs 994M 8.8M 986M 1% /run
tmpfs 994M 0 994M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/mapper/storage-vo 279M 2.1M 259M 1% /linuxprobe

7.2.3 縮小邏輯卷
相比於擴容邏輯卷來講,對邏輯卷的縮小操作存在著更高丟失數據的風險,所以在生產環境中同學們一定要留心記得提前備份好數據,另外Linux系統規定對LVM邏輯卷的縮小操作需要先檢查文件系統的完整性,當然這也是在保證咱們的數據安全,操作前記得先把文件系統卸載掉:
[root@linuxprobe ~]# umount /linuxprobe

第1步:檢查文件系統的完整性:
[root@linuxprobe ~]# e2fsck -f /dev/storage/vo
e2fsck 1.42.9 (28-Dec-2013)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
/dev/storage/vo: 11/74000 files (0.0% non-contiguous), 15507/299008 blocks

第2步:將LV邏輯卷的容量減小到120M:
[root@linuxprobe ~]# resize2fs /dev/storage/vo 120M
resize2fs 1.42.9 (28-Dec-2013)
Resizing the filesystem on /dev/storage/vo to 122880 (1k) blocks.
The filesystem on /dev/storage/vo is now 122880 blocks long.
[root@linuxprobe ~]# lvrece -L 120M /dev/storage/vo
WARNING: Recing active logical volume to 120.00 MiB
THIS MAY DESTROY YOUR DATA (filesystem etc.)
Do you really want to rece vo? [y/n]: y
Recing logical volume vo to 120.00 MiB
Logical volume vo successfully resized

第3步:將文件系統重新掛載並查看系統狀態:
[root@linuxprobe ~]# mount -a
[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 985M 0 985M 0% /dev
tmpfs 994M 80K 994M 1% /dev/shm
tmpfs 994M 8.8M 986M 1% /run
tmpfs 994M 0 994M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/mapper/storage-vo 113M 1.6M 103M 2% /linuxprobe

7.2.4 邏輯卷快照
除此之外LVM邏輯卷管理器還具備有「快照卷」的功能,這項功能很類似於我們其他軟體的還原時間點功能。例如我們可以對某一個LV邏輯卷設備做一次快照,如果今後發現數據被改錯了,咱們可以將之前做好的快照卷進行覆蓋還原,LVM邏輯卷管理器的快照功能有兩項特點,第一是快照卷的大小應該盡量等同於LV邏輯卷的容量,第二是快照功能僅一次有效,一旦被還原後則會被自動立即刪除。我們首先應當查看下卷組的信息:
[root@linuxprobe ~]# vgdisplay
--- Volume group ---
VG Name storage
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 4
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 1
Max PV 0
Cur PV 2
Act PV 2
VG Size 39.99 GiB
PE Size 4.00 MiB
Total PE 10238
Alloc PE / Size 30 / 120.00 MiB Free PE / Size 10208 / 39.88 GiB
VG UUID CTaHAK-0TQv-Abdb-R83O-RU6V-YYkx-8o2R0e
………………省略部分輸出信息………………

通過卷組的輸出信息可以很清晰的看到卷組中已用120M,空閑資源有39.88G,接下來咱們在邏輯卷設備所掛載的目錄中用重定向寫入一個文件吧:
[root@linuxprobe ~]# echo "Welcome to Linuxprobe.com" > /linuxprobe/readme.txt
[root@linuxprobe ~]# ls /linuxprobe
total 14
drwx------. 2 root root 12288 Feb 1 07:18 lost+found
-rw-r--r--. 1 root root 26 Feb 1 07:38 readme.txt

第1步:使用-s參數來生成一個快照卷,使用-L參數來指定切割的大小,另外要記得在後面寫上這個快照是針對那個邏輯卷做的。
[root@linuxprobe ~]# lvcreate -L 120M -s -n SNAP /dev/storage/vo
Logical volume "SNAP" created
[root@linuxprobe ~]# lvdisplay
--- Logical volume ---
LV Path /dev/storage/SNAP
LV Name SNAP
VG Name storage
LV UUID BC7WKg-fHoK-Pc7J-yhSd-vD7d-lUnl-TihKlt
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2017-02-01 07:42:31 -0500
LV snapshot status active destination for vo
LV Status available
# open 0
LV Size 120.00 MiB
Current LE 30
COW-table size 120.00 MiB
COW-table LE 30
Allocated to snapshot 0.01%
Snapshot chunk size 4.00 KiB
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:3
………………省略部分輸出信息………………

第2步:咱們在LV設備卷所掛載的目錄中創建一個100M的垃圾文件,這樣再來看快照卷的狀態就會發現使用率上升了:
[root@linuxprobe ~]# dd if=/dev/zero of=/linuxprobe/files count=1 bs=100M
1+0 records in
1+0 records out
104857600 bytes (105 MB) copied, 3.35432 s, 31.3 MB/s
[root@linuxprobe ~]# lvdisplay
--- Logical volume ---
LV Path /dev/storage/SNAP
LV Name SNAP
VG Name storage
LV UUID BC7WKg-fHoK-Pc7J-yhSd-vD7d-lUnl-TihKlt
LV Write Access read/write
LV Creation host, time localhost.localdomain, 2017-02-01 07:42:31 -0500
LV snapshot status active destination for vo
LV Status available
# open 0
LV Size 120.00 MiB
Current LE 30
COW-table size 120.00 MiB
COW-table LE 30
Allocated to snapshot 83.71%
Snapshot chunk size 4.00 KiB
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:3

第3步:為了校驗SNAP快照卷的效果,咱們需要對邏輯卷進行快照合並還原操作,在這之前記得先卸載掉邏輯卷設備與目錄的掛載~
[root@linuxprobe ~]# umount /linuxprobe
[root@linuxprobe ~]# lvconvert --merge /dev/storage/SNAP
Merging of volume SNAP started.
vo: Merged: 21.4%
vo: Merged: 100.0%
Merge of snapshot into logical volume vo has finished.
Logical volume "SNAP" successfully removed

第4步:快照卷會被自動刪除掉,並且剛剛在邏輯卷設備被快照後再創建出來的100M垃圾文件也被清除了:
[root@linuxprobe ~]# mount -a
[root@linuxprobe ~]# ls /linuxprobe/
lost+found readme.txt

看下《Linux就該這么學》第7章節吧,第7章 使用RAID與LVM磁碟陣列技術

④ linux下怎樣以lvm的方式掛載到swap分區上

創建swap 分區
注意操作順序和操作後的結果
1、將以分區格式化為swap類型
# mkswap /dev/VolGroup00/swaplvm
Setting up swapspace version 1, size = 54521 kB
2、在激活swap分區之前,查看一下swap相關信息:
# free
total used free shared buffers cached
Mem: 1025520 708440 317080 0 29284 385888
-/+ buffers/cache: 293268 732252
Swap: 2088952 0 2088952
# swapon -s
Filename Type Size Used
Priority
/dev/mapper/VolGroup00-LogVol04 partition 2088952 0 -1
3、激活swap分區
# swapon /dev/VolGroup00/swaplvm
4、激活之後的信息
# free
total used free shared buffers cached
Mem: 1025520 708560 316960 0 29344 385884
-/+ buffers/cache: 293332 732188
Swap: 2142192 0 2142192

# swapon -s
Filename Type Size Used
Priority
/dev/mapper/VolGroup00-LogVol04 partition 2088952 0 -1
/dev/mapper/VolGroup00-swaplvm partition 53240 0 -4
備註:
Swap 交換分區是一個特殊的文件系統,該文件系統的基本作用就是可以使操作系統
將一部分駐留於內存而暫時不操作的進程轉移到 swap 分區中而騰出物理內存給新的需要
執行的進程。
紅帽官方推薦的使用交換分區的比例是:
2G 物理內存以下,交換分區為物理內存的 1.5-2 倍
4G 以上物理內存推薦交換分區與物理內存為 1:1。

⑤ linux怎麼將新增磁碟作為lvm

linux磁碟配額,RAID,LVM磁碟配額,就是妥善的分配系統資源quota比較常用的情況針對 www server 例如:每個人的網頁空間的容量限制針對 mail server 例如:每個人的郵件空間限制針對 file server 例如:每個人最大的可用網路磁碟空間quota的使用限制僅針對整個文件系統:如果你的/dev/sda5是掛載在/home底下,那麼在/home底下的所在目錄都會受到限制核心必須支持quota : 也就是說linux核心必須支持quota這個功能才行,而由舊版本的quota可以籍由convertquota這個程序來轉換成新幫本的aquota的只針對一般身份使用者有效:例如root就不能設定quota,因為整個系統的數據幾乎都是他的所以不能針對【某個目錄】來進行quota的設計,但可以針對【某個文件系統】來設定,quota的規范設定項目:quota針對整個文件系統的限制項目主要分為底下幾個部分‘1可以管理inode(檔案數量)和block的數量(管理用戶磁碟容量的限制)2柔性勸導與硬性規定(soft/hard) ,通常hard限制要比soft高,若限制項目為block,可以限制hard為500MBytes而soft為400MBytehard代表硬性規定,絕對不允許超個的限制值,如若超過則系統會鎖住該用戶的磁碟使用權soft 代表軟性規定,如果超過了軟性的限制,但是低於硬性的限制,每次用戶登錄系統時,系統會主動發出磁碟即將爆滿的警告信息,且會給予一個寬限時間,不過,若使用者在寬限時間倒數期間將容量再次降低與soft限制之下,則寬限時間會停止3會倒數計時的寬限時間 這個寬限時間用於磁碟用量在soft到hard之間時,才會出現,soft就是為了提醒用戶注意這個磁碟配額的問題一般寬限時間為7天,如果7天內你都不進行任何磁碟管理,那麼soft限制值會即可取代hard限制來作為quota的限制,此時你的磁碟使用權就會被封鎖住而無法新增檔案了一個quota實例有五個賬戶,且每個用戶的初始群組都是myquotagrp,其他的帳號屬性則使用默認值,每個用戶能夠使用300MBytes的磁碟使用量(hard)250MBytes的磁碟使用量(soft),群組限制,針對myquotagrp這個群組最多僅能使用1GByte的容量,這個時候就會使群組的設定和用戶的設定產生一定的問題,最後那個寬限時間為14天在操作之前,先得查看一下,/home是否是一個獨立的filesystemdf -h /home,接著查看文件系統的類型,由於VFAT文件系統並不支持linux Quota的功能,使用mount grep home來查看/home的文件系統類型接下來可以使用如下的方法加入quota的支持mount -o remount,usrquota,grpquota /home,接著再執行mount grep home就可以看到這個文件系統上已經加入usrquota,grpquota的支持到你所想要設定的系統中了,另外使用者與群組的quota文件系統支持的參數為: usrquota grpquota若希望下次開機的時候自動的掛載該文件系統,可以直接修改/etc/fstab LABEL=/home /home ext3 defaults,usrquota,grpquota 1 2mount -a 的意思是將fstab中的文件系統重新的掛載接著建立quota記錄文件使用quotacheck:掃描文件系統並建立Quota的記錄文件quotacheck [-avugfM] [/mount_point]選項和參數-a :掃瞄所有在 /etc/mtab 內,含有 quota 支持的 filesystem,加上此參數後,-u : 針對用戶掃描檔案與目錄的使用情況,會建立aquota.user-g :針對群組掃描檔案與目錄的使用情況,會建立 aquota.group-v :顯示掃瞄過程的信息;-f :強制掃瞄文件系統,寫入新的 quota 配置文件 (危險)-M :強制以讀寫的方式掃瞄文件系統,只有在特殊情況下才會使用。quotacheck -avug僅針對整個系統含有usrquota, grpquota參數的文件系統進行quotacheck掃描由於/home目錄支持usrquota和grpquota,所以搜索結果會將兩個記錄文件放在/home底下,這兩個檔案就是quota最重要的信息因為特殊需求需要強制掃瞄已掛載的文件系統時,使用quotacheck -avug -mf這兩個文件不是純文本,是quota自己的數據文件,且該檔案會一直變動,這個因為當你對/home這個文件系統進行操作時你操作的結果會影響磁碟,所以當然會記載到這兩個檔案中的,所以要建立aquota.user 和 aquota.group 記得使用quotacheck指令不要手動編輯製作好quota配置文件,接著要啟動quota了,使用quotaon和quotaoff進行開啟和關閉啟動quota的服務-u :針對使用者啟動 quota (aquota.user)-g :針對群組啟動 quota (aquota.group)-v :顯示啟動過程的相關訊息;-a :根據 /etc/mtab 內的 filesystem 設定啟動有關的 quota ,若不加 -a 的話, 則後面就需要加上特定的那個 filesystem 喔!由於我們要啟動usr/group的quota,所以執行quotaon -avug ,由於只有在第一次啟動quota時才需要進行這個命令,因此等到下次重啟系統時系統的/etc/rc.d/rc.sysinit這個初始化腳本就會自動的下達這個命令了,因此你只要在這次實例中進行一次即可,未來不需要自行啟動quota的quotaoff :關閉 quota 的朋務-a :全部的 filesystem 的 quota 都關閉 (根據 /etc/mtab)-u :僅針對後面接的那個 /mount_point 關閉 user quota-g :僅針對後面接的那個 /mount_point 關閉 group quotaedquota :編輯賬號/群組的限值與寬限時間edquota [-u username] [-g groupname] -u進入quota的編輯頁面去設定username的限制值edquota -t <==修改寬限時間 -g 可以進入quota的編輯頁面去設定groupname的限制值edquota -p 範本賬號 -u 新賬號 將範本賬號這個人的quota限制值復制給新帳號,進入quota的編輯頁面去設定username的限制值例如設定myquota1這個用戶的限額設定 執行命令edquota -u myquota1畫面中的第一行為說明針對哪個帳號進行quota的限制設定,第二行則是標頭行,共分七個欄位 1,文件系統或分區2 磁碟容量(blocks) 3soft 磁碟容量(blocks) 4 hard block的hard限制值 5檔案數量 6 inode的soft限制值 7 inode的hard限制值當 soft/hard 為 0 時,表示沒有限制的意思,目前先設定號myquota1,接著執行 edquota -p myquota1 -u myquota2 賦給myquota2 一直到myquota5就行了接著再設定去組 edquota -g myquotagrp ,最後edquota -t 來將寬限時間改為14天查看限制值的報表 quota的報表主要有兩種模式,一種是針對每個個人或群組quota指令,一個是針對整個文件系統的repquota指令,先看quota : 單一用戶的quota報表quota [-gvs] [groupname]選項和參數:-u : 後面可以接username,表示顯示該用戶的quota限制值,若不接username表示顯示出執行者的quota的限制值-g : 後面可接 groupname ,表示顯示出該群組的 quota 限制值。-v :顯示每個用戶在 filesystem 的 quota 值;-s :使用 1024 為倍數來指定單位,會顯示如 M 之類的單位!quota -uvs myquota1 myquota2的含義是顯示這兩個用戶在所以文件系統中的quota值,大小以M為單位顯示顯示出 myquotagrp 的群組限額quota -gvs myquotagrp 顯示這個群組在所有文件系統中的quota值,大小以M為單位顯示如果要針對整個 filesystem 列出報表時, 那個可愛的 repquota 就派上用場啦!repquota :針對文件系統的限額做報表repquota -a [-vugs]-a :直接到 /etc/mtab 搜尋具有 quota 標志的 filesystem ,並報告 quota 的結果;-v :輸出的數據將含有 filesystem 相關的細部信息;-u :顯示出用戶的 quota 限值 (這是默認值);-g :顯示出個別群組的 quota 限值。-s :使用 M, G 為單位顯示結果查詢本案例中所有使用者的 quota 限制情況:執行repquota -auvs,查詢出mtab中含有quota的文件系統的所有用戶的限定值,輸出的結果含有firstsystem相關的細部信息並且以M,G為單位顯示結果quota的測試與管理首先建置一個270MB的大檔案,觀察結果dd if=/dev/zero of=bigfile bs=1M count=250 接著會看到警告warning的訊息repquota -auv 查看所有/etc/mtab文件系統中,用戶的磁碟配額的使用情況,並且將文件系統的相關細部信息一並輸出此時看到grace出現,並且開始倒數了此時再建立一個大檔案,讓總容量超過300M,接著看到的訊息不一樣了,提示沒有辦法寫入了, -sk 查看果然到了極限了如果在寬限時間歸零之前不做任何處理,那麼到歸零之後通過repquota -au進行查看時,就會發現grace的部分變成none啦,不繼續倒數了有時候使用者不知道系統出了什麼問題,最好寄一些警告信(email)給用戶比較妥當,透過warnquota來處理即可warnquota :對超過限額者發出警告信這是根據/etc/warnquota.conf的設定,然後找出系統上面quota用量超過soft的賬號,透過email的功能將警告信發送到用戶的電子郵件信箱warnquota不會自動執行,我們需要手動執行,單純執行warnquota之後,他會發送兩封信出去,一封給root一封給這個使用者執行warnquota可能不會產生任何訊息以及信件,因為只有當使用者quota有超過soft,warnquota才會發送警告信信件內容中,包括標題、信息內容說明、簽名文件等數據放在/etc/warnquota中,你也可以更改其中的內容不過這個發送信件的方式並不適用在/var/spool/mail也爆掉的quota控管中,因為這個系統的容量已經爆掉了,那麼新的信件當然就收不下來的,我們需要讓系統自動的執行warnquotavi /etc/cron.daily/warnquota 編輯每天的執行任務,讓固定的時間去執行/usr/sbin/warnquota指令chmod 755 /etc/cron.daily/warnquotasetquota :直接於指令中設定 quota 限額如果你想要使用 script 的方法來建立大量的賬號,並且所有的賬號都在建立時就給予 quota可以有兩個方法1 先建立一個原始quota 使用 edquota -p quota賬號 -u new賬號, 寫入腳本中2 直接以 setquota 建立用戶的 quota 設定值不同於edquota是呼叫vi來進行設定,setquota直接由指令輸入所必須要的各項限制值命令結構:setquota [-u-g] 名稱 block(soft) block(hard) inode(soft) inode(hard)quota -uv myquota5setquota -u myquota5 100000 200000 0 0 /homequota -uv myquota5這樣可以看到結果的改變不更改既有系統的 quota 實例例如設定郵件主機,原先沒有規劃將信箱所在的/var/spool/mail 目錄獨立成一個parition,那麼可以通過讓使用者的郵件信箱與家目錄的總體磁碟使用量為固定,由於/home以及/var/spool/mail根本不在一個文件系統中1. 將 /var/spool/mail 這個目錄完整的移懂到 /home 底下;2. 利用 ln -s /home/mail /var/spool/mail 來建立鏈接數據;3. 將 /home 進行 quota 限額設定

⑥ linux LVM操作問題

解決linux下掛載LVM重名問題在linux下使用新硬碟安裝系統,安裝好以後再掛載原來的硬碟,分區格式全為系統 默認分區,系統默認使用的是lvm格式,並且默認的卷都是 VolGroup00 使用 pvs 查看顯示如下:[root@localhost ~]# pvsPV VG Fmt Attr PSize PFree/dev/sda2 VolGroup00 lvm2 a- 136.62G 0/dev/sdb2 VolGroup00 lvm2 a- 136.62G 0發現可以正確認別到兩個VG,但是同名,如何掛載呢?解決辦法是,將原來的VG更名,解決沖突即可掛載。 重命名格式為:vgrename VolGroup00 VolGroup01此時會提示:[root@localhost ~]# vgrename VolGroup00 VolGroup01Found more than one VG called VolGroup00. Please supply VG uuid.原因是存在兩個 VolGroup00,修改的方法他已經提示了要指定 VG uuid即可。 查看VG uuid的命令為:[root@localhost ~]# vgs -vFinding all volume groupsFinding volume group VolGroup00Finding volume group VolGroup00VG Attr Ext #PV #LV #SN VSize VFree VG UUIDVolGroup00 wz--n- 32.00M 1 2 0 136.62G 0 dcHa6G-abU2-Xfq8-EPBm-jBLj-sf18-O5uH0UVolGroup00 wz--n- 32.00M 1 2 0 136.62G 0 OF8g7h-PQJB-9D9z-yPxn-1kfY-Advq-YbNHJ9 查到VG uuid以後,再次執行改名:[root@localhost ~]# vgrename OF8g7h-PQJB-9D9z-yPxn-1kfY-Advq-YbNHJ9 VolGroup01Volume group VolGroup00 still has active LVs 修改成功以後,再執行:lvscan[root@localhost ~]# lvscaninactive '/dev/VolGroup01/LogVol00' [130.84 GB] inheritinactive '/dev/VolGroup01/LogVol01' [5.78 GB] inheritACTIVE '/dev/VolGroup00/LogVol00' [130.84 GB] inheritACTIVE '/dev/VolGroup00/LogVol01' [5.78 GB] inherit可以看到新修改的VolGroup01是inactive狀態。再使用vgchange 載入 VolGroup01[root@localhost ~]# vgchange -ay /dev/VolGroup012 logical volume(s) in volume group VolGroup01 now active 最後 mount 就可以[root@localhost ~]# mount /dev/VolGroup01/LogVol00 /mnt/old至此,全部完成

⑦ 如何在Linux中直接掛載LVM分區

首先,用下面的命令檢查可用的卷組:
$ sudo pvs
PV VG FmtAttrPSizePFree
/dev/sdb2 vg_ezsetupsystem40a8f02fadd0 lvm2 a--237.60g0

物理卷的名字和卷組的名字分別在PV和VG列的下面。本例中,只有一個創建在dev/sdb2下的組「vg_ezsetupsystem40a8f02fadd0」。
接下來檢查卷組中存在的邏輯卷,使用lvdisplay命令:
$ sudo lvdisplay <volume-group-name>
使用lvdisplay顯示了可用卷的信息(如:設備名、卷名、卷大小等等)。
$ sudo lvdisplay /dev/vg_ezsetupsystem40a8f02fadd0
---Logical volume ---
LV Path/dev/vg_ezsetupsystem40a8f02fadd0/lv_root
LV Name lv_root
VG Name vg_ezsetupsystem40a8f02fadd0
LV UUID imygta-P2rv-2SMU-5ugQ-g99D-A0Cb-m31eet
LV WriteAccess read/write
LV Creation host, time livecd.CentOS,2015-03-1618:38:18-0400
LV Status available
# open 0
LV Size50.00GiB
Current LE 12800
Segments1
Allocation inherit
Read ahead sectors auto
- currently set to 256
Block device 252:0

⑧ linux lvm新添加硬碟怎麼掛載

我看到你的/dev/sda上有兩個分區,一個500M的sda1,一個116G的sda2, 其中sda2是LVM。


你的描述有些含糊,我下面的話,是基於這些假設:


  1. 你知道什麼是LVM。

  2. 你的/dev/sda2作為一個LVM分區,上面已經建立了Volume Groups, 並且在VG上建立了Logic Volumes,並且已經格式化了LV,在LV上存儲了數據。

  3. 你目前不清楚如何掛載/dev/sda2上的LV,是你提問的原因。




我今天恰好遇到與你類似的情況:
掛載一個不是我建立的LVM分區上的LV。
因為我不知到該LVM上有哪些VG,又有哪些LV。所以我就古格了一下 "how_to_mount_lvm_partitions"
與你分享如下,希望對你有幫助
#讓你的伺服器,識別外來LVM上的VG、LV

sudovgscan--mknodes
sudovgchange-ay


#輸出LV信息
sudolvscan


#使用lvscan輸出的信息,利用mount,掛載LV到目錄
:
Code:
sudomkdir/mnt/<somename>
sudomount/dev/VolGroup<xx>/LogVol<>/mnt/<somename>
#下面用我的磁碟,給你舉個例子
lvscan
ACTIVE '/dev/lvm2/raring' [12.00 GiB] inherit
ACTIVE '/dev/lvm2/suse' [12.00 GiB] inherit
ACTIVE '/dev/lvm2/swap1' [2.00 GiB] inherit
ACTIVE '/dev/lvm2/swap2' [2.00 GiB] inherit
ACTIVE '/dev/lvm2/arch' [12.11 GiB] inherit


其中lvm2是VG
/dev/lvm2/後的是LV,相當於普通磁碟的分區。我們下面掛載raring分區到/mnt目錄:

mount /dev/lvm2/raring /mnt


#使用ls /mnt就可以查看掛載到/mnt目錄的文件了。另外,"資料說,需要修改配置文件",應該說的是/etc/fstab,對吧?這個文件告訴Linux,啟動時要掛載哪些分區。如果你的伺服器不需要關機,或則你喜歡手動掛載磁碟,那麼就不需要修改這個文件。

⑨ 新裝 linux 伺服器,掛載原有多路徑下lvm磁碟

先用fdisk -l 查看目前磁碟掛載情況

嘗試掛載 /dev/xvdb 到 /data 目錄

mkdir /data

mount /dev/xvdb /data


如果報錯:

mount:you must specify the filesystem type

就格式化當前的設備

mkfs.ext4 /dev/xvdb


注意:首先 df -T -h 查看當前被掛載的設備的文件系統類型

Filesystem Type Size Used Avail Use% Mounted on

/dev/mapper/VolGroup-lv_root

ext4 16G 795M 14G 6% /

tmpfs tmpfs 5.8G 0 5.8G 0% /dev/shm

/dev/xvda1 ext4 485M 32M 429M 7% /boot

如果其他的硬碟是 ext3 就使用 mkfs.ext3 /dev/xvdb

如果是ext4 就使用 mkfs.ext3 /dev/xvdb然後再次嘗試掛載設備

mount /dev/xvdb /data

注意:這種掛在為臨時掛在,在系統重啟之後掛載信息就會丟失,為了解決這個問題就必須要修改/etc/fstab 這個文件,添加信息進去

/dev/xvdb /opt ext4 defaults 1 2


fstab中存放了與分區有關的重要信息,其中每一行為一個分區記錄,每一行又可分為六個部份,下面以/dev/hda7 / ext2 defaults 1 1為例逐個說明:

  1. 第一項是您想要mount的儲存裝置的實體位置,如hdb或如上例的/dev/hda7。設備名或者設備卷標名,(/dev/sda10 或者 LABEL=/)[源設備位置]

  2. 2. 第二項就是您想要將其加入至哪個目錄位置,如/home或如上例的/,這其實就是在安裝時提示的掛入點。設備掛載目錄(例如上面的「/」或者「/mnt/D/」)[將要掛載到的位置]

  3. 3. 第三項就是所謂的local filesystem,其包含了以下格式:如ext、ext2、msdos、iso9660、nfs、swap等,或如上例的ext2,可以參見 /prco/filesystems說明。設備文件系統(例如上面的「ext3」或者「vfat」)[源設備的文件系統格式】、 4. 第四項就是mount時,所要設定的狀態,如ro(只讀)或如上例的defaults(包括了其它參數如rw, suid, dev, exec, auto, nouser, and async),可以參見「mount nfs」。(看幫助man mount)

  4. 對於已經掛載好的設備,例如上面的/dev/sda2,現在要改變掛載參數,這時可以不用卸載該設備,而可以使用下面的命令(沒有掛載的設 備,remount 這個參數無效)#mount /mnt/D/ -o remount,ro (改defaults為ro)為了安全起見,可以指明其他掛載參數,例如:

  5. noexec(不允許可執行文件可執行,但千萬不要把根分區掛為noexec,那就無法使用系統了,連mount 命令都無法使用了,這時只有重新做系統了!nodev(不允許掛載設備文件)nosuid,nosgid(不允許有suid和sgid屬 性)nouser(不允許普通用戶掛載)

  6. 5. 第五項是提供DUMP功能,在系統DUMP時是否需要BACKUP的標志位,其內定值是0。指明是否要備份,(0為不備份,1為要備份,一般根分區要備份)

  7. 6. 第六項是設定此filesystem是否要在開機時做check的動作,除了root的filesystem其必要的check為1之外,其它皆可視需要 設定,內定值是0。指明自檢順序。 (0為不自檢,1或者2為要自檢,如果是根分區要設為1,其他分區只能是2)</ol>

⑩ linux 6.8 怎麼掛載 linux lvm

創建swap 分區 注意操作順序和操作後的結果 1、將以分區格式化為swap類型 # mkswap /dev/VolGroup00/swaplvm Setting up swapspace version 1, size = 54521 kB 2、在激活swap分區之前,查看一下swap相關信息: # free total used free shared b...

閱讀全文

與linux掛載lvm相關的資料

熱點內容
農業app怎麼開通快捷支付 瀏覽:908
pythonredisdict 瀏覽:382
如何攻擊別人網賭伺服器 瀏覽:878
隱私與應用加密的圖案密碼 瀏覽:34
陳情令王一博解壓 瀏覽:35
c編譯器使用說明 瀏覽:703
鄭州前端程序員私活有風險嗎 瀏覽:10
小型螺桿機壓縮機 瀏覽:516
成人解壓最好的方法 瀏覽:48
最小製冷壓縮機 瀏覽:490
xampp支持python 瀏覽:367
深圳周立功單片機 瀏覽:61
圓上點與點之間角度演算法 瀏覽:869
怎麼知道微信關聯了哪些app 瀏覽:702
android事件驅動 瀏覽:888
簽約大屏系統源碼 瀏覽:808
安卓系統怎麼轉入平板 瀏覽:429
安卓手機相機怎麼提取文字 瀏覽:219
如何查看伺服器映射的外網地址 瀏覽:985
圖片刺綉演算法 瀏覽:675