9159金沙官网而是通过一个叫做逻辑卷的东西来对

作者: 操作系统  发布:2019-11-29

有关逻辑卷的别的操作,请看:

大纲

章节简述:

CentOS 6.3下安插LVM(逻辑卷管理)

一、简介

LVM是逻辑盘卷管理(Logical Volume Manager)的简单称谓,它是Linux意况下对磁盘分区实行保管的风度翩翩种机制,LVM是创立在硬盘和分区之上的贰个逻辑层,来拉长磁盘分区管理的灵活性。

LVM的干活原理其实相当的轻松,它正是通过将底层的物理硬盘抽象的包装起来,然后以逻辑卷的主意表现给上层应用。在思想的磁盘管理机制中,大家的上层应用是一向访谈文件系统,从而对底层的物理硬盘实行读取,而在LVM中,其经过对底层的硬盘进行包装,当我们对底层的物理硬盘进行操作时,其不再是对准于分区举办操作,而是通过三个叫做逻辑卷的东西来对其進展底层的磁盘管理操作。比方说小编扩充多少个物理硬盘,此时上层的劳务是深感不到的,因为呈现给上层服务的是以逻辑卷的主意。

LVM最大的风味正是可以对磁盘进行动态管理。因为逻辑卷的尺寸是足以动态调解的,而且不会废弃现成的数量。假若大家新增了硬盘,其也不会改换现存上层的逻辑卷。作为三个动态磁盘管理机制,逻辑卷本事大大升高了磁盘管理的八面驶风。

着力的逻辑卷管理概念:

PV(Physical Volume)- 物理卷
物理卷在逻辑卷管理中处于最尾部,它可以是实际物理硬盘上的分区,也能够是成套物理硬盘,也足以是raid设备。**

VG(Volumne Group)- 卷组
卷创设构在物理卷之上,一个卷组中起码要包罗三个物理卷,在卷组成立今后可动态增多物理卷到卷组中。一个逻辑卷管理系统工程中得以唯有三个卷组,也能够具备多少个卷组。

LV(Logical Volume)- 逻辑卷
逻辑卷创设在卷组之上,卷组中的未分配空间能够用于创建新的逻辑卷,逻辑卷建构后方可动态地增加和紧缩空间。系统中的三个逻辑卷能够归属同贰个卷组,也得以归属差异的八个卷组。

事关图如下:

9159金沙官网 1

PE(Physical Extent)- 物理块

LVM 默许使用4MB的PE区块,而LVM的LV最多仅能含有655三贰11个PE (lvm1 的格式卡塔尔(英语:State of Qatar),因而暗许的LVM的LV最大体积为4M*65534/(1024M/G卡塔尔(قطر‎=256G。PE是漫天LVM 最小的积攒区块,也便是说,其实大家的素材都以由写入PE 来拍卖的。简单来说,这几个PE 就有一些像文件系统里面包车型大巴block 大小。所以调解PE 会影响到LVM 的最大体量!不过,在 CentOS 6.x 未来,由于一直运用 lvm2 的各种格式功效,因而那么些范围已经不设有了。

9159金沙官网 2

二、系统境况

尝试景况:Oracle VM VirtualBox

系统平台:CentOS release 6.3 (Final卡塔尔(قطر‎

mdadm 版本:mdadm - v3.2.6 - 25th October 2012

LVM 版本:lvm2-2.02.100-8.el6.i686

设施项目:分区、物理硬盘、raid 设备

三、磁盘准备

在此篇作品中,大家将效仿raid5、分区、物理硬盘二种档次设备创立VG,raid5 供给四块硬盘,分区和物理硬盘各一块硬盘,还大概有扩大体积时必要起码一块硬盘,所以在虚构机里增多八块硬盘,每块5GB.

9159金沙官网 3

四、安装LVM管理工科具

4.1 检查系统中是还是不是安装了LVM管理工科具

# rpm -qa|grep lvm

4.2 假诺未设置,则使用yum 方式安装

# yum install lvm*

# rpm -qa|grep lvm

9159金沙官网 4

五、新建贰个raid5 设备

运用/dev/sdb, /dev/sdc, /dev/sdd, /dev/sde 四块物理硬盘做软raid模拟。

# mdadm -C /dev/md5 -ayes -l5 -n3 -x1 /dev/sd[b,c,d,e]

9159金沙官网 5

写入RAID配置文件/etc/mdadm.conf 并做适度改过。

# echo DEVICE /dev/sd{b,c,d,e} >> /etc/mdadm.conf

# mdadm –Ds >> /etc/mdadm.conf

详尽请仿效上篇小说:

六、新建贰个分区

动用/dev/sdf 模拟分区。

# fdisk /dev/sdf

# fdisk -l /dev/sdf

9159金沙官网 6

有备无患干活安妥,上边大家使用两种道具/dev/md5、/dev/sdf1、/dev/sdg 来成功LVM实验。

七、创建PV

# pvcreate /dev/md5 /dev/sdf1 /dev/sdg

9159金沙官网 7

查看PV

# pvdisplay

9159金沙官网 8

还能动用命令pvs 和pvscan 查看简略消息。

# pvs

9159金沙官网 9

# pvscan

9159金沙官网 10

八、创建VG

# vgcreate vg0 /dev/md5 /dev/sdf1 /dev/sdg

9159金沙官网 11

表达:vg0 是创办的VG设备的称号,能够随意取;前面接上述的多个器械,也便是把七个器材组合成二个vg0.

查看VG

# vgdisplay

9159金沙官网 12

说明:

VG Name  VG的名称

VG Size  VG的总大小

PE Size  PE的大小,默认为4MB

Total PE  PE的总的数量据,5114 x 4MB = 19.98GB

Free PE / Size  剩余空间尺寸

后生可畏致可以动用命令vgs 和vgscan 查看。

# vgs

9159金沙官网 13

# vgscan

9159金沙官网 14

九、创建LV

# lvcreate -L 5G -n lv1 vg0

9159金沙官网 15

说明:

-L 钦赐制造的LV 的尺寸
-l 钦定创设的LV 的PE 数量
-n LV的名字
上边命令的意味是:从vg0 中分出5G的半空中给lv1 用到

查看LV的信息

# lvdisplay

9159金沙官网 16

说明:

LV Path  LV的路径,全名

LV Name  LV的名字

VG Name  所属的VG

LV Size  LV的大小

再来看VG 的信息

# vgs

9159金沙官网 17

VFree 从19.98g 收缩到了14.98g,别的的5g 被分配到了lv1.

十、格式化LV

# mkfs.ext4 /dev/vg0/lv1

9159金沙官网 18

十生机勃勃、挂载使用

# mkdir /mnt/lv1

# mount /dev/vg0/lv1 /mnt/lv1/

# df –TH

9159金沙官网 19

将挂载音讯写入/etc/fstab

9159金沙官网 20

十七、增加测量试验数据

上边我们将对LVM进行扩大体积和压缩操作,所以向/mnt/lv1中写入测验数据以验证LVM 的磁盘动态管理。

# touch /mnt/lv1/test_lvm_dynamic.disk

# touch /mnt/lv1/test_lvm_dynamic.disk2

# touch /mnt/lv1/test_lvm_dynamic.disk3

# ll /mnt/lv1/

9159金沙官网 21

十二、LVM的扩大容积操作

LVM最大的功利正是能够对磁盘举办动态管理,並且不会抛弃现成的数目。

假设有一天,lv1的使用量达到了百分之七十,需求扩大体积,那大家该如何做啊?

因为vg0中还或然有许多余下空间,所以大家得以从vg0中再分配点空间给lv1。

13.1 LV的扩容

翻看vg0 的盈余容积,还也有14.98g 可用。

9159金沙官网 22

对lv1举办扩大体积。

# lvextend -L +1G /dev/vg0/lv1

9159金沙官网 23

证实:在lv1原有的根底上加码了1G.

翻看未来vg0 的剩下体量,减弱了1G.

9159金沙官网 24

再查看lv1的容积,从5G增到了6G.

9159金沙官网 25

使用df –TH 命令查看实际的磁盘体积。

9159金沙官网 26

察觉实际容积并不曾变动,因为我们的系列还不认得正好增添进去的磁盘的文件系统,所以还供给对文件系统举办扩大体量。

# resize2fs /dev/vg0/lv1

# df –TH

9159金沙官网 27

于今的可用体量已经增到了5.9G。

查阅测量检验数据

9159金沙官网 28

多少常常,对lv1的在线动态扩大容积达成。

还应该有大器晚成种意况,就是只要大家的vg0 空间相当不够用了,怎么办?这时候大家就要求对VG实行扩大体量。

13.2 VG的扩容

VG的扩大体积可以有三种方法,第风流罗曼蒂克种办法是经过增添PV来落到实处,操作如下:

A. 创立PV,使用/dev/sdh 来创立一个PV。

9159金沙官网 29

B. 扩容VG

现在的vg0 容量为19.98g.

9159金沙官网 30

# vgextend vg0 /dev/sdh

# vgs

9159金沙官网 31

今昔vg0 的容积为24.97g, 增添了5GB,即一块物理硬盘的容积,VG扩大容积成功。

第三种艺术是因此扩大RAID设备的体量来直接对VG进行扩大体量。这种艺术在上黄金时代篇小说中有介绍,这里不再赘述,须要在乎的地点是,/dev/md5 的深浅变化后,供给调解PV的轻重,操作如下:

# pvresize /dev/md5

9159金沙官网 32

十三、LVM的滑坡操作

减掉操作供给离线管理。

14.1 LV的缩减

A. umount 文件系统

9159金沙官网 33

B. 裁减文件系统

# resize2fs /dev/vg0/lv1 4G

9159金沙官网 34

升迁供给先运营磁盘检查。

C. 检查磁盘

# e2fsck –f /dev/vg0/lv1

9159金沙官网 35

D. 再次实践减削操作

9159金沙官网 36

压缩文件系统成功,上边减削LV的大小。

E. 缩减LV

# lvreduce /dev/vg0/lv1 –L 4G

9159金沙官网 37

证实:Step E 和Step D 减削的分寸必得保持后生可畏致,这里的4G是裁减到的尺寸;尽管使用的是"-4G",则意味着体积收缩多少的情趣。

F. 挂载查看

9159金沙官网 38

LV 裁减成功。

G. 查看测量试验数据

9159金沙官网 39

多少平常。

14.2 VG的缩减

A. umount 文件系统

9159金沙官网 40

B. 查看当前的PV实际情况

9159金沙官网 41

C. 将/dev/sdg 从vg0 中移除

# vgreduce vg0 /dev/sdg

9159金沙官网 42

D. 再度查看PV情形

9159金沙官网 43

/dev/sdg 已经不归于vg0了。

E. 查看vg0 的情况

9159金沙官网 44

vg0 的大小减弱了5GB.

VG 减削成功。

十五、删除LVM

设若要透顶的来移除LVM的话,供给把创立的手续反过来操作。

15.1 umount 文件系统

9159金沙官网 45

15.2 移除LV

# lvremove /dev/vg0/lv1

9159金沙官网 46

15.3 移除VG

# vgremove vg0

9159金沙官网 47

15.4 移除PV

# pvremove /dev/md5 /dev/sdf1 /dev/sdg /dev/sdh

9159金沙官网 48

LVM 移除成功。

十六、LVM 快照(snapshot)

快速照相正是将及时的系统音讯记录下来,就相同照相相符,将来若有任何材料转移了,则原有材料会被移位到快速照相区,未有被退换的区域则由快速照相区与档案系统共享。

9159金沙官网 49

LVM 系统快速照相区域的备份暗指图(虚线为档案系统,长虚线为快速照相区卡塔尔国

左图为开始的生龙活虎段时代创建种类快速照相区的气象,LVM 会预先留下三个区域 (左图的侧边多少个PE 区块卡塔尔(قطر‎作为数据贮存处。那时候快速照相区内并不曾别的数据,而快速照相区与系统区分享全体的PE 数据, 因而你拜会到快速照相区的内容与文件系统是一模一样的。等到系统运维业作风姿罗曼蒂克阵子后,即使A 区域的数码被退换了 (下边右图所示卡塔尔,则修改前系统会将该区域的数额移动到快速照相区,所以在右图的快速照相区被攻陷了一块PE 成为A,而其他B 到I 的区块则照旧与文件系统分享!

快速照相区与被快速照相的LV 应当要在同三个VG 里。

16.1 建立LV

# lvcreate -L 100M -n lv1 vg0

# mkfs.ext4 /dev/vg0/lv1

# mount /dev/vg0/lv1 /mnt/lv1/

16.2 写入测量检验数据

# touch /mnt/lv1/test_lvm_snapshot_1

# touch /mnt/lv1/test_lvm_snapshot_2

# cp -a /etc/ /mnt/lv1/

# cp -a /boot/ /mnt/lv1/

9159金沙官网 50

16.3 成立快速照相

# lvcreate -L 80M -s -n lv1snap /dev/vg0/lv1

注明:为/dev/vg0/lv1 创办三个朗朗上口为80M,名为lv1snap 的快速照相。

# lvdisplay

9159金沙官网 51

/dev/vg0/lv1snap 的LV Size 为100MB,使用量为0.01%.

16.4 将刚刚创设的快速照相挂载查看

9159金沙官网 52

/mnt/lv1 和/mnt/snapshot 是一模二样的。

16.5 进行档案的校正操作

9159金沙官网 53

16.6 再一次查看

9159金沙官网 54

snapshot 的使用量为10.36%,原始材质有转移。

16.7 对snapshot 里的材料进行李包裹道具份,计划恢复生机

9159金沙官网 55

16.8 卸载并移除snapshot

9159金沙官网 56

16.9 卸载并格式化/mnt/lv1,清空数据

9159金沙官网 57

16.10 苏醒数据

9159金沙官网 58

能够看看,原始数据现已打响恢复生机。

LVM 快速照相实验成功。

瞩目:对lv1的修正量不能够当先快速照相的抑扬顿挫,由于原有数据会被搬移到快速照相区,假如您的快速照相区非常不够大,若原始资料被改换的实际数据量比快速照相区大,那么快速照相区当然容纳不了,那时候快速照相功效会失效喔!

参照他事他说加以考查资料

  • 鸟哥的Linux 私房菜:
  • 羽飞博客:

6.3下布置LVM(逻辑卷管理) 黄金年代、简要介绍LVM是逻辑盘卷管理(Logical Volume Manager)的简单的称呼,它是Linux意况下对磁盘分区举行保管的风姿浪漫种机制...

  Linux中对逻辑卷的确立

一、简介

二、版本

三、LVM 模块

四、具体操作

  • 对丰盛的硬盘实行分区(fdisk /dev/[hs]d[a-z])

  • 对创造的分区创造物理卷(pvcreate卡塔尔(قطر‎

  • 给逻辑卷创造逻辑容器(卷组)

  • 在卷组创设大小不生龙活虎的逻辑卷(lvcreate卡塔尔(英语:State of Qatar)

  • 给以存在的卷组扩容

  • 实今后线扩充LVM体量

  • 落到实处减弱LVM体积(不协理在线减少卡塔尔国

  • 减小卷组体积

  • 动用给LVM创造快照,并做到备份并上涨数据

一、简介

LVM是 Logical Volume Manager(逻辑卷管理)的简写,它是Linux意况下对磁盘分区举行处理的生机勃勃种机制,它由HeinzMauelshagen在Linux 2.4内核上实现,于1996年发表到Linux社区中,它同意你在Linux系统上用简易的命令行管理三个完好的逻辑卷管理情状。

您好,此章节为新增的学识内容,正在努力的排版完备,预习二零一五年一月底旬做到,多谢您的支持,QQ群:340829。

  Linux中对逻辑卷举办扩大容积与降低

二、版本

 

  Linux中对逻辑卷的移除

LVM1 开始的一段时期的LVM与1996年发表,只在Linux内核2.4本子上可用,它提供最核心的逻辑卷处理。

7.1  磁盘冗余阵列

1986年由亚拉巴马大学Berkeley分校刊登的篇章第二回提到并定义了RAID,当今CPU品质一年一度可升高四分之三-二分之一但硬盘仅提高7%,稳步的早就产生计算机全部质量的瓶颈,並且为了制止硬盘的赫然损坏招致数据遗失还投入了冗余备份机制。

RAID的以前设计意见为"redundant array of Inexpensive disks"即不贵的硬盘组,而现行反革命的概念是"Redundant Array of Independent** Disks"即单独的硬盘组,作用是谨防硬盘物理磨损以致增添存款和储蓄设备的吞吐量。RAID不认为奇的构成有01510**:

RAID0:须要最少两块(含卡塔尔硬盘,能够有效的滋长硬盘的性情和吞吐量,但尚无多少的冗余和谬误修复本事。

9159金沙官网 59

将多块硬盘通过硬件或软件的办法串联在联合具名,成为一个大的卷集,将数据依次写入到各种硬盘中,那样质量会大幅度升高,但若猖獗一块硬盘故障则全种类统的数额都会蒙受破坏。

RAID1:急需最少两块(含卡塔尔国硬盘,能够使得的进步数据资料的安全性和可修复性,但资本却抓牢了。

9159金沙官网 60

福寿绵绵原本是在数量写入硬盘时也会在此外一块闲置的硬盘上生成镜像文件,在不影响属性的气象下最大限度保险数据资料的可信赖性,只要在黄金时代对镜像盘中还大概有一块硬盘能够行使,那么数量也不会废弃,具有很好的硬盘冗余本事,即便对数码来说绝对的安全,但资本却显明增多,磁盘利用率仅为二分之一。

RAID5:急需最少三块(含卡塔尔国硬盘,兼备存款和储蓄质量、数据安全和仓库储存开支。

 

9159金沙官网 61

如上海教室所示"parity"块中保留的是其它硬盘数据的奇偶校验消息(并不是任何硬盘的数量),以多少的奇偶校验音信来保障数据的白城,RAID5不以单独的硬盘来寄存数据的奇偶校验音信,而是保存在后生可畏豆蔻梢头磁盘上。

那样当别的二个硬盘损坏都得以依赖此外硬盘上的奇偶校验新闻来尝试重新创立损坏的数额,品质也极高,统筹了储存品质、数据安全和积累开销,能够当作是RAID0与RAID1的折中方案。

 

RAID10:要求最少四块(含)硬盘,兼具速度和安全性,但资本极高。

9159金沙官网 62

 

继续了RAID0的立即与RAID1的平安,RAID1在这里边提供了冗余备份的阵列,而RAID0则担任数据的读写阵列。

因这种布局的费用高,平时用于存放供给速度与差错调节的数据。

 

mdadm命令用于管理类别软件RAID硬盘阵列,格式为:"mdadm [模式] <RAID设备名称> [选项] [分子设备名称]"。

mdadm管理RAID阵列的动作有:

编辑
名称 作用
Assemble 将设备加入到以前定义的阵列
Build 创建一个没有超级块的阵列
Create 创建一个新的阵列,每个设备具有超级块。
Manage 管理阵列(如添加和删除)。
Misc 允许单独对阵列中的某个设备进行操作(如停止阵列)。
Follow or Monitor 监控状态。
Grow 改变阵列的容量或设备数目。

mdadm管理RAID阵列的参数有:

编辑
参数 作用
-a 检测设备名称
-n 指定设备数量
-l 指定raid级别
-C 创建
-v 显示过程
-f 模拟设备损坏
-r 移除设备
-Q 查看摘要信息
-D 查看详细信息
-S 停止阵列

模拟练习:RAID10配置流程:

第1步:在设想机中再增多4块硬盘:

9159金沙官网 63

第2步:使用mdadm命令创造RAID10,名为"/dev/md0"。

-C代表成立操作,-v显示创制进程,-a yes检查RAID名称,-n是用到的硬盘个数,-l是定义RAID的品级而背后写上要投入阵列的硬盘名称。

[root@linuxprobe ~]#mdadm -Cv /dev/md0 -a yes -n 4 -l 10 /dev/sdb /dev/sdc /dev/sdd /dev/sde
mdadm: layout defaults to n2
mdadm: layout defaults to n2
mdadm: chunk size defaults to 512K
mdadm: size set to 20954624K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

第3步:格式化并挂载使用

将RAID磁盘阵列格式化为ext4格式:

[root@linuxprobe ~]# mkfs.ext4 /dev/md0
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
2621440 inodes, 10477312 blocks
523865 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=2157969408
320 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624
Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done

成立挂载目录:

[root@linuxprobe ~]# mkdir /RAID

進展文件系统的挂载:

[root@linuxprobe ~]# mount /dev/md0 /RAID

查阅磁盘挂载消息:

[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 905M 0 905M 0% /dev
tmpfs 914M 84K 914M 1% /dev/shm
tmpfs 914M 8.9M 905M 1% /run
tmpfs 914M 0 914M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/md0 40G 49M 38G 1% /RAID

将此磁盘阵列挂载音信设置为重启后也照样奏效:

[root@linuxprobe ~]# echo "/dev/md0 /RAID ext4 defaults 0 0" >> /etc/fstab

第4步:查看/dev/md0设备信息

参数-D查看RAID阵列的详细音讯:

[root@linuxprobe ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Tue May 5 07:43:26 2015
Raid Level : raid10
Array Size : 41909248 (39.97 GiB 42.92 GB)
Used Dev Size : 20954624 (19.98 GiB 21.46 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Tue May 5 07:46:59 2015
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Name : localhost.localdomain:0 (local to host localhost.localdomain)
UUID : cc9a87d4:1e89e175:5383e1e8:a78ec62c
Events : 17
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 32 1 active sync /dev/sdc
2 8 48 2 active sync /dev/sdd
3 8 64 3 active sync /dev/sde

第5步:模拟有1块硬盘损坏的情形
应用mdadm的-f参数将/dev/sdb移出阵列:

[root@linuxprobe ~]# mdadm /dev/md0 -f /dev/sdb
mdadm: set /dev/sdb faulty in /dev/md0

再看下阵列的动静(此时的/dev/sdb状态被是移除,失败状态卡塔尔(قطر‎:

[root@linuxprobe ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Fri May 8 08:11:00 2015
Raid Level : raid10
Array Size : 41909248 (39.97 GiB 42.92 GB)
Used Dev Size : 20954624 (19.98 GiB 21.46 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Fri May 8 08:27:18 2015
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Name : linuxprobe.com:0 (local to host linuxprobe.com)
UUID : f2993bbd:99c1eb63:bd61d4d4:3f06c3b0
Events : 21
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 32 1 active sync /dev/sdc
2 8 48 2 active sync /dev/sdd
3 8 64 3 active sync /dev/sde
0 8 16 - faulty /dev/sdb

第6步:损坏后照旧符合规律使用

因为RAID10品级能够允许风流罗曼蒂克组RAID1硬盘中设有三个故障盘而不影响使用,所以如故得以健康的成立或删除文件~

现行反革命就把新的硬盘增多进去吧,当然也足以让硬盘sdb苏醒使用:请重启后执行“ mdadm /dev/md0 -a /dev/sdb”。

第7步:设置冗余备份磁盘

前些天察觉了叁个难题没?运营人士供给在硬盘硬件现身故障后手工业增添新的磁盘进去,那样会不会相比较不便于?
风度翩翩旦开始化RAID5阵列时一向赋予4块硬盘,个中1块硬盘设备用于在阵列某块磁盘故障时自动的替换上去,这样很棒吧!
先将磁盘系统卸载:

[root@linuxprobe ~]# umount /dev/md0

停下该阵列设备,深透的停用:

[root@linuxprobe ~]# mdadm -S /dev/md0
mdadm: stopped /dev/md0

现今该阵列已经找不到了:

[root@linuxprobe ~]# mdadm -D /dev/md0
mdadm: cannot open /dev/md0: No such file or directory

创设RAID5并设置1块备份故障盘:

[root@linuxprobe ~]# mdadm -Cv /dev/md0 -n 3 -l 5 -x 1 /dev/sdb /dev/sdc /dev/sdd /dev/sde
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: /dev/sdb appears to be part of a raid array:
level=raid10 devices=4 ctime=Fri May 8 08:11:00 2015
mdadm: /dev/sdc appears to be part of a raid array:
level=raid10 devices=4 ctime=Fri May 8 08:11:00 2015
mdadm: /dev/sdd appears to be part of a raid array:
level=raid10 devices=4 ctime=Fri May 8 08:11:00 2015
mdadm: /dev/sde appears to be part of a raid array:
level=raid10 devices=4 ctime=Fri May 8 08:11:00 2015
mdadm: size set to 20954624K

这里需求输入y,确认成立那些阵列:

Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

查阅下阵列的详细信息(Spare Devices数量为1卡塔尔(英语:State of Qatar):

[root@linuxprobe ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Fri May 8 09:20:35 2015
Raid Level : raid5
Array Size : 41909248 (39.97 GiB 42.92 GB)
Used Dev Size : 20954624 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Fri May 8 09:22:22 2015
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Name : linuxprobe.com:0 (local to host linuxprobe.com)
UUID : 44b1a152:3f1809d3:1d234916:4ac70481
Events : 18
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 32 1 active sync /dev/sdc
4 8 48 2 active sync /dev/sdd
3 8 64 - spare /dev/sde

将磁盘阵列格式化为ext4连串:

[root@linuxprobe ~]# mkfs.ext4 /dev/md0
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
2621440 inodes, 10477312 blocks
523865 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=2157969408
320 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624
Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done

因为前边设置过fstab文件,所以以后得以一贯给挂载:

[root@linuxprobe ~]# mount -a

将/dev/sdb设备安装为故障并移出阵列:

[root@linuxprobe ~]# mdadm /dev/md0 -f /dev/sdb
mdadm: set /dev/sdb faulty in /dev/md0

再来看下阵列的详细新闻(当时硬盘sde直接代替上去了卡塔尔(英语:State of Qatar):

[root@linuxprobe ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Fri May 8 09:20:35 2015
Raid Level : raid5
Array Size : 41909248 (39.97 GiB 42.92 GB)
Used Dev Size : 20954624 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Fri May 8 09:23:51 2015
State : active, degraded, recovering
Active Devices : 2
Working Devices : 3
Failed Devices : 1
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Rebuild Status : 0% complete
Name : linuxprobe.com:0 (local to host linuxprobe.com)
UUID : 44b1a152:3f1809d3:1d234916:4ac70481
Events : 21
Number Major Minor RaidDevice State
3 8 64 0 spare rebuilding /dev/sde
1 8 32 1 active sync /dev/sdc
4 8 48 2 active sync /dev/sdd
0 8 16 - faulty /dev/sdb

并发难题?大胆提问!

因读者们硬件差别或操作不当都恐怕招致实验配置出错,请意志再细致看看操作步骤吧,不要气馁9159金沙官网,~

Linux本事沟通请加A群:560843( style="color: #008000;">满),B群:340829( style="color: #008000;">推荐),点此查看全国群。

*本群特色:通过口令验证确定保证每多少个群员都以《Linux就该如此学》的读者,答疑更有针对,不允许期无偿领到定制礼品。

  

LVM2 LVM-1的换代版本,在Linux内核2.6中才可用,它在行业内部的LVM-1效用外还提供了附加的功效。

7.2 逻辑卷微处理器

当客商根据实情必要对分区增添、减小等调度时,平常汇合对硬盘“灵活性”的范围,非常不平价。

逻辑卷微电脑则是在磁盘分区与文件系统之间增多的逻辑层,提供贰个空洞的卷组,使得官员能够忽视底层磁盘布局,进而完成对分区的灵活动态调解,那毫无浮夸,所以红帽福特ExplorerHEL7系统已经暗中同意启用了LVM(Logical Volume Manager卡塔尔国机制。9159金沙官网 64

物理卷(PV,Physical Volume): 整个硬盘设备或利用fdisk命令创设的硬盘分区。

卷组(VG,Volume Group)       :由三个或多个物理卷(PV)组成的少年老成体化

逻辑卷(LV,Logical Volume)  :从卷组(VG)出切割出的空间来用于创建文件系统,大小由PE的个数调整。

              基本单元(PE,Physical Extent)默以为4MB的基本块。

编辑
功能/命令 物理卷管理 卷组管理 逻辑卷管理
扫描 pvscan vgscan lvscan
建立 pvcreate vgcreate lvcreate
显示 pvdisplay vgdisplay lvdisplay
删除 pvremove vgremove lvremove
扩展   vgextend lvextend

模仿练习A:创造叁个容积为150M的逻辑卷vo,格式化为XFS并挂载到/mnt/xfs。

第1步:在虚构机中增多1块用来做逻辑卷实验的硬盘

9159金沙官网 65

请你依照上面包车型大巴幻灯片稳步操作,可点击图片两边箭头或下方小圆点“○”切换步骤。

 

  • 9159金沙官网 66 第2步:采取磁盘。

  • 9159金沙官网 67 第3步:采用磁盘类型。

  • 9159金沙官网 68 第4步:选取创造新的磁盘。

  • 9159金沙官网 69 第5步:设置磁盘的大大小小。

  • 9159金沙官网 70 第6步:私下认可的磁盘名称就能够。

  • 9159金沙官网 71 第7步:成功加多的硬盘出今后列表中。

  1. 1
  2. 2
  3. 3
  4. 4
  5. 5
  6. 6
  • <
  • >

 

第2步:创造一个大小为300M的分区(sdb1卡塔尔国,标签为lvm:

对硬盘sdb实行分区:

[root@linuxprobe ~]# fdisk /dev/sdb
Device does not contain a recognized partition table

成立新的分区:

Command (m for help): n

花色为主分区:

Partition type:
p primary (0 primary, 0 extended, 4 free)
e extended
Select (default p): p

分区号为1:

Partition number (1-4, default 1): 1

直接写“+300M”就可以生成大小为300M的分区:

First sector (2048-41943039, default 2048):
Using default value 2048
Last sector, +sectors or +size{K,M,G} (2048-41943039, default 41943039): +300M
Partition 1 of type Linux and of size 300 MiB is set

翻开下分区音讯:

Command (m for help): p
Device Boot Start End Blocks Id System
/dev/sdb1 2048 616447 307200 83 Linux

改善分区类型:

Command (m for help): t
Selected partition 1

校订分区类型为lvm(代码是8e):

Hex code (type L to list all codes): 8e
Changed type of partition 'Linux' to 'Linux LVM'

再看下分区消息:

Command (m for help): p
Device Boot Start End Blocks Id System
/dev/sdb1 2048 309247 153600 8e Linux LVM

认可准确,写入分区表音讯:

Command (m for help): w
The partition table has been altered!
Calling ioctl() to re-read partition table.
Syncing disks.

让内核同步分区音信(此步骤仅在一向不找到分区设备的情事下才供给实行,非必要动作。):

[root@linuxprobe ~]# partprobe

第3步:启用LVM并成立vo逻辑卷并格式化为ext4格式
将新建的分区设置为物理卷:

[root@linuxprobe ~]# pvcreate /dev/sdb1
Physical volume "/dev/sdb1" successfully created

将物理卷加入卷组:

[root@linuxprobe ~]# vgcreate rhcsa /dev/sdb1
Volume group "rhcsa" successfully created

翻开卷组新闻:

[root@linuxprobe ~]# vgdisplay
--- Volume group ---
VG Size 296.00 MiB
PE Size 4.00 MiB
Total PE 74
Alloc PE / Size 0 / 0
Free PE / Size 74 / 296.00 MiB
VG UUID 8hLPQU-Tc6f-PMsa-4tq5-iT0p-vSbI-sOafqG

变化大小为四18个PE的逻辑卷(37*4MiB为148M):

[root@linuxprobe ~]# lvcreate -n vo -l 37 rhcsa
Logical volume "vo" created

格式化为ext4:

[root@linuxprobe ~]# mkfs.ext4 /dev/rhcsa/vo
Writing superblocks and filesystem accounting information: done

始建贰个名字为/rhcsa的目录用于挂载该逻辑卷。

[root@linuxprobe ~]# mkdir /rhcsa

挂载硬盘设备:

[root@linuxprobe ~]# mount /dev/rhcsa/vo /rhcsa

查看挂载新闻(rhcsa-vo为140M是有理取值):

[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 905M 0 905M 0% /dev
tmpfs 914M 140K 914M 1% /dev/shm
tmpfs 914M 8.9M 905M 1% /run
tmpfs 914M 0 914M 0% /sys/fs/cgroup
/dev/sda1 497M 119M 379M 24% /boot
/dev/sr0 3.5G 3.5G 0 100% /run/media/root/RHEL-7.0 Server.x86_64
/dev/mapper/rhcsa-vo 140M 1.6M 128M 2% /rhcsa

仿照练习B:将上个实验中的逻辑卷vo体量扩大到290M。

若要对LVM实行调度,必必要先卸载:

[root@linuxprobe ~]# umount /rhcsa

将逻辑卷扩张到290M:

[root@linuxprobe ~]# lvextend -L 290M /dev/rhcsa/vo
Rounding size to boundary between physical extents: 292.00 MiB
Extending logical volume vo to 292.00 MiB
Logical volume vo successfully resized

反省磁盘完整性,重新设置硬盘容积:

[root@linuxprobe ~]# e2fsck -f /dev/rhcsa/vo
/dev/rhcsa/vo: 11/38000 files (0.0% non-contiguous), 10453/151552 blocks
[root@linuxprobe ~]# resize2fs /dev/rhcsa/vo
Resizing the filesystem on /dev/rhcsa/vo to 299008 (1k) blocks.
The filesystem on /dev/rhcsa/vo is now 299008 blocks long.

再一次挂载硬盘设备:

[root@linuxprobe ~]# mount /dev/rhcsa/vo /rhcsa

拜会挂载新闻(当前逻辑卷大小已为279M):

[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 905M 0 905M 0% /dev
tmpfs 914M 140K 914M 1% /dev/shm
tmpfs 914M 8.9M 905M 1% /run
tmpfs 914M 0 914M 0% /sys/fs/cgroup
/dev/sda1 497M 119M 379M 24% /boot
/dev/sr0 3.5G 3.5G 0 100% /run/media/root/RHEL-7.0 Server.x86_64
/dev/mapper/rhcsa-vo 279M 2.1M 259M 1% /rhcsa

有样学样训练C:将上个实验中的逻辑卷vo体积减小到120M。

卸载文件系统:

[root@linuxprobe ~]# umount /rhcsa

反省文件系统的完整性:

[root@linuxprobe ~]# e2fsck -f /dev/rhcsa/vo
e2fsck 1.42.9 (28-Dec-2013)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
/dev/rhcsa/vo: 11/74000 files (0.0% non-contiguous), 15507/299008 blocks

将逻辑卷的收缩到120M:

[root@linuxprobe ~]# resize2fs /dev/rhcsa/vo 120M
resize2fs 1.42.9 (28-Dec-2013)
Resizing the filesystem on /dev/rhcsa/vo to 122880 (1k) blocks.
The filesystem on /dev/rhcsa/vo is now 122880 blocks long.

运用lvreduce命令将文件系统调度为120M:

[root@linuxprobe ~]# lvreduce -L 120M /dev/rhcsa/vo
WARNING: Reducing active logical volume to 120.00 MiB
THIS MAY DESTROY YOUR DATA (filesystem etc.)
Do you really want to reduce vo? [y/n]: y
Reducing logical volume vo to 120.00 MiB
Logical volume vo successfully resized

再也挂载文件系统:

[root@linuxprobe ~]# mount /dev/rhcsa/vo /rhcsa

查看挂载音信,(逻辑卷已经产生113M卡塔尔国:

[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.7G 14G 21% /
devtmpfs 734M 0 734M 0% /dev
tmpfs 742M 140K 742M 1% /dev/shm
tmpfs 742M 8.8M 734M 2% /run
tmpfs 742M 0 742M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/mapper/rhcsa-vo 113M 1.6M 103M 2% /rhcsa

宪章练习D:使用逻辑卷快速照相功用

LVM的逻辑卷快速照相成效能够将逻辑卷的数量保存为备份、以至高速的数据恢复生机。
翻看见逻辑卷详细新闻(体量共计296M,已用120M,剩余176M):

[root@linuxprobe ~]# vgdisplay
--- Volume group ---
VG Name rhcsa
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 4
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 1
Max PV 0
Cur PV 1
Act PV 1
VG Size 296.00 MiB
PE Size 4.00 MiB
Total PE 74
Alloc PE / Size 30 / 120.00 MiB
Free PE / Size 44 / 176.00 MiB
VG UUID QxBS5f-beVv-FJnu-GKyu-UWWF-JS8x-ytiAN9

创设原始文件,写入风姿浪漫行文字:

[root@linuxprobe ~]# echo "Welcome to Linuxprobe.com" > /rhcsa/readme.txt
[root@linuxprobe ~]# ls /rhcsa
lost+found readme.txt

对rhcsa卷组的vo逻辑卷做三个名称为SNAP而高低为150M的逻辑卷快速照相:

[root@linuxprobe ~]# lvcreate -L 150M -s -n SNAP /dev/rhcsa/vo
Rounding up size to full physical extent 152.00 MiB
Reducing COW size 152.00 MiB down to maximum usable size 124.00 MiB.
Logical volume "SNAP" created

查看逻辑卷和快速照相的新闻:

[root@linuxprobe ~]# lvs
LV VG Attr LSize Pool Origin Data% Move Log Cpy%Sync Convert
SNAP rhcsa swi-a-s--- 124.00m vo 0.01
vo rhcsa owi-aos--- 120.00m
root rhel -wi-ao---- 17.51g
swap rhel -wi-ao---- 2.00g

在逻辑卷中创制三个100M的文件:

[root@linuxprobe ~]# dd if=/dev/zero of=/rhcsa/files count=1 bs=100M
1+0 records in
1+0 records out
104857600 bytes (105 MB) copied, 1.31474 s, 79.8 MB/s

再来看下逻辑卷快速照相的使用量:

[root@linuxprobe ~]# lvs
LV VG Attr LSize Pool Origin Data% Move Log Cpy%Sync Convert
SNAP rhcsa swi-a-s--- 124.00m vo 89.76
vo rhcsa owi-aos--- 120.00m
root rhel -wi-ao---- 17.51g
swap rhel -wi-ao---- 2.00g

将文件系统卸载:

[root@linuxprobe ~]# umount /rhcsa

过来SNAP逻辑卷快速照相内容:

[root@linuxprobe ~]# lvconvert --merge /dev/rhcsa/SNAP
Merging of volume SNAP started.
vo: Merged: 18.2%
vo: Merged: 100.0%
Merge of snapshot into logical volume vo has finished.
Logical volume "SNAP" successfully removed

快速照相恢复生机二回后会被自动删除:

[root@linuxprobe ~]# lvs
LV VG Attr LSize Pool Origin Data% Move Log Cpy%Sync Convert
vo rhcsa -wi-a----- 120.00m
root rhel -wi-ao---- 17.51g
swap rhel -wi-ao---- 2.00

再也挂载文件系统:

[root@linuxprobe ~]# mount /dev/rhcsa/vo /rhcsa

原来的文书还在,但刚好创立的100M大文件被消释了:

[root@linuxprobe ~]# ls /rhcsa
lost+found readme.txt

 9159金沙官网 72

  LVM还也许有快照的成效,相通windows的系统还原点。其性状:

查看:(测试机CentOS 5.5 X86_64)

    1.快速照相卷的体积必得与逻辑卷的容积近似

1234567[[email protected] ~]``# uname -a ``Linux localhost.localdomain 2.6.18-194.el5 ``#1 SMP Fri Apr 2 14:58:14 EDT 2010 x86_64 x86_64 x86_64 GNU/Linux ``[[email protected] ~]``# uname -r ``2.6.18-194.el5 ``[[email protected] ~]``# rpm -qa | grep lvm ``lvm2-2.02.56-8.el5 ``[[email protected] ~]``#

    2.快速照相卷仅一遍有效,在举行还原后就机关删除了

三、LVM 模块

 先是查看卷组的音信:

Physical volume (PV卡塔尔(英语:State of Qatar)、Volume group (VG卡塔尔(英语:State of Qatar)、Logical volume(LV卡塔尔(قطر‎、 Physical extent (PE卡塔尔(英语:State of Qatar),上面大家用三个简单易行的图来注脚下物理卷、卷组、逻辑卷他们中间的关系(此图只是私有精晓,仅供参照他事他说加以考察卡塔尔(英语:State of Qatar)

  9159金沙官网 73

9159金沙官网 74

 能够观看,这里的分配空间为120M,所以新创设的快速照相(zhi_back)的深浅应该也是120M

简单的说:
逻辑卷的始建,正是将多块硬盘创制物理卷,而将这个物理卷以逻辑的格局总成叁个容器,然后从那么些容器里面创设大小不风度翩翩的分区文件,而这一个容器正是所谓的逻辑卷,而从那么些容器里创制大小不一样的分区文件,这些分区文件就叫做逻辑卷。嘿嘿,你懂了啊? ^_^ ……

 1.给原来的卷组中开创叁个文件lv-zhi.info(此中保存的是vg的音信卡塔尔:

四、具体操作

9159金沙官网 75

  1. 分区

1234567891011121314151617181920212223242526272829303132333435363738[[email protected] ~]``# fdisk –l #查看已存在的分区与硬盘``Disk ``/dev/sda``: 21.4 GB, 21474836480 bytes ``255 heads, 63 sectors``/track``, 2610 cylinders ``Units = cylinders of 16065 * 512 = 8225280 bytes````Device Boot Start End Blocks Id System ``/dev/sda1``* 1 33 265041 83 Linux ``/dev/sda2``34 1308 10241437+ 83 Linux ``/dev/sda3``1309 1945 5116702+ 83 Linux ``/dev/sda4``1946 2610 5341612+ 5 Extended ``/dev/sda5``1946 2072 1020096 82 Linux swap / Solaris``Disk ``/dev/sdb``: 21.4 GB, 21474836480 bytes ``255 heads, 63 sectors``/track``, 2610 cylinders ``Units = cylinders of 16065 * 512 = 8225280 bytes``Disk ``/dev/sdb``doesn't contain a valid partition table``Disk ``/dev/sdc``: 21.4 GB, 21474836480 bytes ``255 heads, 63 sectors``/track``, 2610 cylinders ``Units = cylinders of 16065 * 512 = 8225280 bytes``Disk ``/dev/sdc``doesn't contain a valid partition table``[[email protected] ~]``# fdisk /dev/sdb #给/sdb分区,效果如下``Command (m ``for``help): p``Disk ``/dev/sdb``: 21.4 GB, 21474836480 bytes ``255 heads, 63 sectors``/track``, 2610 cylinders ``Units = cylinders of 16065 * 512 = 8225280 bytes````Device Boot Start End Blocks Id System ``/dev/sdb1``1 244 1959898+ 8e Linux LVM ``#注意修改分区类型为8e ``/dev/sdb2``245 488 1959930 8e Linux LVM ``/dev/sdb3``489 732 1959930 8e Linux LVM``Command (m ``for``help):``[[email protected] ~]``# partprobe #让内核重新读取一下硬盘``[[email protected] ~]``# fdisk -l /dev/sdb``Disk ``/dev/sdb``: 21.4 GB, 21474836480 bytes ``255 heads, 63 sectors``/track``, 2610 cylinders ``Units = cylinders of 16065 * 512 = 8225280 bytes````Device Boot Start End Blocks Id System ``/dev/sdb1``1 244 1959898+ 8e Linux LVM ``/dev/sdb2``245 488 1959930 8e Linux LVM ``/dev/sdb3``489 732 1959930 8e Linux LVM ``[[email protected] ~]``#

  1. 将大要分区与硬盘成立为物理卷(pvcreate卡塔尔

12345678910111213[[email protected] ~]``# pvcreate /dev/sdb[1-3] #将分区创建为物理卷 ````Physical volume ``"/dev/sdb1"``successfully created ````Physical volume ``"/dev/sdb2"``successfully created ````Physical volume ``"/dev/sdb3"``successfully created ``[[email protected] ~]``#``[[email protected] ~]``# pvcreate /dev/sdc #将硬盘创建为物理卷 ````Physical volume ``"/dev/sdc"``successfully created``[[email protected] ~]``# pvs #查看创建的物理卷 ````PV VG Fmt Attr PSize PFree ````/dev/sdb1``myvg lvm2 a- 1.87G 1.87G ````/dev/sdb2``myvg lvm2 a- 1.87G 1.87G ````/dev/sdb3``myvg lvm2 a- 1.87G 1.87G ````/dev/sdc``myvg lvm2 a- 20.00G 20.00G

  1. 将物理卷(pv卡塔尔国创制为卷组(vgcreate卡塔尔国,名字为myvg

12345678910111213141516171819202122232425262728[[email protected] ~]``# vgcreate myvg /dev/sdb[1-3] /dev/sdc````Volume group ``"myvg"``successfully created ``[[email protected] ~]``# vgs ````VG ``#PV #LV #SN Attr VSize VFree ````myvg 4 0 0 wz--n- 25.60G 25.60G ``[[email protected] ~]``#``[[email protected] ~]``# vgdisplay ````--- Volume group --- ````VG Name myvg ``#卷组名 ````System ID ````Format lvm2 ````Metadata Areas 4 ````Metadata Sequence No 1 ````VG Access ``read``/write````VG Status resizable ````MAX LV 0 ````Cur LV 0 ````Open LV 0 ````Max PV 0 ````Cur PV 4 ````Act PV 4 ````VG Size 25.60 GB ````PE Size 4.00 MB ``#物理盘的基本单位:默认4MB ````Total PE 6553 ````Alloc PE / Size 0 / 0 ````Free PE / Size 6553 / 25.60 GB ````VG UUID wuNBgb-tP95-pVoX-ehHw-cMfN-hyem-PNMqwe ``[[email protected] ~]``#

  1. 在卷组里创制逻辑卷并格式化、挂载使用

1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950[[email protected] ~]``# lvcreate -L 2G -n mylv1 myvg #创建逻辑卷 ````Logical volume ``"mylv1"``created ``[[email protected] ~]``# lvs #查看逻辑卷 ````LV VG Attr LSize Origin Snap% Move Log Copy% Convert ````mylv1 myvg -wi-a- 2.00G ``[[email protected] ~]``# mke2fs -j /dev/myvg/mylv1 #格式化逻辑卷 ``mke2fs 1.39 (29-May-2006) ``Filesystem label= ``OS ``type``: Linux ``Block size=4096 (log=2) ``Fragment size=4096 (log=2) ``262144 inodes, 524288 blocks ``26214 blocks (5.00%) reserved ``for``the super user ``First data block=0 ``Maximum filesystem blocks=536870912 ``16 block ``groups``32768 blocks per group, 32768 fragments per group ``16384 inodes per group ``Superblock backups stored on blocks: ````32768, 98304, 163840, 229376, 294912``Writing inode tables: ``done``Creating journal (16384 blocks): ``done``Writing superblocks and filesystem accounting information: ``done``This filesystem will be automatically checked every 26 mounts or ``180 days, whichever comes first. Use tune2fs -c or -i to override. ``[[email protected] ~]``# mkdir /mydata #创建挂载目录 ``[[email protected] ~]``# mount /dev/myvg/mylv1 /mydata/ #挂载``[[email protected] ~]``# mount #查看是否挂载成功 ``/dev/sda2``on / ``type``ext3 (rw) ``proc on ``/proc``type``proc (rw) ``sysfs on ``/sys``type``sysfs (rw) ``devpts on ``/dev/pts``type``devpts (rw,gid=5,mode=620) ``/dev/sda3``on ``/data``type``ext3 (rw) ``/dev/sda1``on ``/boot``type``ext3 (rw) ``tmpfs on ``/dev/shm``type``tmpfs (rw) ``none on ``/proc/sys/fs/binfmt_misc``type``binfmt_misc (rw) ``sunrpc on ``/var/lib/nfs/rpc_pipefs``type``rpc_pipefs (rw) ``/dev/mapper/myvg-mylv1``on ``/mydata``type``ext3 (rw) ``[[email protected] ~]``#``[[email protected] ~]``# ls /mydata/ #查看 ``lost+found ``[[email protected] ~]``# df –h #查看硬盘 ``Filesystem Size Used Avail Use% Mounted on ``/dev/sda2``9.5G 1.8G 7.2G 20% / ``/dev/sda3``4.8G 138M 4.4G 4% ``/data``/dev/sda1``251M 17M 222M 7% ``/boot``tmpfs 60M 0 60M 0% ``/dev/shm``/dev/mapper/myvg-mylv1````2.0G 68M 1.9G 4% ``/mydata``[[email protected] ~]``#

  1. 发觉卷组空间相当不够,咱们增加卷组空间

1234567891011121314151617[[email protected] ~]``# pvcreate /dev/sdd #将新硬盘/sdd加入物理卷中 ````Physical volume ``"/dev/sdd"``successfully created``[[email protected] ~]``# pvs #查看物理卷 ````/dev/cdrom``: ``open``failed: No medium found ````PV VG Fmt Attr PSize PFree ````/dev/sdb1``myvg lvm2 a- 1.87G 1.87G ````/dev/sdb2``myvg lvm2 a- 1.87G 1.87G ````/dev/sdb3``myvg lvm2 a- 1.87G 1.87G ````/dev/sdc``myvg lvm2 a- 20.00G 18.00G ````/dev/sdd``myvg lvm2 a- 20.00G 20.00G ``[[email protected] ~]``#``[[email protected] ~]``# vgextend myvg /dev/sdd #扩展卷组 ````Volume group ``"myvg"``successfully extended ``[[email protected] ~]``# vgs #查看新增加的卷组 ````VG ``#PV #LV #SN Attr VSize VFree ````myvg 5 1 0 wz--n- 45.59G 43.59G ``[[email protected] ~]``#

  1. 扩展逻辑卷 (帮助在线扩充卡塔尔(英语:State of Qatar)

123456789101112131415161718192021222324252627282930313233将``/dev/myvg/mylv1``扩展到4G,并且要求数据可以正常访问``[[email protected] ~]``# cd /mydata/ ``[[email protected] mydata]``# touch index.html ``[[email protected] mydata]``# echo "test" > index.html ``[[email protected] mydata]``# cat index.html ``test``[[email protected] mydata]``# vgs ````/dev/cdrom``: ``open``failed: No medium found ````VG ``#PV #LV #SN Attr VSize VFree ````myvg 5 1 0 wz--n- 45.59G 43.59G ``[[email protected] mydata]``# lvextend -L +2G /dev/myvg/mylv1````Extending logical volume mylv1 to 4.00 GB ````Logical volume mylv1 successfully resized``[[email protected] mydata]``# resize2fs -p /dev/myvg/mylv1 #通过 resize2fs 将文件系统的容量确实添加``resize2fs 1.39 (29-May-2006) ``Filesystem at ``/dev/myvg/mylv1``is mounted on ``/mydata``; on-line resizing required ``Performing an on-line resize of ``/dev/myvg/mylv1``to 1048576 (4k) blocks. ``The filesystem on ``/dev/myvg/mylv1``is now 1048576 blocks long.``[[email protected] mydata]``# lvs ````LV VG Attr LSize Origin Snap% Move Log Copy% Convert ````mylv1 myvg -wi-ao 4.00G ``[[email protected] mydata]``#``[[email protected] mydata]``# cat index.html ``test``[[email protected] mydata]``# df -h ``Filesystem Size Used Avail Use% Mounted on ``/dev/sda2``9.5G 1.8G 7.2G 20% / ``/dev/sda3``4.8G 138M 4.4G 4% ``/data``/dev/sda1``251M 17M 222M 7% ``/boot``tmpfs 60M 0 60M 0% ``/dev/shm``/dev/mapper/myvg-mylv1````4.0G 69M 3.7G 2% ``/mydata``#成功增加了2G ``[[email protected] mydata]``#

  1. 减削逻辑卷
  • 查阅逻辑卷使用空间情状

  • 不可能在线减少,得先卸载

  • 保障压缩后的上空尺寸还能积存原有的全体数据

  • 在裁减以前应当先强检文件,以保障文件系统处于一至性状态

12345678910111213141516将``/dev/myvg/mylv1``缩减到1G,并且要求数据可以正常访问 (所以我们就按上面的提示在操作)``[[email protected] ~]``#df –lh #查看已用空间大小``[[email protected] ~]``# umount /dev/myvg/mylv1 #卸载分区``[[email protected] ~]``# e2fsck -f /dev/myvg/mylv1 #强制检查文件系统``[[email protected] ~]``# resize2fs /dev/myvg/mylv1 1G #缩减逻辑大小 ``[[email protected] ~]``# lvreduce -L 1G /dev/myvg/mylv1 #缩减物理边界大小``[[email protected] ~]``# lvs #查看逻辑卷 ````/dev/cdrom``: ``open``failed: No medium found ````LV VG Attr LSize Origin Snap% Move Log Copy% Convert ````mylv1 myvg -wi-ao 1.00G ``[[email protected] ~]``# mount /dev/myvg/mylv1 /mydata``[[email protected] ~]``# ls /mydata/ ``index.html lost+found ``[[email protected] ~]``# cat /mydata/index.html ``test``[[email protected] ~]``#

  1. 裁减磁盘空间

意识物理磁盘空间使用不足,将内部一块硬盘或分区拿掉

  • pvmove /dev/sdb1 #将/dev/sdb1上囤积的数额移到任何物理卷中

  • vgreduce myvg /dev/sdb1 #将/dev/sdb1从myvg卷组中移除

  • pvremove /dev/sdb1 #将/dev/sdb1从物理卷上移除

1234567891011121314151617181920212223[[email protected] ~]``# pvs ````/dev/cdrom``: ``open``failed: No medium found ````PV VG Fmt Attr PSize PFree ````/dev/sdb1``myvg lvm2 a- 1.87G 1.87G ````/dev/sdb2``myvg lvm2 a- 1.87G 1.87G ````/dev/sdb3``myvg lvm2 a- 1.87G 1.87G ````/dev/sdc``myvg lvm2 a- 20.00G 19.00G ````/dev/sdd``myvg lvm2 a- 20.00G 20.00G ``[[email protected] ~]``#``[[email protected] ~]``# pvmove /dev/sdb1 ````No data to move ``for``myvg``[[email protected] ~]``# vgreduce myvg /dev/sdb1 ````Removed ``"/dev/sdb1"``from volume group ``"myvg"``[email protected] ~]``# pvremove /dev/sdb1 ````Labels on physical volume ``"/dev/sdb1"``successfully wiped ``[[email protected] ~]``# pvs ````/dev/cdrom``: ``open``failed: No medium found ````PV VG Fmt Attr PSize PFree ````/dev/sdb2``myvg lvm2 a- 1.87G 1.87G ````/dev/sdb3``myvg lvm2 a- 1.87G 1.87G ````/dev/sdc``myvg lvm2 a- 20.00G 19.00G ````/dev/sdd``myvg lvm2 a- 20.00G 20.00G ``[[email protected] ~]``#

  1. 兑现快速照相,进行备份还原

在/mnt/lvm目录上,我们将本来的目录文件进行快速照相,然后将/mydata目录中的内容清空,并展开复原

1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950[[email protected] ~]``# cd /mydata/ ``[[email protected] mydata]``# ls ``index.html lost+found ``[[email protected] mydata]``# cat index.html ``test``[[email protected] mydata]``# lvcreate -L 30M -n backup -s -p r /dev/myvg/mylv1 #-L 快照大小 –n:快照名称 –p 权限只读 –s 创建快照 ````Rounding up size to full physical extent 32.00 MB ````Logical volume ``"backup"``created ``[[email protected] mydata]``# ll ``total 20 ``-rw-r--r-- 1 root root 5 Jun 28 01:04 index.html ``drwx------ 2 root root 16384 Jun 28 00:47 lost+found ``[[email protected] mydata]``# mkdir /tmp/backup #创建挂载目录 ``[[email protected] mydata]``# mount /dev/myvg/backup /tmp/backup/ #挂载``mount``: block device ``/dev/myvg/backup``is write-protected, mounting ``read``-only ``[[email protected] mydata]``# cd /tmp/backup/ ``[[email protected] backup]``# ls ``index.html lost+found ``[[email protected] backup]``# mkdir /tmp/lvmbackup #创建备份目录 ``[[email protected] backup]``# tar jcf /tmp/lvmbackup/sandy.tar.bz2 index.html #打包并压缩文件 ``[[email protected] backup]``# cd .. ``[[email protected] tmp]``# cd lvmbackup/ ``[[email protected] lvmbackup]``# ls #查看备份 ``sandy.``tar``.bz2 ``[[email protected] lvmbackup]``# cd /mydata/ ``[[email protected] mydata]``# ll ``total 20 ``-rw-r--r-- 1 root root 5 Jun 28 01:04 index.html ``drwx------ 2 root root 16384 Jun 28 00:47 lost+found ``[[email protected] mydata]``# rm -rf * #删除所有文件 ``[[email protected] mydata]``# ``[[email protected] mydata]``# ll ``total 0 ``[[email protected] mydata]``# tar xf /tmp/lvmbackup/sandy.tar.bz2 #还原备份数据 ``[[email protected] mydata]``# ll ``total 4 ``-rw-r--r-- 1 root root 5 Jun 28 01:04 index.html ``[[email protected] mydata]``# cat index.html ``test``[[email protected] mydata]``# df -h ``Filesystem Size Used Avail Use% Mounted on ``/dev/sda2``9.5G 1.8G 7.2G 21% / ``/dev/sda3``4.8G 138M 4.4G 4% ``/data``/dev/sda1``251M 17M 222M 7% ``/boot``tmpfs 60M 0 60M 0% ``/dev/shm``/dev/mapper/myvg-mylv1````1008M 67M 901M 7% ``/mydata``/dev/mapper/myvg-mylv1````1008M 67M 901M 7% ``/tmp/backup``[[email protected] mydata]``#

打探以上步骤操作的意义,小编言听计用咱们应该对LVM有越来越深的认知,嘿嘿 ^_^……

  2.开立快速照相zhi-back

本文出自 “Share your knowledge …” 博客,请必需保留此出处

lvcreate -s -L 120M -n zhi-back /dev/zhi/lv-zhi

生机勃勃、简单介绍 二、版本 三、LVM 模块 四、具体操作 对丰硕的硬盘进行分区(fdisk /dev/[hs]d[a-z])对创造的分区成立物理卷(pvcreate卡塔尔(قطر‎ 给逻辑卷创...

  -L  要开创的大小哦

  -s 创建snapshot (快照)

  -n 快速照相的名字

  最终是要备份的硬盘

9159金沙官网 76

 

   3. 在本来硬盘中创建三个100M的公文

dd if=/dev/zero of=/media/lv-zhi/temp.txt bs=100M count=1

  9159金沙官网 77

  4.推行还原操作

    4.1卸载原始卷组 

 umount /dev/zhi/lv-zhi

    4.2 还原

lvconvert --merge /dev/zhi/zhi-back

9159金沙官网 78  

    4.3挂载

mount -a

    4.4翻看目录

 9159金沙官网 79

 

  

 

本文由9159.com发布于操作系统,转载请注明出处:9159金沙官网而是通过一个叫做逻辑卷的东西来对

关键词: