LVM/ja

LVM (Logical Volume Manager)によって管理者はファイルシステムと具体的物理ストレージの間に抽象レイヤを提供するメタデバイスをつくることができます. メタデバイス (その上にファイルシステムが構成される) は 論理ボリューム(logical volumes)と呼ばれ, それがボリュームグループ(volume groups)と呼ばれるストレージのプールから領域を使います. ボリュームグループは1つまたは2つ以上の物理ディスク(physical volume)から成っており、それがデータが保存される本当のデバイスです.

物理ディスクはパーティション、JBOD(Just a Bunch Of Disks)によってグループ化されたSATAハードドライブ全体、RAID、iSCSI、ファイバーチャンネル、eSATAなどがあり得ます.

インストール
LVMはデバイスドライバとユーザー空間のアプリケーション双方によって処理され、LVMの設定は行われます.

カーネル
次のカーネルオプションを有効化してください

Emerge
After reviewing the USE flags, ask Portage to install the package:

Handbook
The handbook does not contain specific steps for installing Gentoo using LVMs. The following steps complement the handbook.

Preparing the disks
To stick with the handbook partitioning theme the following scheme will be used:

The Logical Volume vg01 will then be used for the Swap and Root partitions:

Creating the partitions
Now create a 2 MB partition that will be used by the GRUB2 boot loader later.

Do the same for the boot partition (128 MB).

Now create the partition 3 with the lvm flag using the remaining space:

The end result looks like so:

Creating the physical volume
This creates a physical volume that will be used to store the volume group on:

Creating the volume group
This creates a volume that will be used to store the logical volumes on:

Creating the logical volumes
This creates the logical volume for the swap of 512M:

This creates the logical volume for the root filesystem using the remaining space:

Creating the filesystems
Create the boot partition (/dev/sda2) in ext2:

Create the root partition (/dev/vg01/rootfs) in ext4:

Activating the swap partition
Make the swap partition (/dev/vg01/swap):

Activate the swap partition:

Mounting the root partition
Mount the root partition:

Configuring the Linux kernel
You will need to build an initramfs so the LVM can be mounted. After installing make install command execute the following:

Configuring the system
Edit the file:

Here is a the file contents for this guide:

Emerge
GRUB needs to be compiled with device-mapper, execute the following command first:

Install
Now install GRUB:


 * When using BIOS:


 * When using UEFI:

Configure
The  option needs to be enabled for   in the  file, edit it:

Configure the option:

Now generate the GRUB2 configuration:

Reboot
You can now reboot the system, it should boot up OK.

Fixing a non-booting system
If your system doesn't boot you will need to boot back to the installation medium to resolve the issues. Executing the following commands will allow you to make any changes using the guide:

設定
LVMの設定はいくつかのレベルにおいて行われます:
 * 1) 専用ユーティリティでのLV, PV と VG設定;
 * 2) 設定ファイルによるLVMサブシステムの微調整;
 * 3) ディストリビューションレベルのサービスの設定;
 * 4) initramfs時のセットアップ.

論理ボリュームや物理ディスク、ボリュームグループの扱いはUsage の章にて取り上げます.

LVM設定ファイル
LVMはに大きな設定ファイルを用意しています. ほとんどのユーザーはLVMを使い始めるにあたってこのファイルの設定を修正する必要はないでしょう.

サービス管理
Gentooは自動的に検出し、ボリュームグループと論理ボリュームをアクティブにする、LVMのサービスを提供しています.

サービスは、初期化システムを介して管理することができます.

OpenRC
LVMを手動で起動するには:

ブート時にLVMを起動するには:

systemd
LVMを手動で起動するには:

ブート時にLVMを起動するには:

initramfsの中でLVMを使う
ほとんどのブートローダは直接LVMから起動することはできません - GRUBレガシーもLILOもです. Grub2は、LVMリニア論理ボリューム、ミラー化論理ボリュームとおそらくいくつかの種類のRAID論理ボリュームから起動することができます. ブートローダーは現在、シンプロビジョニングされた論理ボリュームをサポートしていません.

それにより、LVMでない/bootパーティションを使いLVMのルートパーティションをinitramfsからマウントすることが推奨されています. そのようなinitramfsはgenkernel, とdracut:を通して自動的に生成されます.


 * は全てのタイプからブート可能です. ただしシンプロビジョニングされたボリュームは除き(それがビルドホストからの バイナリのビルドもコピーもしてなければ)、また、おそらくRAID10も除かれます. (RAID10サポートはLVM2 2.02.98が必要ですがgenkernelは2.02.89をビルドします. しかし、スタティックバイナリがあればそれらがコピーされます);
 * は全てのタイプのボリュームからブート可能ですが、十分に新しいを必要とし、さもなければシンプロビジョニングバイナリの破壊に至ります;
 * は全てのタイプでブートするはずですが、もしホストがシンプロビジョニングルート上で動いている場合、シンプロビジョニングサポートがinitramfsにて必要です.

Genkernel/Genkernel-next
かのいずれかをインストールしてください. genkernelがシステムバイナリを使うよう(でなければそのプライベートコピーがビルドされます)、静的USEフラグもパッケージで有効化されます. 次の例はinitramfs(カーネル全体ではなく)をビルドし、LVMサポートを有効化します.

genkernelのmanpageは、システム要件に応じて他のオプションの概要を説明します.

initrdはどのようにLVMを開始するか、パラメータを必要とします. そして彼らは他のカーネルパラメータと同じように提供されます. 例えば:

Dracut
パッケージはRedHatプロジェクトから移植され、initramfsを生成する類似ツールを提供します. 現在それはテストのため~archにありますが、ユーザーはそれをインストールするためには許可する必要があるでしょう(を通して). それをする前に、変数 はに追加されるべきです. 他のモジュールが必要とされるでしょう. Dracutを参照してください. 一般に、次のコマンドは有効なデフォルトinitramfsを生成します.

initrdはどのようにLVMを開始するか、パラメータを必要とします. そして彼らは他のカーネルパラメータと同じように提供されます. 例えば:

についてのLVMオプションの包括的リストはDracut Manualの一節をご覧ください.

使い方
LVMは次に示す3つの異なるレベルでストレージを構成します:
 * ハードドライブ、パーティション、RAID、物理ディスク(PV)として初期化される他の種類のストレージ
 * 物理ディスク(PV)はボリュームグループ(VG)中にグループ化される
 * 論理ボリューム(LV)はボリュームグループ(VG)中に管理される

PV（物理ボリューム）
物理ボリュームはLVMが構成される実際のハードウェアやストレージシステムやストレージです.

パーティショニング
"LVM"のパーティションタイプは"8e"(Linux LVM)です.

例えば、でのパーティションのタイプを設定するには:

では、キーを使ってパーティションをつくり、それからキーでパーティションタイプを"8e"に変更してください.

PVを作成
物理ディスクはコマンドによって作成あるいは初期化されます.

例えば、次のコマンドはとの先頭パーティションに物理ディスクをつくります:

PVの一覧
コマンドによってシステムのアクティブな全ての物理ボリュームを得ることができます.

より多くの物理ボリュームについて表示したければ、は非アクティブの物理ボリュームを検知し、有効化します.

PVを削除する
LVMは自動的に(そうしないよう指示しない限り)全ての有効なボリュームへデータを順に送ります. もし(ボリュームグループ内の)該当する論理ボリュームがある単一物理ボリュームのフリースペースの量より小さければ、その論理ボリューム用の全てのスペースがその(単一)物理ボリューム上に連続して確保されます. これはパフォーマンス上の理由です.

物理ボリュームがボリュームグループより削除される必要があるのであれば、データがまず物理ボリュームから除去される必要があります. コマンドで物理ボリューム上の全てのデータが同一ボリュームグループの物理ボリュームに移されます.

このような動作は移動する必要があるデータの量に応じて時間がかかります. 完了したらデバイス上に残されたデータはないはずです. pvdisplayによってどの論理ボリュームからも物理ボリュームがもはや使われていないことを確認してください.

次のステップは、pvremoveを使って物理ボリュームが"deselected"になった後に物理ボリュームをボリュームグループからで削除することです.

VG (Volume Group)
ボリュームグループ(VG)は多くの物理ボリュームをまとめ、デバイスファイルシステムにとして表示します. ボリュームグループの名前は管理者によって決定されます.

VGを作成
次のコマンドはボリュームグループ"vg0"をととして割り当てられた2つの物理ボリュームからつくります.

VGの一覧
全てのアクティブなボリュームグループを表示するにはコマンドを使ってください.

ボリュームグループが見つからなければコマンドを使ってください.

VGを拡張
管理者がストレージ・リソースのプールを使用できるようにボリューム・グループグループの物理ボリュームは、ファイルシステムに割り当てることができます. ボリュームグループが十分な記憶リソースを保持していない場合には、追加の物理ボリュームにボリュームグループを拡張する必要があります.

次の例はボリュームグループ "vg0"を物理ボリュームで拡張します.

物理ボリュームを最初のように初期化する必要があることを忘れないでください！

VGの縮小
物理ボリュームをボリュームグループから削除する必要があるときは物理ボリューム上のまだ使われている全てのデータはそのボリュームグループ内の他の物理ボリュームに移動される必要があります. 見てきたように、これはコマンドによって行われ、その後物理ボリュームはvgrduceを使うことでボリュームグループから削除されます.

VGの削除
ボリュームグループがもはや必要でない(あるいは、言い換えれば、それが表すストレージプールがもはや使われてなく、その中の物理ボリュームが他の目的で解放される必要がある)なら、ボリュームグループはvgremoveで削除されます. これは論理ボリュームがボリュームグループに存在しない場合と、プールからすでに除去された物理ボリューム以外の全てにのみ有効です.

LV (Logical Volume)
論理ボリュームはシステムを利用可能にする最後のメタデバイスであり、通常、そこにファイルシステムを作成します. 論理ボリュームはボリュームグループ中に作成・管理され、として表示されます. ボリュームグループのように、論理ボリュームに使われる名前は管理者によって決定されます.

LVの作成
論理ボリュームをつくるためには、コマンドが使われます. コマンドへのパラメータは論理ボリュームの要求サイズ(ただしボリュームグループ中の空き量量より大きくすることはできません)から成り、それによりボリュームグループ中にスペースが確保され、論理ボリュームの名前がつくられます.

次の例では、論理ボリューム"lvol1"はボリュームグループ"vg0"から150MBのサイズでつくられます.

にボリュームグループ内の全ての空き容量を使うよう指示することが可能です. これは(人間に可読の)サイズではなく"エクステント"の量を指示する オプションによって行われます. 論理ボリュームはボリュームグループ内のデータの塊である"論理エクステント"に分割されます. ボリュームグループ内の全てのエクステントは同じサイズです. オプションでに全ての未使用エクステントに割り当てるよう指示できます.

"FREE"の次の"VG"キーワードはボリュームグループ全体のサイズを示すために使われます.

LVの表示
全てのアクティブな論理ボリュームを表示するにはコマンドを使ってください.

論理ボリュームがない場合、コマンドが全ての優子なボリュームグループ上の論理ボリュームをスキャンするのに使えます.

LVを拡張
論理ボリュームを拡張する必要がある場合、コマンドは論理ボリュームの確保済みスペースを広げるのに使うことが出来ます.

例えば、論理ボリューム"lvol1"を計500MBに拡張するには:

トータルサイズではなく追加サイズを指定することも可能です.

拡張されたボリュームグループは直ちに追加のストレージをユーザーに提供するわけではありません. そのためには、ボリュームグループ上のファイルシステムを必要サイズだけ拡張する必要があります. もしファイルシステムがオンラインリサイズを許可しないばあい、問題のファイルシステムについてドキュメントを調べてください.

例えば、ext4ファイルシステムを500MBになるように拡張するには:

For certain file systems, lvreseize extends the logical volume and the file system in one step. For instance, to extend the logical volume lvol1 and resize the ext4 file system:

LVの縮小
論理ボリュームのサイズを縮小するには、まずファイルシステムそれ自体を縮小してください. . 全てのファイルシステムがオンライン縮小をサポートしているわけではありません.

例えば、ext4はオンライン縮小をサポートしていないのでファイルシステムはまずアンマウントされる必要があります. 問題を排除するためファイルシステムチェックを行うことが推奨されています.

縮小済みファイルシステムのもと、論理ボリュームを縮小することが可能です.

LV権限
LVMは論理ボリューム上での権限付与をサポートしています.

例えば、論理ボリュームはコマンドにより"read only"にすることが可能です.

変更が直ちに実行されるために再マウントが必要です.

論理ボリュームを再び書き込み可能にするために、"rw"パーティションビットを使ってください:

LVを削除する
論理ボリュームを削除する前に、それがマウントされていないことを確認してください.

さらなる書き込みが起こらないよう論理ボリュームを停止してください:

ボリュームがアンマウント・停止されたことで削除可能になり、ボリュームグループ内の他の論理ボリュームのためにエクステントを解放することができます.

機能
LVMはストレージ管理者にたくさんのおもろい機能を提供しています. たとえば
 * シンプロビジョニング (ストレージのオーバーコミット)
 * スナップショット
 * 異なる領域確保方法によるボリュームタイプ

シンプロビジョニング
Recent versions of LVM2 (2.02.89) support "thin" volumes. Thin volumes are to block devices what sparse files are to file systems. Thus, a thin logical volume within a pool can be "over-committed": its presented size can be larger than the allocated size - it can even be larger than the pool itself. Just like a sparse file, the extents are allocated as the block device gets populated. If the file system has discard support extents are freed again as files are removed, reducing space utilization of the pool.

Within LVM, such a thin pool is a special type of logical volume, which itself can host logical volumes.

Creating a thin pool
Each thin pool has metadata associated with it, which is added to the thin pool size. LVM will compute the size of the metadata based on the size of the thin pool as the minimum of pool_chunks * 64 bytes or 2MiB, whichever is larger. The administrator can select a different metadata size as well.

To create a thin pool, add the  options to :

The above example creates a thin pool called thin_pool with a total size of 150 MB. This is the real allocated size for the thin pool (and thus the total amount of actual storage that can be used).

To explicitly ask for a certain metadata size, use the  option:

Due to the metadata that is added to the thin pool, the intuitive way of using all available size in a volume group for a logical volume does not work (see LVM bug |812726):

Note the thin pool does not have an associated device node like other LV's.

Creating a thin logical volume
A thin logical volume is a logical volume inside the thin pool (which itself is a logical volume). As thin logical volumes are sparse, a virtual size instead of a physical size is specified using the  option:

In this example, the (thin) logical volume lvol1 is exposed as a 300MB-sized device, even though the underlying pool only holds 150MB of real allocated storage.

It is also possible to create both the thin pool as well as the logical volume inside the thin pool in one command:

Listing thin pools and thin logical volumes
Thin pools and thin logical volumes are special types of logical volumes, and as such as displayed through the command. The command will also detect these logical volumes.

Extending a thin pool
The thin pool is expanded like a non-thin logical volume using. For instance:

Extending a thin logical volume
A thin logical volume is expanded just like a regular one:

Note that the command uses the   option (or   if extent counts are used) and not a "virtual size" option as was used during the creation.

Reducing a thin pool
Currently, LVM cannot reduce the size of the thin pool. See LVM bug |812731.

Reducing a thin logical volume
Thin logical volumes are reduced just like regular logical volumes.

For instance:

Note that the command uses the   option (or   if extent counts are used) and not a "virtual size" option as was used during the creation.

Removing thin pools
Thin pools cannot be removed until all the thin logical volumes inside it are removed.

When a thin pool no longer services any thin logical volume, it can be removed through the command:

LVM2 snapshots and thin snapshots
A snapshot is a logical volume that acts as copy of another logical volume. It displays the state of the original logical volume at the time of snapshot creation.

Creating a snapshot logical volume
A snapshot logical volume is created using the  option to. Snapshot logical volumes are still given allocated storage as LVM "registers" all changes made to the original logical volume and stores these changes in the allocated storage for the snapshot. When querying the snapshot state, LVM will start from the original logical volume and then check all changes registered, "undoing" the changes before showing the result to the user.

A snapshot logical volume henceforth "growths" at the rate that changes are made on the original logical volume. When the allocated storage for the snapshot is completely used, then the snapshot will be removed automatically from the system.

The above example creates a snapshot logical volume called 20140412_lvol1, based on the logical volume lvol1 in volume group vg0. It uses 10% of the space (extents actually) allocated to the volume group.

Accessing a snapshot logical volume
Snapshot logical volumes can be mounted like regular logical volumes. They are even not restricted to read-only operations - it is possible to modify snapshots and thus use it for things such as testing changes before doing these on a "production" file system.

As long as snapshot logical volumes exist, the regular/original logical volume cannot be reduced in size or removed.

LVM thin snapshots
To create a thin snapshot, the command is used with the   option. No size declaration needs to be passed on:

Thin logical volume snapshots have the same size as their original thin logical volume, and use a physical allocation of 0 just like all other thin logical volumes.

It is also possible to take snapshots of snapshots:

Thin snapshots have several advantages over regular snapshots. First, thin snapshots are independent of their original logical volume once created. The original logical volume can be shrunk or deleted without affecting the snapshot. Second, thin snapshots can be efficiently created recursively (snapshots of snapshots) without the "chaining" overhead of regular recursive LVM snapshots.

Rolling back to snapshot state
To rollback the logical volume to the version of the snapshot, use the following command:

This might take a couple of minutes, depending on the size of the volume. Please note that the rollback will only happen once the parent logical volume is offline. Hence a reboot might be required.

Rolling back thin snapshots
For thin volumes, does not work. Instead, delete the original logical volume and rename the snapshot:

Different storage allocation methods
LVM supports different allocation methods for storage:
 * Linear volumes (which is the default);
 * Mirrored volumes (in a more-or-less active/standby setup);
 * Striping (RAID0);
 * Mirrored volumes (RAID1 - which is more an active/active setup);
 * Striping with parity (RAID4 and RAID5);
 * Striping with double parity (RAID6);
 * Striping and mirroring (RAID10).

Linear volumes
Linear volumes are the most common kind of LVM volumes. LVM will attempt to allocate the logical volume to be as physically contiguous as possible. If there is a physical volume large enough to hold the entire logical volume, then LVM will allocate it there, otherwise it will split it up into as few pieces as possible.

The commands introduced earlier on to create volume groups and logical volumes create linear volumes.

Because linear volumes have no special requirements, they are the easiest to manipulate and can be resized and relocated at will. If a logical volume is allocated across multiple physical volumes, and any of the physical volumes become unavailable, then that logical volume cannot be started anymore and will be unusable.

Mirrored volumes
LVM supports mirrored volumes, which provide fault tolerance in the event of drive failure. Unlike RAID1, there is no performance benefit - all reads and writes are delivered to a single side of the mirror.

To keep track of the mirror state, LVM requires a log to be kept. It is recommended (and often even mandatory) to position this log on a physical volume that does not contain any of the mirrored logical volumes. There are three kind of logs that can be used for mirrors:


 * 1) Disk is the default log type. All changes made are logged into extra metadata extents, which LVM manages. If a device fails, then the changes are kept in the log until the mirror can be restored again.
 * 2) Mirror logs are disk logs that are themselves mirrored.
 * 3) Core mirror logs record the state of the mirror in memory only. LVM will have to rebuild the mirror every time it is activated. This type is useful for temporary mirrors.

To create a logical volume with a single mirror, pass the -m 1 argument (to select standard mirroring) with optionally  to select a particular log type:

The -m 1 tells LVM to create one (additional) mirror, so requiring 2 physical volumes. The  option is an optimization - without it LVM will try synchronize the mirror by copying empty sectors from one logical volume to another.

It is possible to create a mirror of an existing logical volume:

The  option does the conversion in the background as this can take quite a while.

To remove a mirror, set the number of mirrors (back) to 0:

If part of the mirror is unavailable (usually because the disk containing the physical volume has failed), the volume group will need to be brought up in degraded mode:

On the first write, LVM will notice the mirror is broken. The default policy ("remove") is to automatically reduce/break the mirror according to the number of pieces available. A 3-way mirror with a missing physical volume will be reduced to 2-way mirror; a 2-way mirror will be reduced to a regular linear volume. If the failure is only transient, and the missing physical volume returns after LVM has broken the mirror, the mirrored logical volume will need to be recreated on it.

To recover the mirror, the failed physical volume needs to be removed from the volume group, and a replacement physical volume needs to be added (or if the volume group has a free physical volume, it can be created on that one). Then the mirror can be recreated with at which point the old physical volume can be removed from the volume group:

It is possible to have LVM recreate the mirror with free extents on a different physical volume if one side fails. To accomplish that, set  to allocate in.

Thin mirrors
It is not (yet) possible to create a mirrored thin pool or thin volume. It is possible to create a mirrored thin pool by creating a normal mirrored logical volume and then converting the logical volume to a thin pool with. 2 logical volumes are required: one for the thin pool and one for the thin metadata; the conversion process will merge them into a single logical volume.

Striping (RAID0)
Instead of a linear volume, where multiple contiguous physical volumes are appended, it possible to create a striped or RAID0 volume for better performance. This will alternate storage allocations across the available physical volumes.

To create a striped volume over three physical volumes:

The  option indicates over how many physical volumes the striping should be done.

It is possible to mirror a stripe set. The  and   options can be combined to create a striped mirror:

This creates a 2 physical volume stripe set and mirrors it on 2 different physical volumes, for a total of 4 physical volumes. An existing stripe set can be mirrored with.

A thin pool can be striped like any other logical volume. All the thin volumes created from the pool inherit that settings - do not specify it manually when creating a thin volume.

It is not possible to stripe an existing volume, nor reshape the stripes across more/less physical volumes, nor to convert to a different RAID level/linear volume. A stripe set can be mirrored. It is possible to extend a stripe set across additional physical volumes, but they must be added in multiples of the original stripe set (which will effectively linearly append a new stripe set).

Mirroring (RAID1)
Unlike RAID0, which is striping, RAID1 is mirroring, but implemented differently than the original LVM mirror. Under RAID1, reads are spread out across physical volumes, improving performance. RAID1 mirror failures do not cause I/O to block because LVM does not need to break it on write.

Any place where an LVM mirror could be used, a RAID1 mirror can be used in its place. It is possible to have LVM create RAID1 mirrors instead of regular mirrors implicitly by setting mirror_segtype_default to raid1 in.

To create a logical volume with a single mirror:

Note the difference for creating a mirror: There is no mirrorlog specified, because RAID1 logical volumes do not have an explicit mirror log - it built-in to the logical volume.

It is possible to convert an existing logical volume to RAID1:

To remove a RAID1 mirror, set the number of mirrors to 0:

If part of the RAID1 is unavailable (usually because the disk containing the physical volume has failed), the volume group will need to be brought up in degraded mode:

Unlike an LVM mirror, writing does NOT break the mirroring. If the failure is only transient, and the missing physical volume returns, LVM will resync the mirror by copying cover the out-of-date segments instead of the entire logical volume. If the failure is permanent, then the failed physical volume needs to be removed from the volume group, and a replacement physical volume needs to be added (or if the volume group has a free physical volume, it can be created on a different PV). The mirror can then be repaired with, and the old physical volume can be removed from the volume group:

Thin RAID1
It is not (yet) possible to create a RAID1 thin pool or thin volume. It is possible to create a RAID1 thin pool by creating a normal mirrored logical volume and then converting the logical volume to a thin pool with. 2 logical volumes are required: one for the thin pool and one for the thin metadata; the conversion process will then merge them into a single logical volume.

Striping with parity (RAID4 and RAID5)
RAID0 is not fault-tolerant - if any of the physical volumes fail then the logical volume is unusable. By adding a parity stripe to RAID0 the logical volume can still function if a physical volume is missing. A new physical volume can then be added to restore fault tolerance.

Stripsets with parity come in 2 flavors: RAID4 and RAID5. Under RAID4, all the parity stripes are stored on the same physical volume. This can become a bottleneck because all writes hit that physical volume, and it gets worse the more physical volumes are in the array. With RAID5, the parity data is distributed evenly across the physical volumes so none of them become a bottleneck. For that reason, RAID4 is rare and is considered obsolete/historical. In practice, all stripesets with parity are RAID5.

Only the data physical volumes are specified with -i, LVM adds one to it automatically for the parity. So for a 3 physical volume RAID5, -i 2 is passed on and not -i 3.

When a physical volume fails, then the volume group will need to be brought up in degraded mode:

The volume will work normally at this point, however this degrades the array to RAID0 until a replacement physical volume is added. Performance is unlikely to be affected while the array is degraded - although it does need to recompute its missing data via parity, it only requires simple XOR for the parity block with the remaining data. The overhead is negligible compared to the disk I/O.

To repair the RAID5:

It is possible to replace a still working physical volume in RAID5 as well:

The same restrictions of stripe sets apply to stripe sets with parity as well: it is not possible to enable striping with parity on an existing volume, nor reshape the stripes with parity across more/less physical volumes, nor to convert to a different RAID level/linear volume. A stripe set with parity can be mirrored. It is possible to extend a stripe set with parity across additional physical volumes, but they must be added in multiples of the original stripe set with parity (which will effectively linearly append a new stripe set with parity).

Thin RAID5 logical volumes
It is not (yet) possible to create stripe set with parity (RAID5) thin pools or thin logical volumes. It is possible to create a RAID5 thin pool by creating a normal RAID5 logical volume and then converting the logical volume into a thin pool with. 2 logical volumes are required: one for the thin pool and one for the thin metadata; the conversion process will merge them into a single logical volume.

Striping with double parity (RAID6)
RAID6 is similar to RAID5, however RAID6 can survive up to two physical volume failures, thus offering more fault tolerance than RAID5 at the expense of extra physical volumes.

Like RAID5, the  option is used to specify the number of physical volumes to stripe, excluding the 2 physical volumes for parity. So for a 5 physical volume RAID6, pass on  and not.

Recovery for RAID6 is the same as RAID5.

Thin RAID6 logical volumes
It is not (yet) possible to create a RAID6 thin pool or thin volumes. It is possible to create a RAID6 thin pool by creating a normal RAID6 logical volume and then converting the logical volume into a thin pool with. 2 logical volumes are required: one for the thin pool and one for the thin metadata; the conversion process will merge them into a single logical volume.

LVM RAID10
RAID10 is a combination of RAID0 and RAID1. It is more powerful than RAID0+RAID1 as the mirroring is done at the stripe level instead of the logical volume level, and therefore the layout doesn't need to be symmetric. A RAID10 volume can tolerate at least a single missing physical volume, and possibly more.

Both the  and   options are specified:   is the number of stripes and   is the number of mirrors. Two stripes and 1 mirror requires 4 physical volumes.

Thin RAID10
It is not (yet) possible to create a RAID10 thin pool or thin volumes. It is possible to create a RAID10 thin pool by creating a normal RAID10 logical volume and then converting the logical volume into a thin pool with. 2 logical volumes are required: one for the thin pool and one for the thin metadata; the conversion process will merge them into a single logical volume.

Experimenting with LVM
It is possible to experiment with LVM without using real storage devices. To accomplish this, loopback devices are created.

First make sure to have the loopback module loaded.

Next configure LVM to not use udev to scan for devices:

Create some image files which will become the storage devices. The next example uses five files for a total of about ~10GB of real hard drive space:

Check which loopback devices are available:

Assuming all loopback devices are available, next create the devices:

The devices are now available to use as any other hard drive in the system (and thus be perfect for physical volumes).

Troubleshooting
LVM は、既にいくつかのレベルの冗長性を提供するいくつかの機能です. しかし、状況が失われる物理ボリュームまたは論理ボリュームを復元することがあります.

vgcfgrestore utility
By default, on any change to a LVM physical volume, volume group, or logical volume, LVM2 create a backup file of the metadata in. These files can be used to recover from an accidental change (like deleting the wrong logical volume). LVM also keeps a backup copy of the most recent metadata in. These can be used to restore metadata to a replacement disk, or repair corrupted metadata.

To see what states of the volume group are available to be restored (partial output to improve readability):

Recovering an accidentally deleted logical volume
Assuming the logical volume lvm_raid1 was accidentally removed from volume group vg0, it is possible to recover it as follows:

Replacing a failed physical volume
It possible to do a true "replace" and recreate the metadata on the new physical volume to be the same as the old physical volume:

The important line here is the UUID "unknown device".

This recreates the physical volume metadata, but not the missing logical volume or volume group data on the physical volume.

This now reconstructs all the missing metadata on the physical volume, including the logical volume and volume group data. However it doesn't restore the data, so the mirror is out of sync.

This will resync the mirror. This works with RAID 4,5 and 6 as well.

Deactivating a logical volume
It is possible to deactivate a logical volume with the following command:

It is not possible to mount the logical volume anywhere before it gets reactivated:

外部の情報

 * LVM2 sourceware.org
 * LVM tldp.org
 * LVM2 Wiki redhat.com