mdadm を使います.1TB の nvme-SSD を3枚使って RAID5 を組もうと思う.
gnome-disks で GUI を使ってデバイスを調べてみる.
/dev/nvme2n1 /dev/nvme1n1 /dev/nvme0n1 の3つが対象らしい.mdadm で デバイス3つからなる RAID5 アレイを作成してみる.
- $ sudo mdadm --create /dev/md1 --level=5 --raid-devices=3 /dev/nvme2n1 /dev/nvme1n1 /dev/nvme0n1
- mdadm: Defaulting to version 1.2 metadata
- mdadm: array /dev/md1 started.
詳細を見てみる.
- $ sudo mdadm --detail /dev/md1
- /dev/md1:
- Version : 1.2
- Creation Time : Sun Feb 23 18:43:49 2025
- Raid Level : raid5
- Array Size : 1953260544 (1862.77 GiB 2000.14 GB)
- Used Dev Size : 976630272 (931.39 GiB 1000.07 GB)
- Raid Devices : 3
- Total Devices : 3
- Persistence : Superblock is persistent
- Intent Bitmap : Internal
- Update Time : Sun Feb 23 18:44:05 2025
- State : clean, degraded, recovering
- Active Devices : 2
- Working Devices : 3
- Failed Devices : 0
- Spare Devices : 1
- Layout : left-symmetric
- Chunk Size : 512K
- Consistency Policy : bitmap
- Rebuild Status : 0% complete
- Name : localhost.localdomain:1 (local to host localhost.localdomain)
- UUID : 1b06a578:dccea7c3:2c92ad48:7f894c6f
- Events : 4
- Number Major Minor RaidDevice State
- 0 259 2 0 active sync /dev/nvme2n1
- 1 259 1 1 active sync /dev/nvme1n1
- 3 259 0 2 spare rebuilding /dev/nvme0n1
XFS でフォーマットしてみる.
- $ sudo mkfs.xfs /dev/md1
- log stripe unit (524288 bytes) is too large (maximum is 256KiB)
- log stripe unit adjusted to 32KiB
- meta-data=/dev/md1 isize=512 agcount=32, agsize=15259776 blks
- = sectsz=512 attr=2, projid32bit=1
- = crc=1 finobt=1, sparse=1, rmapbt=0
- = reflink=1 bigtime=1 inobtcount=1 nrext64=0
- data = bsize=4096 blocks=488312832, imaxpct=5
- = sunit=128 swidth=256 blks
- naming =version 2 bsize=4096 ascii-ci=0, ftype=1
- log =internal log bsize=4096 blocks=238440, version=2
- = sectsz=512 sunit=8 blks, lazy-count=1
- realtime =none extsz=4096 blocks=0, rtextents=0
マウントポイントを作ってマウント.読み書きも確認.
/etc/mdadm.conf に設定を書き込み.fstabにも登録しておく.
RAID5 アレイ自体はご機嫌に作成できたのだが,おっしゃ使うかと HDD からファイルをコピーしていると途中から本体の画面から
- [718.401734] md1: writeback error on inode 1611208334, offset 0 sector 1466540928
- [718.401748] md1: writeback error on inode 1611208334, offset 0 sector 1466540928
- [718.401758] md1: writeback error on inode 1611208334, offset 0 sector 1466540928
みたいなメッセージが大量に発生し(上の詳細は適当),しまいに
- [718.408539] XFS (md1): log I/O error -5
- [718.408544] XFS (md1): Filesystem has been shut down due to log error (0x2).
- [718.408546] XFS (md1): Please unmount the filesystem and rectify the problem(s).
とファイルシステムからIOエラーが表示されてしまうなど.試しにアレイのdetailを見てみると…
- $ sudo mdadm --detail /dev/md1
- /dev/md1:
- Version : 1.2
- Creation Time : Sun Feb 23 19:45:46 2025
- Raid Level : raid5
- Array Size : 1953260544 (1862.77 GiB 2000.14 GB)
- Used Dev Size : 976630272 (931.39 GiB 1000.07 GB)
- Raid Devices : 3
- Total Devices : 3
- Persistence : Superblock is persistent
- Intent Bitmap : Internal
- Update Time : Sun Feb 23 20:08:49 2025
- State : clean, FAILED
- Active Devices : 1
- Working Devices : 2
- Failed Devices : 1
- Spare Devices : 1
- Layout : left-symmetric
- Chunk Size : 512K
- Consistency Policy : bitmap
- Name : localhost.localdomain:1 (local to host localhost.localdomain)
- UUID : 7396ce6e:09a2ed3a:09c83b4a:295ff556
- Events : 315
- Number Major Minor RaidDevice State
- - 0 0 0 removed
- 1 259 2 1 active sync /dev/nvme2n1
- - 0 0 2 removed
- 0 259 0 - faulty /dev/nvme0n1
- 3 259 1 - spare /dev/nvme1n1
/dev/nvme0n1 ご臨終か….Lexir 1TBという詳細のわからないチャイナSSDだし….むしろ LVM で単一ボリュームにしてこれまで使っていたので,過去のファイルに影響及ぼしてなければいいのだけれど….
結局残った 2 枚で RAID1 アレイを組んでお茶を濁しておく.怪しい SSD は破棄して 2TB x 3 とかにするか.