ラベル mdadm の投稿を表示しています。 すべての投稿を表示
ラベル mdadm の投稿を表示しています。 すべての投稿を表示

2025年2月24日月曜日

Rocky Linux 9.4 でソフトウエアRAIDを使う

 mdadm を使います.1TB の nvme-SSD を3枚使って RAID5 を組もうと思う.

gnome-disks で GUI を使ってデバイスを調べてみる.
  1. $ gnome-disks
 

/dev/nvme2n1 /dev/nvme1n1 /dev/nvme0n1 の3つが対象らしい.mdadm で デバイス3つからなる RAID5 アレイを作成してみる.
  1. $ sudo mdadm --create /dev/md1 --level=5 --raid-devices=3 /dev/nvme2n1 /dev/nvme1n1 /dev/nvme0n1
  2. mdadm: Defaulting to version 1.2 metadata
  3. mdadm: array /dev/md1 started.
 

詳細を見てみる.
  1. $ sudo mdadm --detail /dev/md1
  2. /dev/md1:
  3. Version : 1.2
  4. Creation Time : Sun Feb 23 18:43:49 2025
  5. Raid Level : raid5
  6. Array Size : 1953260544 (1862.77 GiB 2000.14 GB)
  7. Used Dev Size : 976630272 (931.39 GiB 1000.07 GB)
  8. Raid Devices : 3
  9. Total Devices : 3
  10. Persistence : Superblock is persistent
  11.  
  12. Intent Bitmap : Internal
  13.  
  14. Update Time : Sun Feb 23 18:44:05 2025
  15. State : clean, degraded, recovering
  16. Active Devices : 2
  17. Working Devices : 3
  18. Failed Devices : 0
  19. Spare Devices : 1
  20.  
  21. Layout : left-symmetric
  22. Chunk Size : 512K
  23.  
  24. Consistency Policy : bitmap
  25.  
  26. Rebuild Status : 0% complete
  27.  
  28. Name : localhost.localdomain:1 (local to host localhost.localdomain)
  29. UUID : 1b06a578:dccea7c3:2c92ad48:7f894c6f
  30. Events : 4
  31.  
  32. Number Major Minor RaidDevice State
  33. 0 259 2 0 active sync /dev/nvme2n1
  34. 1 259 1 1 active sync /dev/nvme1n1
  35. 3 259 0 2 spare rebuilding /dev/nvme0n1
 

XFS でフォーマットしてみる.
  1. $ sudo mkfs.xfs /dev/md1
  2. log stripe unit (524288 bytes) is too large (maximum is 256KiB)
  3. log stripe unit adjusted to 32KiB
  4. meta-data=/dev/md1 isize=512 agcount=32, agsize=15259776 blks
  5. = sectsz=512 attr=2, projid32bit=1
  6. = crc=1 finobt=1, sparse=1, rmapbt=0
  7. = reflink=1 bigtime=1 inobtcount=1 nrext64=0
  8. data = bsize=4096 blocks=488312832, imaxpct=5
  9. = sunit=128 swidth=256 blks
  10. naming =version 2 bsize=4096 ascii-ci=0, ftype=1
  11. log =internal log bsize=4096 blocks=238440, version=2
  12. = sectsz=512 sunit=8 blks, lazy-count=1
  13. realtime =none extsz=4096 blocks=0, rtextents=0
 

マウントポイントを作ってマウント.読み書きも確認.
  1. $ sudo mkdir ssd_raid5
  2. $ sudo chmod 775 ssd_raid5/
  3. $ sudo mount /dev/md1 ssd_raid5/
 

/etc/mdadm.conf に設定を書き込み.fstabにも登録しておく.
  1. $ sudo mdadm --examine --scan | sudo tee -a /etc/mdadm.conf
  2. $ sudo vim /etc/fstab
 

RAID5 アレイ自体はご機嫌に作成できたのだが,おっしゃ使うかと HDD からファイルをコピーしていると途中から本体の画面から
  1. [718.401734] md1: writeback error on inode 1611208334, offset 0 sector 1466540928
  2. [718.401748] md1: writeback error on inode 1611208334, offset 0 sector 1466540928
  3. [718.401758] md1: writeback error on inode 1611208334, offset 0 sector 1466540928
 
みたいなメッセージが大量に発生し(上の詳細は適当),しまいに
  1. [718.408539] XFS (md1): log I/O error -5
  2. [718.408544] XFS (md1): Filesystem has been shut down due to log error (0x2).
  3. [718.408546] XFS (md1): Please unmount the filesystem and rectify the problem(s).
 
とファイルシステムからIOエラーが表示されてしまうなど.試しにアレイのdetailを見てみると…
  1. $ sudo mdadm --detail /dev/md1
  2. /dev/md1:
  3. Version : 1.2
  4. Creation Time : Sun Feb 23 19:45:46 2025
  5. Raid Level : raid5
  6. Array Size : 1953260544 (1862.77 GiB 2000.14 GB)
  7. Used Dev Size : 976630272 (931.39 GiB 1000.07 GB)
  8. Raid Devices : 3
  9. Total Devices : 3
  10. Persistence : Superblock is persistent
  11.  
  12. Intent Bitmap : Internal
  13.  
  14. Update Time : Sun Feb 23 20:08:49 2025
  15. State : clean, FAILED
  16. Active Devices : 1
  17. Working Devices : 2
  18. Failed Devices : 1
  19. Spare Devices : 1
  20.  
  21. Layout : left-symmetric
  22. Chunk Size : 512K
  23.  
  24. Consistency Policy : bitmap
  25.  
  26. Name : localhost.localdomain:1 (local to host localhost.localdomain)
  27. UUID : 7396ce6e:09a2ed3a:09c83b4a:295ff556
  28. Events : 315
  29.  
  30. Number Major Minor RaidDevice State
  31. - 0 0 0 removed
  32. 1 259 2 1 active sync /dev/nvme2n1
  33. - 0 0 2 removed
  34.  
  35. 0 259 0 - faulty /dev/nvme0n1
  36. 3 259 1 - spare /dev/nvme1n1
 

/dev/nvme0n1 ご臨終か….Lexir 1TBという詳細のわからないチャイナSSDだし….むしろ LVM で単一ボリュームにしてこれまで使っていたので,過去のファイルに影響及ぼしてなければいいのだけれど….

結局残った 2 枚で RAID1 アレイを組んでお茶を濁しておく.怪しい SSD は破棄して 2TB x 3 とかにするか.