재부팅 후 EBS 볼륨이 잘못된 디렉터리에 마운트됨

재부팅 후 EBS 볼륨이 잘못된 디렉터리에 마운트됨

AWS/EC2를 사용하여 호스팅되는 Amazon AMI의 /etc/fstab에 3개의 EBS RAID 10 볼륨이 있습니다.

인스턴스를 다시 시작할 때마다 볼륨이 잘못된 마운트 지점에 마운트됩니다. 이러한 RAID 볼륨을 올바른 마운트 지점에 마운트하는 방법에 대한 아이디어가 있습니까?

올바른 예

Filesystem            Size  Used Avail Use% Mounted on
/dev/xvda1            7.9G  1.3G  6.6G  16% /
tmpfs                 3.4G     0  3.4G   0% /dev/shm
/dev/md127            2.0G  129M  1.9G   7% /mnt/db
/dev/md126             35G   18G   18G  50% /mnt/web
/dev/md125            3.0G  267M  2.8G   9% /mnt/bc

다시 시작한 후

Filesystem            Size  Used Avail Use% Mounted on
/dev/xvda1            7.9G  1.3G  6.6G  16% /
tmpfs                 3.4G     0  3.4G   0% /dev/shm
/dev/md127            2.0G  129M  1.9G   7% /mnt/bc
/dev/md126             35G   18G   18G  50% /mnt/db
/dev/md125            3.0G  267M  2.8G   9% /mnt/web

내 /etc/fstab

LABEL=/     /           ext4    defaults,noatime  1   1
tmpfs       /dev/shm    tmpfs   defaults        0   0
devpts      /dev/pts    devpts  gid=5,mode=620  0   0
sysfs       /sys        sysfs   defaults        0   0
proc        /proc   proc    defaults        0   0
/dev/md127  /mnt/db     xfs     defaults        0   0
/dev/md126  /mnt/web    xfs     defaults        0   0
/dev/md125  /mnt/bc    xfs     defaults        0   0

답변1

쿠로코

장치 핸들 대신 각 장치에 대해 UUID를 사용해 볼 수 있습니다. 명령을 사용하여 장치의 UUID를 얻을 수 있습니다 blkid.

$ blkid
/dev/lvm-raid2/lvm0: UUID="2123d4567-1234-1238-adf2-687a3c237f56" TYPE="ext3" 

그런 다음 이것을 다음 항목에 추가하십시오 /etc/fstab.

UUID=2123d4567-1234-1238-adf2-687a3c237f56    /mnt/db     ext3     defaults        0   0

RAID 이름?

RAID 볼륨 이름을 만드는 설명에서 @Patrick이 언급되었습니다. 나는 솔직히 당신의 설정을 이해하지 못하기 때문에 이것을 제안하기를 꺼려합니다. 하지만 만일의 경우를 대비해 MD 장치 생성에 대한 세부 정보를 제공하겠습니다. 이 같은:

$ sudo mdadm --assemble /dev/mdraid10 --name=myraid10 --update=name \
         /dev/md125 /dev/md126 /dev/md127

저는 RAID를 10년 넘게 사용해 왔지만 한번도 장치 이름을 정한 적이 없습니다. 저는 보통 실제 장치 핸들의 UUID나 RAID를 사용합니다.

$ cat /proc/mdstat 
Personalities : [raid1] 
md0 : active raid1 sdc1[0] sdb1[1]
      2930266432 blocks [2/2] [UU]

unused devices: <none>

위 출력에서 ​​장치 핸들은 입니다 /dev/md0. 이제 세부정보를 확인할 수 있습니다.

$ mdadm --detail /dev/md0 
/dev/md0:
        Version : 0.90
  Creation Time : Wed Dec 16 22:55:51 2009
     Raid Level : raid1
     Array Size : 2930266432 (2794.52 GiB 3000.59 GB)
  Used Dev Size : -1
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Sat Jul 20 07:39:34 2013
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           UUID : 2f2b26fd:ce4d985f:6a98fc18:3e8f2e46
         Events : 0.23914

    Number   Major   Minor   RaidDevice State
       0       8       33        0      active sync   /dev/sdc1
       1       8       17        1      active sync   /dev/sdb1

그런 다음 일반적으로 다음을 사용하여 위의 UUID를 추가합니다 /etc/mdadm.conf.

$ sudo mdadm --detail --scan
ARRAY /dev/md0 level=raid1 num-devices=2 metadata=0.90 UUID=2f2b26fd:ce4d985f:6a98fc18:3e8f2e46 

$ sudo mdadm --detail --scan > /etc/mdadm.conf

이 RAID를 설치할 때 /etc/fstab다음을 사용합니다 /dev/md0.

/dev/md0        export/raid1 ext3    defaults            1 2

나는 또한 항상 RAID보다 LVM을 사용합니다. 그러나 그것은 완전히 또 다른 주제입니다.

인용하다

관련 정보