리눅스 부팅 문제

리눅스 부팅 문제

나는델 OptiPlex 7040그리고NVME M.2볼륨을 켜세요. 작동되면 서두르세요. 최근에 재부팅했는데 나타나지 않네요. 업데이트했습니다바이오스, 로그에 따르면 이것이 나쁘다고 나타나기 때문입니다.

# BAD BIOS from `Journalctl -xb`
Jul 06 18:30:24 server_f.project33.ca kernel: MAR: [Firnuare Bug]: No firnuare reserved region can cover this RMRR [0x00000000dd800000-0x00000000dfffffffl, contact By
Jul 06 18:30:24 server_f.project33.ca kernel: DMAR: [Firmware Bug]: Your BIOS is broken: bad RuRR (0x0000000OdaB00000-0x0000000OdfffffffI
                                        BIOS vendor: Dell Inc.: Ver: 1.4.9: Product Version:
Jul 06 18:30:24 server_f.project33.ca kernel: DMAR-IR: IOAPIC id 2 under DRHD base Oxfed91000 IOMMU 1
Jul 06 18:30:24 server_f.project33.ca kernel: DMAR-IR: HET id 0 under DRHD base Oxfed91000
Jul 06 18:30:24 server_f.project33.ca kernel: DMAR-IR: Queued invalidation will be enabled to support »Zapic and Intr-remapping.
Jul 06 18:30:24 server_f.project33.ca kernel: DMAR-IR: Enabled IRQ remapping in xZapic mode
Jul 06 18:30:24 server_f.project33.ca kernel: x86/cpu: SGX disabled bu BIOS.
Jul 06 18:30:25 server_f.project33.ca kernel: sd 0:0:0:0: Lsdb] Mo Caching mode page found
Jul 06 18:30:25 server_f.project33.ca kernel: sd 0:0:0:0: Lsdb] Assuming drive cache: write through
Jul 06 18:30:26 server_f.project33.ca systemdl11: Failed to mount /boot.
Jul 06 18:30:26 server_f.project33.ca systemd1]: Failed to start Crash recovery kernel arming.
Jul 06 18:30:26 server_f. project33.ca kernel: device-mapper: core: Cannot calculate initial queue limits
Jul 06 18:30:26 server_f.project33.ca systemdl1l: Failed to start LUM event activation on device 8:2

새 펌웨어인데 같은 오류가 또 발생합니다. 와 연관되다 LUM event activation on device 8:2:

## New BIOS OptiPlex_7040_1.23.0.exe
## Startup:

...
DSI mode with an ungated DDI clock, gate it
[ 2.8781271 1915 0000:00:02.0: [drm] [ENCODER:124:DDI E/PHY E] is disabled/in
DSI mode with an ungated DDI clock, gate it
[FAILED] Failed to start LUM event activation on device 8:2.
See "systemctl status lum2-puscan08:2.service" for details.
[ 2.879550] 1915 0000:00:02.0: [drml Finished loading MC firmware 1915/skl_d
mc_ver1_27 .bin (v1.27)
[ 2.885725] [drm] Initialized i915 1.6.0 20201103 for 0000:00:02.8 on minor B
You are in emergency mode.  After logging in, type "journalctl -xb" to view
system logs, "systemctl reboot" to reboot, "exit"
to boot into default mode.
[ 2.887900] ACPI: Video Device (GFX0] (multi-head: yes rom: no post: no)
[ 2.8882081 input: Video Bus as /devices/LNXSYSTM:00/LNXSYBUS:00/PMPDABB:BB/L
NXVIDED:00/input/input16
[ 2.8883351 snd hda_intel aBB0:00:1f .3: bound 0000:00:02.0 (ops i915_audio_co
mponent _bind_ops [i9151)
Give root password for maintenance
(or press Control-D to continue) :
2.899201] intel_rapl_common: Found RAPL oma in vackage
2.8992191 intel_rapl_common: Found RAPL domain core
2.8992211 intel rapl _common: Found RAPL domain uncore
2.899222] intel_rapl_common: Found RAPL domain dram
...
^d
[root@server_f ~]# systemctl status lum2-puscan@@:2.service
Unit lum2-puscan@8:2.service could not be found.
[root@server_f ~]#  

이 문제를 해결하는 방법을 모르겠습니다. scripts포트 스니핑을 위해 사용자나 중요한 항목을 변경한 기억이 없습니다 .

이 문제를 어떻게 해결할 수 있나요?

새 제품 OS이고 잘 작동합니다. BIOS 부분과 OS 로딩 이외의 피드백을 보면 OS 문제에 더 가깝다고 생각합니다 AlmaLinux 8.6.

업데이트: 업데이트된 결과입니다 BIOS. 출시 후 출력에서 ​​빨간색으로 강조표시됨 POST:

Jul 07 16:11:54 server_f.local kernel: x86/epu: SGX disabled by BIOS.
Jul 07 16:11:56 server_f.project33.ca systemd1l: Failed to mount /boot.
Jul 07 16:11:56 server_f.project33.ca systemdl1l: Failed to start Crash recovery kernel arming.
Jul 07 16:11:56 server_f project33.ca kernel: device-mapper: core: Cannot calculate initial queue limits
Jul 07 16:11:56 server_f .project33.ca systemdl1l: Failed to start LUM event activation on device B:2.
Jul 07 16:12:06 server_f.project33.ca systemdI11: Failed to mount /boot.
Jul 07 16:12:06 server_f.project33.ca systemdl1l: Failed to start Crash recovery kernel arming.

시작 메시지:

FAILED] Failed to start LVM event activation on device 8:2.
See "systemctl status lvm2-puscan@B:2.service' for details.
[ OK  ] Mounted /home

[rootlserver_f ~]# systemctl status lvm2-puscan@8:2.service
• lvm2-puscan8:2. service - LUM event activation on device 8:2
Loaded: loaded (/usr/lib/systemd/system/[email protected]; static: vendor preset: disabled)
Active: Palled (Result: exit-code) since Thu 2022-07-07 16:27:46 EDT: 57s ago
Docs: man: puscan(8)
Main PID: 889 (code=exited, status=5)

Jul 07 16:27:46 server_f.project33.ca lvm[889]:  puscan8891 UG rl not using quick activation.
Jul 07 16:27:46 server_f.project33.ca lvm[8891:  WARNING: Device /dev/sda2 has size of 486297600 sectors which is smaller than corresponding PU size of 998115328 sectors. Was device resized?
Jul 07 16:27:46 server_f.project33.ca lvm[8891:  WARMING: One or more devices used as PUs in UG rl have changed sizes.
Jul 07 16:27:46 server_f.project33.ca lvm[8891:  device-mapper: reload loctl on (253:4) failed: Invalid argument  
Jul 07 16:27:46 server_f.project33.ca lvm[8891:  device-mapper: reload ioctl on (253:4) failed: Invalid argument
Jul 07 16:27:46 server_f.project33.ca lvm[8891:  1 logical volume(s) in volume group "rl" now active
Jul 07 16:27:46 server_f.project33.ca lvm[889]:  puscan[8891 rl: autoactivation failed.
Jul 07 16:27:46 server_f .project33.ca systemd1]:  lumZ-puscan08:2.service: Main process exited, code=exited, status-5/NOTINSTALLED
Jul 07 16:27:46 server_f .project33.ca systemd[11: lum2-puscan@8:2.service: Failed with result *exit-cade"
Jul 07 16:27:46 server_f .project33.ca systemdl11: Failed to start LUM event activation on device 8:2.

[root&server_f ~] lsblk
NAME                      MAJ:MIN  RM    SIZE       RO  TYPE  MOUNTPOINT
sda                         8:0     0     447G      0   disk
|-sda1                      8:1     0       1G      0   part
|-sda2                      8:2     0     231.9G    0   part
  |-r1-swap               253:3     0      15.7G    0   lvm
nvmeOn1                   251:0     0     232.9G    0   disk
|-nume0n1p1               259:1     0       1G      0   part
|-nume0n102               259:2     0     231.9G    0   part
  |-almalinux server_f-root.   253:0     0       70G     0   lvm   /
  |-almalinux server_f-swap   253:1     0      15.7G    0   lvm   [SWAP]
  |-almalinux server_f-home   253:2     0     146.2G    0   lvm   /home

뭔가 잘못된 것 같습니다 sda2. 그래서 꺼내서 다른 상자에서 포맷했습니다. 같은 문제입니다. Failed to mount /boot. 상자에서 드라이브를 꺼내서 nvme부팅 볼륨만 남았습니다. 같은 문제입니다. /boot어떤 이유로 설치되지 않았습니다.

[rootlfuf ~]# dmesg | grep -i mount
[0.019538] Mount-cache hash table entries: 65536 (order: 7, 524288 bytes, vmalloc)
[0.019726] Moumtpoint-cache hash table entries: 65536 (order: 7, 524288 bytes, umalloc)
[1.825407] XPS (dm-@): Mounting V5 Filesystem
[1.834948] XFS (dm-8): Ending clean mount
[2.322309] XTS (numeßn1p1): Mounting V5 Filesystem
[2.343868] XFS (numeßn1p1): Corruption warning: Metadata has LSN (1:3869) ahead of current LSM (1:3835). Please unmount and run x's repair (>= V4.3) to resolve.
[2.344044] XFS (numeßn1p1): log mount/recovery failed: error -22
[2.344227] XTS (numeln1p1) : log mount failed
[2.679073] XFS (dm-2) : Mounting VS Filesystem
[2.698961] XPS (dm-2): Ending clean mount
[6.938996] XFS (nume0n1p1): Mounting V5 Filesystem
[6.960104] XFS (nume0n1p1): Corruption warning: Metadata has LSN (1:3869) ahead of current LSN (1:3835). Please unmount and run x's repair (>= V4.3) to resove.
[6.960142] XFS (nume0n1p1) :log mount/recovery failed: error -22
[6.960346] XTS (nume@n1p1): log mount failed

금요일 아침에 보면 부팅 가능하며 새 스토리지가 설치되어 있습니다 SSD.

/dev/mapper/almalinux_server_f-root /                       xfs     defaults        0 1
# UUID=83cfc468-ecce-4188-aef4-e53cea90655a /boot                   xfs     defaults        0 0
/dev/mapper/almalinux_server_f-home /home                   xfs     defaults        0 0
/dev/mapper/almalinux_server_f-swap none                    swap    defaults        0 0

# A backup drive since added
UUID=f6db13da-ef71-4252-aab4-4f51f90ce6f7   /mnt/backups    ext4    defaults    0   2

/boot설치되지 않음:

 lsblk
NAME                   MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda                      8:0    0   477G  0 disk
└─sda1                   8:1    0   477G  0 part /mnt/backups
nvme0n1                259:0    0 232.9G  0 disk
├─nvme0n1p1            259:1    0     1G  0 part
└─nvme0n1p2            259:2    0 231.9G  0 part
  ├─almalinux_fuf-root 253:0    0    70G  0 lvm  /
  ├─almalinux_fuf-swap 253:1    0  15.7G  0 lvm  [SWAP]
  └─almalinux_fuf-home 253:2    0 146.2G  0 lvm  /home

고장난 것 같으니 log수정하고 수리해야 합니다.

[2022_Jul_8 06:25:18 rich@fuf ~] sudo xfs_repair -L /dev/nvme0n1p1
Phase 1 - find and verify superblock...
Phase 2 - using internal log
        - zero log...
ALERT: The filesystem has valuable metadata changes in a log which is being
destroyed because the -L option was used.
        - scan filesystem freespace and inode maps...
        - found root inode chunk
Phase 3 - for each AG...
        - scan and clear agi unlinked lists...
        - process known inodes and perform inode discovery...
        - agno = 0
        - agno = 1
        - agno = 2
        - agno = 3
        - process newly discovered inodes...
Phase 4 - check for duplicate blocks...
        - setting up duplicate extent list...
        - check for inodes claiming duplicate blocks...
        - agno = 0
        - agno = 1
        - agno = 2
        - agno = 3
Phase 5 - rebuild AG headers and trees...
        - reset superblock...
Phase 6 - check inode connectivity...
        - resetting contents of realtime bitmap and summary inodes
        - traversing filesystem ...
        - traversal finished ...
        - moving disconnected inodes to lost+found ...
Phase 7 - verify and correct link counts...
Maximum metadata LSN (1:3869) is ahead of log (1:2).
Format log to cycle 4.
done
[2022_Jul_8 06:25:27 rich@fuf ~] sudo mount -a
[2022_Jul_8 06:25:43 rich@fuf ~] lsblk
NAME                   MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda                      8:0    0   477G  0 disk
└─sda1                   8:1    0   477G  0 part /mnt/backups
nvme0n1                259:0    0 232.9G  0 disk
├─nvme0n1p1            259:1    0     1G  0 part /boot
└─nvme0n1p2            259:2    0 231.9G  0 part
  ├─almalinux_fuf-root 253:0    0    70G  0 lvm  /
  ├─almalinux_fuf-swap 253:1    0  15.7G  0 lvm  [SWAP]
  └─almalinux_fuf-home 253:2    0 146.2G  0 lvm  /home

/dev/nvme0n1: PTUUID="df549f07" PTTYPE="dos"
/dev/nvme0n1p1: UUID="83cfc468-ecce-4188-aef4-e53cea90655a" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="df549f07-01"
/dev/nvme0n1p2: UUID="i75kzm-ywmo-kblc-qVub-OAXc-oKPN-hmMtne" TYPE="LVM2_member" PARTUUID="df549f07-02"
/dev/sda1: UUID="f6db13da-ef71-4252-aab4-4f51f90ce6f7" BLOCK_SIZE="4096" TYPE="ext4" PARTUUID="cb238e81-b4d2-ba41-8a4c-19f01ea2cfd5"
/dev/mapper/almalinux_fuf-root: UUID="d0aab1dc-6d0a-4a36-b6ff-65853f73490f" BLOCK_SIZE="512" TYPE="xfs"
/dev/mapper/almalinux_fuf-swap: UUID="fb98b19f-a542-416b-8708-a397f2e5ca3b" TYPE="swap"
/dev/mapper/almalinux_fuf-home: UUID="f74e1ac0-2e82-430a-a588-169d4f487cf5" BLOCK_SIZE="512" TYPE="xfs"

답변1

이러한 [Firmware Bug]메시지는 일반적으로 커널 개발자가 시스템 펌웨어 개발자에게 보내는 공개 편지와 비슷합니다. "사양을 따르십시오. 그러면 계속해서 더러운 해결 방법을 고안할 필요가 없습니다." 문제가 BIOS 업데이트 직후에 발생하지 않는 한 이러한 메시지는 발생할 가능성이 없습니다. 문제의 근본 원인.

그러나 이는 다음과 같을 수 있습니다.

Jul 06 18:30:26 server_f.project33.ca systemdl11: Failed to mount /boot.

/boot정상적인 시스템 시작 프로세스를 방해하는 파일 시스템에 문제가 있는 것 같습니다 . 이는 부트로더 및 커널 업데이트에만 필요 하므로 /boot일시적으로 주석 처리하여 /boot시스템 /etc/fstab을 정상과 유사한 상태로 만들 수 있는지 확인할 수 있습니다. 성공하면 문제 해결이 /boot더 쉬워집니다.

NVMe 시스템 디스크가 약간 손상되었거나 죽기 시작할 수 있습니다. 안타깝게도 SSD 장치에 오류가 발생하기 시작하면 어떤 일이 발생하는지 기존 HDD만큼 예측할 수 없습니다. SSD에 오류가 발생하면 때로는 실제 경고 신호 없이 완전히 사라지는 경우가 있습니다.

귀하의 NVMe SSD가 여전히 작동한다는 사실은 고무적으로 보일 수 있지만 귀하의 입장에서는진짜다른 미디어에 백업되지 않은 데이터에 대해 걱정하세요. 시스템에 매우 중요한 것이 포함되어 있는 경우 해당 NVMe SSD를 다른 시스템에 두 번째 디스크로 연결하고 여전히 액세스할 수 있는 모든 것을 백업하는 방법을 찾는 것이 좋습니다.최대한 빨리다른 일을 하기 전에.

NVMe SSD의 상태를 평가하려면 smartctl -x /dev/nvme0루트로 실행하여 헤더 뒤에 나타나는 내용을 확인하세요 === START OF SMART DATA SECTION ===.

명령을 사용할 수 없는 경우 nvme smart-log /dev/nvme0기본적으로 동일한 데이터가 제공되어야 하며 nvme error-log /dev/nvme0최근에 감지된 많은 오류(있는 경우)에 대한 추가 세부 정보가 제공되어야 합니다.


그래서 일시적으로 주석 처리를 함으로써 시스템이 등장하게 된 /boot것 같습니다 . /etc/fstab( /etc/fstab지금 존재하는 자신을 보는 것이 도움이 될 수 있습니다. 추측의 필요성을 최소화할 것입니다.)

이 메시지는 Failed to start LVM event activation on device 8:2메이저 번호가 8번이고 마이너 번호가 2번인 블록 장치를 나타냅니다 /dev/sda2. 이는 별도의 문제인 것으로 보이며 시스템에서 디스크를 제거했으므로 메시지가 더 이상 나타나지 않습니다.

오류 메시지를 참고하세요: XFS (nvme0n1p1): Corruption warning: Metadata has LSN (1:3869) ahead of current LSN (1:3835). Please unmount and run xfs_repair (>= V4.3) to resolve.

/etc/fstab이는 귀하 /boot가 파티션에 직접 존재함 을 나타내는 것 같습니다 /dev/nvme0n1p1.아니요LVM 논리 볼륨으로.

nvme0n1p1귀하의 시스템이 이라고 가정 /boot하고 이제 시스템을 실행하고 제거했으므로 /boot이 메시지가 제안하는 대로 수행할 수 있습니다. 먼저 실행하여 xfs_repair -V복구 도구 버전이 4.3.0 이상인지 확인하고, 그렇다면 실행하십시오 xfs_repair /dev/nvme0n1p1.

다음과 같은 내용이 표시될 수 있습니다.

ERROR: The filesystem has valuable metadata changes in a log which needs to be replayed. 
Mount the filesystem to replay the log, and unmount it before re-running xfs_repair. 
If you are unable to mount the filesystem, then use the -L option to destroy the log and attempt a repair.
Note that destroying the log may cause corruption — please attempt a mount of the filesystem before doing this.

그렇다면 이 메시지를 인쇄하기 전에 문제가 해결된 /boot경우를 대비하여 설치해 보십시오. xfs_repair파일 시스템을 마운트할 수 없는 경우(이전 시도가 확실히 성공하지 못했기 때문에) 메시지에 따라 를 실행하십시오 xfs_repair -L /dev/nvme0n1p1.

출력에서는 blkidLVM TYPE="LVM2_member물리 볼륨(간단히 PV)을 나타냅니다. 파일 시스템이 아니므로 마운트할 수 없지만 하나 이상의 파일 시스템이거나 그 일부인 컨테이너일 수 있습니다. 파티션 에 루트 파일 시스템, 스왑 영역 및 파일 시스템이 포함되어 있는 /dev/nvme0n1p2것처럼 보이지만 실제로는 그렇지 않습니다 .TYPE="LVM2_member"/home/boot

파일 시스템 UUID 자체는 변경되지 않습니다. 이를 변경하려면 mkfs파티션 또는 LVM 논리 볼륨을 다시 포맷하거나(실제로 그 안의 모든 기존 데이터가 손실됨) 파일 시스템별 도구를 사용하여 파일 시스템에 새 UUID를 할당해야 합니다. 따라서 /bootin의 UUID는 UUID 자체가 손상되었거나 이전에 파일 시스템에 대해 알려주지 않은 작업을 수행한 /etc/fstab경우를 제외하고는 변경할 필요가 없습니다 ./etc/fstab/boot


만약에 /dev/nvme0n1p1도 나타나면 TYPE="LVM2_member"이는 /boot해당 명령으로 파일 시스템을 덮어썼다는 의미입니다 pvcreate /dev/nvme0n1p1. 만약 사실이라면, 그것은 확실히 부패를 설명할 것입니다.

그럼에도 불구하고 위 xfs_repair프로세스를 통해 파일 시스템을 마운트할 수 있도록 복구하지 못한 경우 최후의 수단은 /boot파일 시스템을 처음부터 다시 빌드하는 것입니다.

이 프로세스는 성공적으로 완료될 때까지 시스템을 부팅할 수 없게 만들므로 중간에 재부팅하지 마십시오. 먼저 를 사용하여 손상된 파일 시스템을 다시 포맷한 다음(오타하지 마십시오. 파괴적입니다!) 를 /boot사용하여 새 UUID를 확인하고 항목을 다시 활성화한 다음 해당 UUID를 새 항목으로 변경한 다음 .mkfs.xfs /dev/nvme0n1p1lsblk -o +UUID /dev/nvme0n1p1/boot/etc/fstabmount /boot

그 후 패키지 관리자를 사용하십시오.다시 설치현재 설치된 모든 커널 패키지: 패키지 관리 도구에는 누락된 파일을 교체하고 있을 수 있는 파일을 덮어쓰기 위해 "예, 데이터베이스에 이 패키지가 이미 설치되어 있다고 표시되어 있지만 어쨌든 해당 파일을 다시 작성합니다"라고 효과적으로 알려주는 특정 옵션이 있어야 합니다. 손상되었습니다."

완료되면 grub2-install /dev/nvme0n1다음을 사용하여 부트로더를 다시 설치하십시오. 존재 하는지 확인 /boot/grub2/grub.cfg하고 설치된 커널 버전을 포함하십시오. grub2-mkconfig > /boot/grub2/grub.cfg필요한 경우 구성을 다시 빌드하십시오. 이 시점에서 시스템을 다시 부팅할 수 있어야 합니다.

관련 정보