Summary: | udisks2:После обновления проблема с загрузкой системы | ||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Product: | Branch p10 | Reporter: | Vlad <v.sokolov> | ||||||||||||||||||||||||||||||||||
Component: | udisks2 | Assignee: | qa-p10 <qa-p10> | ||||||||||||||||||||||||||||||||||
Status: | CLOSED FIXED | QA Contact: | qa-p10 <qa-p10> | ||||||||||||||||||||||||||||||||||
Severity: | normal | ||||||||||||||||||||||||||||||||||||
Priority: | P5 | CC: | 1c.mm, aen, amakeenk, aris, d.g.samsonenko, hasculdr, klark, kurachenko.urup, maxim, mcpain, mih.rus, rider, rurewa, vladimir.event, zerg | ||||||||||||||||||||||||||||||||||
Version: | не указана | ||||||||||||||||||||||||||||||||||||
Hardware: | x86_64 | ||||||||||||||||||||||||||||||||||||
OS: | Linux | ||||||||||||||||||||||||||||||||||||
URL: | https://github.com/storaged-project/udisks/issues/1152 | ||||||||||||||||||||||||||||||||||||
See Also: | https://bugzilla.altlinux.org/show_bug.cgi?id=46927 | ||||||||||||||||||||||||||||||||||||
Attachments: |
|
*** Bug 46912 has been marked as a duplicate of this bug. *** (Ответ для Vlad на комментарий #0) > Сегодня 13.07.23г после установки последних обновлений и перезагрузки системы. Не было ли каких-либо ошибок при обновлении? Приложите, пожалуйста, результаты выполнения следующих команд: # apt-repo # cat /etc/os-release # rpm -q plasma5-desktop # uname -a Логи, полученные с помощью команд: # lspci -vv > lspci.log # lshw -c disk > disks.log # dmesg > dmesg.log Лог /var/log/Xorg.0.log apt-repo rpm [p10] http://ftp.altlinux.org/pub/distributions/ALTLinux p10/branch/x86_64 classic gostcrypto rpm [p10] http://ftp.altlinux.org/pub/distributions/ALTLinux p10/branch/x86_64-i586 classic rpm [p10] http://ftp.altlinux.org/pub/distributions/ALTLinux p10/branch/noarch classic cat /etc/os-release NAME="ALT" VERSION="10.2" ID=altlinux VERSION_ID=10.2 PRETTY_NAME="ALT Workstation K 10.2 (Sorbaronia Mitschurinii)" ANSI_COLOR="1;33" CPE_NAME="cpe:/o:alt:kworkstation:10" BUILD_ID="ALT 10.1" ALT_BRANCH_ID="p10" HOME_URL="https://www.basealt.ru/" BUG_REPORT_URL="https://bugs.altlinux.org/" DOCUMENTATION_URL="https://docs.altlinux.org/" SUPPORT_URL="https://support.basealt.ru/" rpm -q plasma5-desktop plasma5-desktop-5.27.5-alt1.x86_64 Created attachment 13827 [details]
disks
Created attachment 13828 [details]
dmesg
Created attachment 13829 [details]
lspci
Created attachment 13830 [details]
xorg
обновил ядро, не помогло. uname -a Linux gulf4fetch 6.1.37-un-def-alt1 #1 SMP PREEMPT_DYNAMIC Sat Jul 1 15:26:07 UTC 2023 x86_64 GNU/Linux сразу после установки было ядро 5.15.72 (Ответ для Alexander Makeenkov на комментарий #2) > (Ответ для Vlad на комментарий #0) > > Сегодня 13.07.23г после установки последних обновлений и перезагрузки системы. > > Не было ли каких-либо ошибок при обновлении? > > Приложите, пожалуйста, результаты выполнения следующих команд: > > # apt-repo > # cat /etc/os-release > # rpm -q plasma5-desktop > # uname -a > > Логи, полученные с помощью команд: > > # lspci -vv > lspci.log > # lshw -c disk > disks.log > # dmesg > dmesg.log > > Лог /var/log/Xorg.0.log ошибок небыло. Специально следил при апдейте пакетов. Установка завершилась как обычно Скорее всего дело в задании https://packages.altlinux.org/ru/tasks/323890/ Пришлите, пожалуйста, вывод следующих команд: # udisksctl status # systemctl status udisks2.service У нас на стендах проблем с зависанием системы нет (зависит от железа, похоже), сервис udisks2 запускается, но в нём присутствуют ошибки: # systemctl status udisks2.service ● udisks2.service - Disk Manager Loaded: loaded (/lib/systemd/system/udisks2.service; disabled; vendor preset: enabled) Active: active (running) since Fri 2023-07-14 09:04:21 MSK; 40min ago Docs: man:udisks(8) Main PID: 4333 (udisksd) Tasks: 5 (limit: 8749) Memory: 10.1M CPU: 204ms CGroup: /system.slice/udisks2.service └─ 4333 /usr/libexec/udisks2/udisksd июл 14 09:04:21 amakeenk systemd[1]: Started Disk Manager. июл 14 09:04:21 amakeenk udisksd[4333]: Error getting 'loop7' information: Failed to get status of the device loop7: No such device or address (g-bd-loop-error-quark, 1) июл 14 09:04:21 amakeenk udisksd[4333]: Error getting 'loop4' information: Failed to get status of the device loop4: No such device or address (g-bd-loop-error-quark, 1) июл 14 09:04:21 amakeenk udisksd[4333]: Error getting 'loop1' information: Failed to get status of the device loop1: No such device or address (g-bd-loop-error-quark, 1) июл 14 09:04:21 amakeenk udisksd[4333]: Error getting 'loop6' information: Failed to get status of the device loop6: No such device or address (g-bd-loop-error-quark, 1) июл 14 09:04:21 amakeenk udisksd[4333]: Error getting 'loop3' information: Failed to get status of the device loop3: No such device or address (g-bd-loop-error-quark, 1) июл 14 09:04:21 amakeenk udisksd[4333]: Error getting 'loop0' information: Failed to get status of the device loop0: No such device or address (g-bd-loop-error-quark, 1) июл 14 09:04:21 amakeenk udisksd[4333]: Error getting 'loop5' information: Failed to get status of the device loop5: No such device or address (g-bd-loop-error-quark, 1) июл 14 09:04:21 amakeenk udisksd[4333]: Error getting 'loop2' information: Failed to get status of the device loop2: No such device or address (g-bd-loop-error-quark, 1) июл 14 09:04:21 amakeenk udisksd[4333]: Acquired the name org.freedesktop.UDisks2 on the system message bus Здравствуйте. Тоже столкнулся с проблемами после обновления 13.07. Нагуглил вот это - https://github.com/storaged-project/udisks/issues/1139 откатил udisks2 на 28.06 - система работает как до обновления. (Ответ для hasculdr на комментарий #13) > Здравствуйте. Тоже столкнулся с проблемами после обновления 13.07. > Нагуглил вот это - https://github.com/storaged-project/udisks/issues/1139 > откатил udisks2 на 28.06 - система работает как до обновления. Да, я тоже откатился. Похоже это связано у кого система на nvme, как у меня. Откатывался вот так. Может кому поможет. Откатывался на 12.07, патч был 13.07. Ломаная версия пакета udisks2 2.10. Откатился на udisks2 2.9 epm repo set archive 2023/07/12 apt-get update epm downgrade udisks2 epm repo set p10 apt-get update В HOLD пакет не помещал, подожду фикса пару недель. Но если кому-то нужно то можно вот так откатится. epm repo set archive 2023/07/12 apt-get update epm downgrade udisks2 epm mark hold udisks2 epm repo set p10 apt-get update Думаю можно закрывать таску. Нужно ждать фикс от разработчиков пакета. конкретно о фиксе ошибки вот тут. https://github.com/storaged-project/libblockdev/issues/934 > Думаю можно закрывать таску. Нужно ждать фикс от разработчиков пакета.
Но ведь проблема не решена.
Как по мне, вручную откат пакета после обновления не является решением проблемы.
(Ответ для Vlad на комментарий #14) > Да, я тоже откатился. Похоже это связано у кого система на nvme, как у меня. У меня система на sata-ssd. Мало на каком железе воспроизводится, у меня на всех машинах с nvme и sata полёт нормальный. Саша, надо бы нам стенды расширить что бы такое ловить. (Ответ для hasculdr на комментарий #18) > (Ответ для Vlad на комментарий #14) > > Да, я тоже откатился. Похоже это связано у кого система на nvme, как у меня. > > У меня система на sata-ssd. У меня по железу что касается дисков. То 2 nvme по 512гб на одном из которых ситема Альт. на втором когда-то была Винда 11. Они не в рейд. И еще 2 hdd по 1тб. Одни из которых еле живой, но пока работает А и точно. на котором алть - btrfs на остальных 3 дисках ntfs Created attachment 13847 [details]
Скрин lsblk
сделал скрин для доп информации
конкретно тут https://github.com/storaged-project/libblockdev/issues/934 тоже упоминается что происходит зависание из-за NTFS дисков. $ lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS sda 8:0 0 476,9G 0 disk # это ssd с ntfs └─sda1 8:1 0 476,9G 0 part sdb 8:16 0 111,8G 0 disk # это ssd с системой на ext4 ├─sdb1 8:17 0 256M 0 part /boot/efi └─sdb2 8:18 0 111,5G 0 part / zram0 252:0 0 663M 0 disk [SWAP] zram1 252:1 0 663M 0 disk [SWAP] zram2 252:2 0 663M 0 disk [SWAP] zram3 252:3 0 663M 0 disk [SWAP] zram4 252:4 0 663M 0 disk [SWAP] zram5 252:5 0 663M 0 disk [SWAP] zram6 252:6 0 663M 0 disk [SWAP] zram7 252:7 0 663M 0 disk [SWAP] zram8 252:8 0 663M 0 disk [SWAP] zram9 252:9 0 663M 0 disk [SWAP] zram10 252:10 0 663M 0 disk [SWAP] zram11 252:11 0 663M 0 disk [SWAP] nvme1n1 259:0 0 119,2G 0 disk # это nvme с виндой с былых времен ├─nvme1n1p1 259:1 0 100M 0 part ├─nvme1n1p2 259:2 0 16M 0 part └─nvme1n1p3 259:3 0 119,1G 0 part nvme0n1 259:4 0 1,8T 0 disk # это nvme с zfs └─nvme0n1p1 259:5 0 1,8T 0 part (Ответ для Vlad на комментарий #23) > конкретно тут https://github.com/storaged-project/libblockdev/issues/934 > тоже упоминается что происходит зависание из-за NTFS дисков. Спасибо, попробуем воспроизвести с ntfs. (Ответ для Alexander Makeenkov на комментарий #25) > (Ответ для Vlad на комментарий #23) > > конкретно тут https://github.com/storaged-project/libblockdev/issues/934 > > тоже упоминается что происходит зависание из-за NTFS дисков. > > Спасибо, попробуем воспроизвести с ntfs. К сожалению мне не помогло) Вытащил все диски с ntfs из системника. Так же отключил все usb устройства и модули wifi/bt. Осталась мышка ps/2 и видеокарта. Все равно, что-то приводит к зависанию системы. и ошибки все те же (Ответ для Vlad на комментарий #26) > и ошибки все те же Пришлите, пожалуйста, вывод команд: # udisksctl status # systemctl status udisks2.service (Ответ для Alexander Makeenkov на комментарий #27) > (Ответ для Vlad на комментарий #26) > > и ошибки все те же > > Пришлите, пожалуйста, вывод команд: > # udisksctl status > # systemctl status udisks2.service А так же, соберите, пожалуйста, coredump падения сервиса udisks2 https://www.altlinux.org/Features/Core#Как_включить_сохранение_coredump_с_systemd Это должно помочь выяснить причину ошибки. (Ответ для Alexander Makeenkov на комментарий #27) > (Ответ для Vlad на комментарий #26) > > и ошибки все те же > > Пришлите, пожалуйста, вывод команд: > # udisksctl status > # systemctl status udisks2.service $ udisksctl status Error connecting to the udisks daemon: Ошибка вызова StartServiceByName для org.freedesktop.UDisks2: Failed to activate service 'org.freedesktop.UDisks2': timed out (service_start_timeout=25000ms) $ sudo systemctl status udisks2.service × udisks2.service - Disk Manager Loaded: loaded (/lib/systemd/system/udisks2.service; disabled; vendor preset: enabled) Active: failed (Result: signal) since Mon 2023-07-17 23:52:36 MSK; 53s ago Docs: man:udisks(8) Process: 6137 ExecStart=/usr/libexec/udisks2/udisksd (code=killed, signal=ABRT) Main PID: 6137 (code=killed, signal=ABRT) CPU: 70ms июл 17 23:52:36 home udisksd[6137]: Error getting 'loop2' information: Failed to get status of the device loop2: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:52:36 home udisksd[6137]: Error getting 'loop3' information: Failed to get status of the device loop3: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:52:36 home udisksd[6137]: Error getting 'loop4' information: Failed to get status of the device loop4: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:52:36 home udisksd[6137]: Error getting 'loop5' information: Failed to get status of the device loop5: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:52:36 home udisksd[6137]: Error getting 'loop6' information: Failed to get status of the device loop6: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:52:36 home udisksd[6137]: Error getting 'loop7' information: Failed to get status of the device loop7: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:52:36 home udisksd[6137]: *** stack smashing detected ***: terminated июл 17 23:52:36 home systemd[1]: udisks2.service: Main process exited, code=killed, status=6/ABRT июл 17 23:52:36 home systemd[1]: udisks2.service: Failed with result 'signal'. июл 17 23:52:36 home systemd[1]: Failed to start Disk Manager. $ journalctl -xeu udisks2.service ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ Произошел сбой юнита udisks2.service. ░░ ░░ Результат: failed. июл 17 23:58:26 home systemd[1]: Starting Disk Manager... ░░ Subject: Начинается запуск юнита udisks2.service ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ Начат процесс запуска юнита udisks2.service. июл 17 23:58:26 home udisksd[6636]: udisks daemon version 2.10.0 starting июл 17 23:58:26 home udisksd[6636]: Error getting 'loop0' information: Failed to get status of the device loop0: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:58:26 home udisksd[6636]: Error getting 'loop1' information: Failed to get status of the device loop1: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:58:26 home udisksd[6636]: Error getting 'loop2' information: Failed to get status of the device loop2: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:58:26 home udisksd[6636]: Error getting 'loop3' information: Failed to get status of the device loop3: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:58:26 home udisksd[6636]: Error getting 'loop4' information: Failed to get status of the device loop4: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:58:26 home udisksd[6636]: Error getting 'loop5' information: Failed to get status of the device loop5: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:58:26 home udisksd[6636]: Error getting 'loop6' information: Failed to get status of the device loop6: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:58:26 home udisksd[6636]: Error getting 'loop7' information: Failed to get status of the device loop7: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:58:26 home udisksd[6636]: Error getting 'loop0' information: Failed to get status of the device loop0: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:58:26 home udisksd[6636]: Error getting 'loop1' information: Failed to get status of the device loop1: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:58:26 home udisksd[6636]: Error getting 'loop2' information: Failed to get status of the device loop2: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:58:26 home udisksd[6636]: Error getting 'loop3' information: Failed to get status of the device loop3: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:58:26 home udisksd[6636]: Error getting 'loop4' information: Failed to get status of the device loop4: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:58:26 home udisksd[6636]: Error getting 'loop5' information: Failed to get status of the device loop5: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:58:26 home udisksd[6636]: Error getting 'loop6' information: Failed to get status of the device loop6: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:58:26 home udisksd[6636]: Error getting 'loop7' information: Failed to get status of the device loop7: No such device or address (g-bd-loop-error-quark, 1) июл 17 23:58:26 home udisksd[6636]: *** stack smashing detected ***: terminated июл 17 23:58:27 home systemd[1]: udisks2.service: Main process exited, code=dumped, status=6/ABRT ░░ Subject: Unit process exited ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ An ExecStart= process belonging to unit udisks2.service has exited. ░░ ░░ The process' exit code is 'dumped' and its exit status is 6. июл 17 23:58:27 home systemd[1]: udisks2.service: Failed with result 'core-dump'. ░░ Subject: Unit failed ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ The unit udisks2.service has entered the 'failed' state with result 'core-dump'. июл 17 23:58:27 home systemd[1]: Failed to start Disk Manager. ░░ Subject: Ошибка юнита udisks2.service ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ Произошел сбой юнита udisks2.service. ░░ ░░ Результат: failed. PID: 7020 (udisksd) UID: 0 (root) GID: 0 (root) Signal: 6 (ABRT) Timestamp: Tue 2023-07-18 00:02:05 MSK (9s ago) Command Line: /usr/libexec/udisks2/udisksd Executable: /usr/libexec/udisks2/udisksd Control Group: /system.slice/udisks2.service Unit: udisks2.service Slice: system.slice Boot ID: 4f737de20f99465c997f0969651476aa Machine ID: 82df78f51a372fa2ae9bfb7564b19347 Hostname: home Storage: /var/lib/systemd/coredump/core.udisksd.0.4f737de20f99465c997f0969651476aa.7020.1689627725000000.zst (present) Disk Size: 481.3K Message: Process 7020 (udisksd) of user 0 dumped core. Found module linux-vdso.so.1 with build-id: d1d84c9b0db95cf09b07977d09b9ff9d306aada0 Found module libnss_files.so.2 with build-id: e7d97bf7dd0ce1152ad496215462b7ce656b4096 Found module libnvme.so.1 with build-id: ee63d761f5511106ec1c990c11ae53fef257ba0c Found module libbd_nvme.so.3 with build-id: 42c497edb12dcf58dc05a2fb32ddea89e1c414f8 Found module libcom_err.so.2 with build-id: 04c7c83e43872276a707d467bbfe273bc110dec6 Found module libe2p.so.2 with build-id: ab34627c0b1241ef72b52ddaf69a1fa52101c180 Found module libext2fs.so.2 with build-id: 1077aff832b49badd0ce832ae3613a16c336b1a8 Found module libbd_fs.so.3 with build-id: 076d053af572c8f4d61b6b086461c0a5df508f74 Found module libfdisk.so.1 with build-id: 3a6ec1d6e19a43545da5ed6ca4121e249bc0356a Found module libbd_part.so.3 with build-id: dbd3b2c036c2ad839082933ba1202cdcc9516716 Found module libgmp.so.10 with build-id: e9eb16e06f39fbe3603696c4758e4cf27774b615 Found module libpcre2-8.so.0 with build-id: 3f11f46970c73b5cad21e442774c3d3880c92240 Found module libmpfr.so.6 with build-id: 5c2016ffd6c4433f3328d5ffd7848b58e3887aa5 Found module libbytesize.so.1 with build-id: 2b586f90065a51ca90a9351b9b424d5564667550 Found module libbd_mdraid.so.3 with build-id: 036b88125b965abd259219e60bfd13b9621616f2 Found module libassuan2.so.0 with build-id: 8e9ad0bc53259dcd28dae3a833283f7a3efdc335 Found module libm.so.6 with build-id: b2f504b4a72643c9f16fb55ab340be8bf4ae06c8 Found module libgpgme.so.11 with build-id: 35c6b31d48241adede64a66ad244e79b36752274 Found module libnspr4.so with build-id: bb885d03ca12c6f657a0a70aef736df7b0d5c302 Found module libplc4.so with build-id: d2ca15688cc635ea1d818fcaa111786ef5aea69f Found module libplds4.so with build-id: 38ad6c256e6116ac70dc7d74f5fd0e151fc1e96b Found module libnssutil3.so with build-id: b37e8702e9593d18023ae390e476271c8211dad4 Found module libjson-c.so.5 with build-id: f20c971addf05d066e3bea89212c30651814d46f Found module libargon2.so.1 with build-id: 53fe05348fd40936436ce816627e68bf708788d9 Found module libdevmapper.so.1.02 with build-id: d0c74b4699d5509d034fcf981d86b7aa6189c9b6 Found module libvolume_key.so.1 with build-id: 82ee12bd591f58124bcab363285460c88a4cad5a Found module libkeyutils.so.1 with build-id: ab0c6849faec57b69ab5900e1532acd1b02b994c Found module libnss3.so with build-id: 9b07ddb28599cf2f821c4fa0fa90a37c20ee843f Found module libsmime3.so with build-id: d3e30b8a863feff81faed42f5b4046f594f0dbd6 Found module libcryptsetup.so.12 with build-id: fc715917d5bbdc2695074e420299f9355e82f251 Found module libbd_crypto.so.3 with build-id: 59d7d45718c60b418f2963ee4b357cdf270b8fb8 Found module libbd_loop.so.3 with build-id: 657ba951c4a6bbdf1654147f3b873c5b6a7449d5 Found module libbd_swap.so.3 with build-id: 28df912d16fdbe67d7b40431a43230a76871a4e6 Found module libgpg-error.so.0 with build-id: 9b6495a9fa45bcd16beb550ff88e6f3a839cc13e Found module libcrypto.so.1.1 with build-id: 4ab205932fce8de5c1a20a5f459a5e6f17edf65c Found module libpcre.so.3 with build-id: ae2e0defeebd8c18724ee01bb2be39036e7f8943 Found module libffi.so.7 with build-id: 7d9725885bb44a15f305c03b71e6e469e94239ea Found module libresolv.so.2 with build-id: 62631f8a2345966555069d5b39e3448f8f370268 Found module libz.so.1 with build-id: f69013f5edb3cb3b3c0022b7350a1366b835ac56 Found module libgcrypt.so.20 with build-id: e6a150f0923ad62fc83078bec1e1b3b875dcd0fe Found module liblz4.so.1 with build-id: c222af572ea3eb519f55677b2e6794ea1e83dd74 Found module libzstd.so.1 with build-id: 637b7cff2f1c0b84667817cdfd7a3a319161df9e Found module liblzma.so.5 with build-id: 179ef7ded527b4a37e3caa5906b49a87b2a23f9d Found module librt.so.1 with build-id: f724fd7c49f78b13fd7b9fbe871403dfa4bf2212 Found module libselinux.so.1 with build-id: 6ad87d04d346f0b7943721b4b2aa36d5a131f5fd Found module libkmod.so.2 with build-id: 5df45561f1bc60e465e30c73fbe585cbabd616a7 Found module libudev.so.1 with build-id: 6321b0fa3bd772e2093c35edfbea8d87dfbee497 Found module libdl.so.2 with build-id: 313d70ef53f250fd3322999d61c48b7f2d3fddd3 Found module ld-linux-x86-64.so.2 with build-id: 89c19f7bc64e27bdd0c57a4b08e124f8c95799ee Found module libc.so.6 with build-id: 41259207a6a4da6595a09db78fa98a4118ae0d0e Found module libpthread.so.0 with build-id: 67209fc6697d6ec1416c5fa6c38bc27c4ab5a36b Found module libglib-2.0.so.0 with build-id: f3e247c84031e7f3d8e6ff9f90fdd6f172036dd0 Found module libgobject-2.0.so.0 with build-id: 2b46ed0e5d24638d56d0a4c7e385c977f79ff1f2 Found module libgio-2.0.so.0 with build-id: 77a4f94bcef6444b607f2338ec82b6e82b8b097e Found module libudisks2.so.0 with build-id: 8d0dceb32acd709c3a21f82b82cd9722d88a888b Found module libsystemd.so.0 with build-id: c186dbfef3076547b7b2e8778c09ca4acc4152c2 Found module libacl.so.1 with build-id: 085f5bd0ba57688c42c74a4687cd9331b662ccb5 Found module libpolkit-gobject-1.so.0 with build-id: 7b65b59d7c2ba98bcf21a8828dbcb111db4efe8b Found module libuuid.so.1 with build-id: 792266fddd300b728a229d261137f03b4f549ebb Found module libmount.so.1 with build-id: 673d7fe18099c7e406ca2c3d0f4aaec13a64aa9c Found module libblkid.so.1 with build-id: 927f292327a67e6ec627d05affab5351dc916cf2 Found module libatasmart.so.4 with build-id: a59b47cf84caf1ec2e12a51e63c149c3b7d0cdda Found module libbd_utils.so.3 with build-id: 4ef7b49b3c31aecc5e24a4006d02457fa775d5f3 Found module libblockdev.so.3 with build-id: 521997d415d702ec0f2f11ef487e98d9faae7e6b Found module libgudev-1.0.so.0 with build-id: 8709b1c08d303bd64fcd50e86531ede545289e40 Found module libgmodule-2.0.so.0 with build-id: 80a77800edd846365db1f60fea8b6e1f22893cf0 Found module udisksd with build-id: 1e19e1f74d7b5bca6a264d97e079021b221971a6 Stack trace of thread 7020: #0 0x00007f7e2df6d391 raise (libc.so.6 + 0x3d391) #1 0x00007f7e2df56548 abort (libc.so.6 + 0x26548) #2 0x00007f7e2dfaef87 n/a (libc.so.6 + 0x7ef87) #3 0x00007f7e2e040c82 __fortify_fail (libc.so.6 + 0x110c82) #4 0x00007f7e2e040c52 __stack_chk_fail (libc.so.6 + 0x110c52) #5 0x00007f7e2c1c88c7 bd_nvme_get_sanitize_log (libbd_nvme.so.3 + 0x58c7) Stack trace of thread 7022: #0 0x00007f7e2e02ac89 syscall (libc.so.6 + 0xfac89) #1 0x00007f7e2e1d3842 g_cond_wait_until (libglib-2.0.so.0 + 0xa9842) #2 0x00007f7e2e14f631 n/a (libglib-2.0.so.0 + 0x25631) #3 0x00007f7e2e1aabea n/a (libglib-2.0.so.0 + 0x80bea) #4 0x00007f7e2e1aa1cd n/a (libglib-2.0.so.0 + 0x801cd) #5 0x00007f7e2e111eb0 start_thread (libpthread.so.0 + 0x8eb0) #6 0x00007f7e2e03152f __clone (libc.so.6 + 0x10152f) Stack trace of thread 7024: #0 0x00007f7e2e02ac89 syscall (libc.so.6 + 0xfac89) #1 0x00007f7e2e1d371f g_cond_wait (libglib-2.0.so.0 + 0xa971f) #2 0x00007f7e2e14f64b n/a (libglib-2.0.so.0 + 0x2564b) #3 0x00007f7e2e14fad8 g_async_queue_pop (libglib-2.0.so.0 + 0x25ad8) #4 0x000056164be51ed2 probe_request_thread_func (udisksd + 0x24ed2) #5 0x00007f7e2e1aa1cd n/a (libglib-2.0.so.0 + 0x801cd) #6 0x00007f7e2e111eb0 start_thread (libpthread.so.0 + 0x8eb0) #7 0x00007f7e2e03152f __clone (libc.so.6 + 0x10152f) Stack trace of thread 7021: #0 0x00007f7e2e0251ef __poll (libc.so.6 + 0xf51ef) #1 0x00007f7e2e1808fe n/a (libglib-2.0.so.0 + 0x568fe) #2 0x00007f7e2e180a1f g_main_context_iteration (libglib-2.0.so.0 + 0x56a1f) #3 0x00007f7e2e180a71 n/a (libglib-2.0.so.0 + 0x56a71) #4 0x00007f7e2e1aa1cd n/a (libglib-2.0.so.0 + 0x801cd) #5 0x00007f7e2e111eb0 start_thread (libpthread.so.0 + 0x8eb0) #6 0x00007f7e2e03152f __clone (libc.so.6 + 0x10152f) Stack trace of thread 7023: #0 0x00007f7e2e0251ef __poll (libc.so.6 + 0xf51ef) #1 0x00007f7e2e1808fe n/a (libglib-2.0.so.0 + 0x568fe) #2 0x00007f7e2e180c5b g_main_loop_run (libglib-2.0.so.0 + 0x56c5b) #3 0x00007f7e2e3dce46 n/a (libgio-2.0.so.0 + 0x121e46) #4 0x00007f7e2e1aa1cd n/a (libglib-2.0.so.0 + 0x801cd) #5 0x00007f7e2e111eb0 start_thread (libpthread.so.0 + 0x8eb0) #6 0x00007f7e2e03152f __clone (libc.so.6 + 0x10152f) More than one entry matches, ignoring rest. (Ответ для Alexander Makeenkov на комментарий #28) > (Ответ для Alexander Makeenkov на комментарий #27) > > (Ответ для Vlad на комментарий #26) > > > и ошибки все те же > > > > Пришлите, пожалуйста, вывод команд: > > # udisksctl status > > # systemctl status udisks2.service > > А так же, соберите, пожалуйста, coredump падения сервиса udisks2 > https://www.altlinux.org/Features/ > Core#Как_включить_сохранение_coredump_с_systemd > > Это должно помочь выяснить причину ошибки. файл дампа не могу залить. превышено ограничение размера файла $ coredumpctl dump -o filename ссылка на получившийся дамп https://storage.yandexcloud.net/test-mountly/filename Created attachment 13865 [details] udisks2 backtrace (Ответ для Vlad на комментарий #32) > файл дампа не могу залить. Спсибо! > превышено ограничение размера файла Сам-то он не слишком нужен. В основном для получения backtrace, который прикрепляю. Как видно, fortify сработал в nvme-плагине. (Ответ для Sergey V Turchin на комментарий #35) > Как видно, fortify сработал в nvme-плагине. как выяснить что конкретно ему не понравилось? (Ответ для Vlad на комментарий #36) > как выяснить что конкретно ему не понравилось? Начать с чтения bd_nvme_get_sanitize_log() Попробуйте с https://git.altlinux.org/tasks/325099/ (Ответ для Sergey V Turchin на комментарий #38) > Попробуйте с https://git.altlinux.org/tasks/325099/ Это просьба так же ко всем заинтересованным, т.к. в отделе тестирования не все проблемы воспроизвелись. Возможно, это решает только часть, если решает. Нужно выполнить от root: apt-repo add 325099 apt-get update && apt-get dist-upgrade reboot (Ответ для Sergey V Turchin на комментарий #39) > (Ответ для Sergey V Turchin на комментарий #38) > > Попробуйте с https://git.altlinux.org/tasks/325099/ > Это просьба так же ко всем заинтересованным, т.к. в отделе тестирования не > все проблемы воспроизвелись. Возможно, это решает только часть, если решает. > Нужно выполнить от root: > > apt-repo add 325099 > apt-get update && apt-get dist-upgrade > reboot Мне не помогло, снова сервис udisks2 статус failed, те же ошибки в журнале. Здравствуйте. На машине был обычный sata SSD и SL10. Всё было обновлено. Решил улучшить. Убрал sata SSD и поставил М.2 - SSD 256 Gb M.2 2280 M Apacer AS2280P4U AP256GAS2280P4U-1 с адаптером на слот ExeGate EXE-529 Адаптер M.2 M key +- PCI-Ex16 EX283709RUS. Материнка ASRock H510M-HDV R2.0 (RTL) LGA1200 H510 PCI-E Dsub+DVI+HDMI GbLAN SATA MicroATX 2DDR4 процессор CPU Intel Core i3-10105F 3.7 GHz ,4core/6Mb/65W/8 GT/s LGA1200. Установил Sl10 - отлично работает. После обновления при входе рабочий стол секунд 20 не появляется, хотя панель есть и из неё запускаются программы. Стал копать: ставил пакеты кусками, а не dist-upgrade. И нашел, что после установки udisks2 появляется эта проблема. Вот ссылка на видео: https://disk.yandex.ru/i/jYQFb0-GF0LfbQ Поробовал apt-repo add 325099 apt-get update && apt-get dist-upgrade reboot не помогло. На другой материнке (более старой) такаеже плата в слот с темже M.2 SSD проблем нет. Могу предоставить доступ к ПК для тестов и чем надо помогать. journalctl -xeu udisks2.service ░░ ░░ Результат: failed. июл 19 10:39:59 host-154 systemd[1]: Starting Disk Manager... ░░ Subject: Начинается запуск юнита udisks2.service ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ Начат процесс запуска юнита udisks2.service. июл 19 10:39:59 host-154 udisksd[2645]: udisks daemon version 2.10.0 starting июл 19 10:39:59 host-154 udisksd[2645]: Error getting 'loop0' information: Failed to get status of the device loop0: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:39:59 host-154 udisksd[2645]: Error getting 'loop1' information: Failed to get status of the device loop1: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:39:59 host-154 udisksd[2645]: Error getting 'loop2' information: Failed to get status of the device loop2: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:39:59 host-154 udisksd[2645]: Error getting 'loop3' information: Failed to get status of the device loop3: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:39:59 host-154 udisksd[2645]: Error getting 'loop4' information: Failed to get status of the device loop4: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:39:59 host-154 udisksd[2645]: Error getting 'loop5' information: Failed to get status of the device loop5: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:39:59 host-154 udisksd[2645]: Error getting 'loop6' information: Failed to get status of the device loop6: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:39:59 host-154 udisksd[2645]: Error getting 'loop7' information: Failed to get status of the device loop7: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:39:59 host-154 udisksd[2645]: Error getting 'loop0' information: Failed to get status of the device loop0: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:39:59 host-154 udisksd[2645]: Error getting 'loop1' information: Failed to get status of the device loop1: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:39:59 host-154 udisksd[2645]: Error getting 'loop2' information: Failed to get status of the device loop2: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:39:59 host-154 udisksd[2645]: Error getting 'loop3' information: Failed to get status of the device loop3: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:39:59 host-154 udisksd[2645]: Error getting 'loop4' information: Failed to get status of the device loop4: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:39:59 host-154 udisksd[2645]: Error getting 'loop5' information: Failed to get status of the device loop5: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:39:59 host-154 udisksd[2645]: Error getting 'loop6' information: Failed to get status of the device loop6: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:39:59 host-154 udisksd[2645]: Error getting 'loop7' information: Failed to get status of the device loop7: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:39:59 host-154 udisksd[2645]: *** stack smashing detected ***: terminated июл 19 10:39:59 host-154 systemd[1]: udisks2.service: Main process exited, code=killed, status=6/ABRT ░░ Subject: Unit process exited ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ An ExecStart= process belonging to unit udisks2.service has exited. ░░ ░░ The process' exit code is 'killed' and its exit status is 6. июл 19 10:39:59 host-154 systemd[1]: udisks2.service: Failed with result 'signal'. ░░ Subject: Unit failed ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ The unit udisks2.service has entered the 'failed' state with result 'signal'. июл 19 10:39:59 host-154 systemd[1]: Failed to start Disk Manager. ░░ Subject: Ошибка юнита udisks2.service ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ Произошел сбой юнита udisks2.service. ░░ ░░ Результат: failed. lines 468-515/515 (END) cat /etc/os-release NAME="Simply Linux" VERSION="10.1.900 (Captain Finn)" ID=altlinux VERSION_ID=10.1.900 PRETTY_NAME="Simply Linux 10.1.900 (Captain Finn)" ANSI_COLOR="1;36" CPE_NAME="cpe:/o:alt:slinux:10.1.900" BUILD_ID="Simply Linux 10.1" HOME_URL="https://www.basealt.ru/simplylinux" BUG_REPORT_URL="https://bugs.altlinux.org/" [root@host-154 ~]# udisksctl status Error connecting to the udisks daemon: Ошибка вызова StartServiceByName для org.freedesktop.UDisks2: Время ожидания истекло [root@host-154 ~]# systemctl status udisks2.service × udisks2.service - Disk Manager Loaded: loaded (/lib/systemd/system/udisks2.service; enabled; vendor preset: enabled) Active: failed (Result: signal) since Wed 2023-07-19 10:48:06 MSK; 51s ago Docs: man:udisks(8) Process: 3104 ExecStart=/usr/libexec/udisks2/udisksd (code=killed, signal=ABRT) Main PID: 3104 (code=killed, signal=ABRT) CPU: 21ms июл 19 10:48:06 host-154 udisksd[3104]: Error getting 'loop2' information: Failed to get status of the device loop2: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:48:06 host-154 udisksd[3104]: Error getting 'loop3' information: Failed to get status of the device loop3: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:48:06 host-154 udisksd[3104]: Error getting 'loop4' information: Failed to get status of the device loop4: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:48:06 host-154 udisksd[3104]: Error getting 'loop5' information: Failed to get status of the device loop5: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:48:06 host-154 udisksd[3104]: Error getting 'loop6' information: Failed to get status of the device loop6: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:48:06 host-154 udisksd[3104]: Error getting 'loop7' information: Failed to get status of the device loop7: No such device or address (g-bd-loop-error-quark, 1) июл 19 10:48:06 host-154 udisksd[3104]: *** stack smashing detected ***: terminated июл 19 10:48:06 host-154 systemd[1]: udisks2.service: Main process exited, code=killed, status=6/ABRT июл 19 10:48:06 host-154 systemd[1]: udisks2.service: Failed with result 'signal'. июл 19 10:48:06 host-154 systemd[1]: Failed to start Disk Manager. (Ответ для hasculdr на комментарий #40) > не помогло Пусть мантейнер разбирается. (Ответ для Sergey V Turchin на комментарий #44) > (Ответ для hasculdr на комментарий #40) > > не помогло > Пусть мантейнер разбирается. Если откатить пакет udisks2 на 2023/07/12, то всё отлично работает. (Ответ для ЧМК на комментарий #45) > Если откатить пакет udisks2 на 2023/07/12, то всё отлично работает. Это понятно. Между тем в апстриме всякие весёлые правки есть типа https://github.com/storaged-project/libblockdev/commit/aefd6778b9accc27a1cc55fa0ae380e000096dc8 Прошу мантейнера просыпаться и приложить оба вышеперечимсленных исправления. https://github.com/storaged-project/libblockdev/issues/934 (Ответ для Sergey V Turchin на комментарий #49) > Прошу мантейнера просыпаться и приложить оба вышеперечимсленных исправления. > https://github.com/storaged-project/libblockdev/issues/934 Таблеточку прими от нервов. (Ответ для Yuri N. Sedunov на комментарий #50) > Таблеточку прими от нервов. А https://git.altlinux.org/tasks/325139/ не поможет? ;-) Граждане пострадавшие, можете попробовать обновиться из №325139, и доложить сюда. (Ответ для Yuri N. Sedunov на комментарий #52) > Граждане пострадавшие, можете попробовать обновиться из №325139, и доложить > сюда. у меня без изменений( откат на 2.9.4 (Ответ для Yuri N. Sedunov на комментарий #52) > Граждане пострадавшие, можете попробовать обновиться из №325139, и доложить > сюда. не помогло. все так же Process 5398 (udisksd) of user 0 dumped core. Found module linux-vdso.so.1 with build-id: d1d84c9b0db95cf09b07977d09b9ff9d306aada0 Found module libnss_files.so.2 with build-id: e7d97bf7dd0ce1152ad496215462b7ce656b4096 Found module libnvme.so.1 with build-id: ee63d761f5511106ec1c990c11ae53fef257ba0c Found module libbd_nvme.so.3 with build-id: 42c497edb12dcf58dc05a2fb32ddea89e1c414f8 Found module libcom_err.so.2 with build-id: 04c7c83e43872276a707d467bbfe273bc110dec6 Found module libe2p.so.2 with build-id: ab34627c0b1241ef72b52ddaf69a1fa52101c180 Found module libext2fs.so.2 with build-id: 1077aff832b49badd0ce832ae3613a16c336b1a8 Found module libbd_fs.so.3 with build-id: 22bc710d6ec469616dcf025c1ef18c15f13907ff Found module libfdisk.so.1 with build-id: 7a528b9c0e81e26fe2c4cdd3067ee1c41fa8f8ce Found module libbd_part.so.3 with build-id: dbd3b2c036c2ad839082933ba1202cdcc9516716 Found module libgmp.so.10 with build-id: e9eb16e06f39fbe3603696c4758e4cf27774b615 Found module libpcre2-8.so.0 with build-id: 3f11f46970c73b5cad21e442774c3d3880c92240 Found module libmpfr.so.6 with build-id: 5c2016ffd6c4433f3328d5ffd7848b58e3887aa5 Found module libbytesize.so.1 with build-id: 7d8711dbc94223eb862da9afb78611c70a5478de Found module libbd_mdraid.so.3 with build-id: 036b88125b965abd259219e60bfd13b9621616f2 Found module libassuan2.so.0 with build-id: 8e9ad0bc53259dcd28dae3a833283f7a3efdc335 Found module libm.so.6 with build-id: b2f504b4a72643c9f16fb55ab340be8bf4ae06c8 Found module libgpgme.so.11 with build-id: 35c6b31d48241adede64a66ad244e79b36752274 Found module libnspr4.so with build-id: bb885d03ca12c6f657a0a70aef736df7b0d5c302 Found module libplc4.so with build-id: d2ca15688cc635ea1d818fcaa111786ef5aea69f Found module libplds4.so with build-id: 38ad6c256e6116ac70dc7d74f5fd0e151fc1e96b Found module libnssutil3.so with build-id: b37e8702e9593d18023ae390e476271c8211dad4 Found module libjson-c.so.5 with build-id: f20c971addf05d066e3bea89212c30651814d46f Found module libargon2.so.1 with build-id: 53fe05348fd40936436ce816627e68bf708788d9 Found module libdevmapper.so.1.02 with build-id: d0c74b4699d5509d034fcf981d86b7aa6189c9b6 Found module libvolume_key.so.1 with build-id: 82ee12bd591f58124bcab363285460c88a4cad5a Found module libkeyutils.so.1 with build-id: ab0c6849faec57b69ab5900e1532acd1b02b994c Found module libnss3.so with build-id: 9b07ddb28599cf2f821c4fa0fa90a37c20ee843f Found module libsmime3.so with build-id: d3e30b8a863feff81faed42f5b4046f594f0dbd6 Found module libcryptsetup.so.12 with build-id: fc715917d5bbdc2695074e420299f9355e82f251 Found module libbd_crypto.so.3 with build-id: 59d7d45718c60b418f2963ee4b357cdf270b8fb8 Found module libbd_loop.so.3 with build-id: 884dc265279897fc57441e5231a0d7fe357f8f7d Found module libbd_swap.so.3 with build-id: 28df912d16fdbe67d7b40431a43230a76871a4e6 Found module libgpg-error.so.0 with build-id: 9b6495a9fa45bcd16beb550ff88e6f3a839cc13e Found module libcrypto.so.1.1 with build-id: 4ab205932fce8de5c1a20a5f459a5e6f17edf65c Found module libpcre.so.3 with build-id: ae2e0defeebd8c18724ee01bb2be39036e7f8943 Found module libffi.so.7 with build-id: 7d9725885bb44a15f305c03b71e6e469e94239ea Found module libresolv.so.2 with build-id: 62631f8a2345966555069d5b39e3448f8f370268 Found module libz.so.1 with build-id: f69013f5edb3cb3b3c0022b7350a1366b835ac56 Found module libgcrypt.so.20 with build-id: e6a150f0923ad62fc83078bec1e1b3b875dcd0fe Found module liblz4.so.1 with build-id: c222af572ea3eb519f55677b2e6794ea1e83dd74 Found module libzstd.so.1 with build-id: 637b7cff2f1c0b84667817cdfd7a3a319161df9e Found module liblzma.so.5 with build-id: 179ef7ded527b4a37e3caa5906b49a87b2a23f9d Found module librt.so.1 with build-id: f724fd7c49f78b13fd7b9fbe871403dfa4bf2212 Found module libselinux.so.1 with build-id: 6ad87d04d346f0b7943721b4b2aa36d5a131f5fd Found module libkmod.so.2 with build-id: 5df45561f1bc60e465e30c73fbe585cbabd616a7 Found module libudev.so.1 with build-id: 6321b0fa3bd772e2093c35edfbea8d87dfbee497 Found module libdl.so.2 with build-id: 313d70ef53f250fd3322999d61c48b7f2d3fddd3 Found module ld-linux-x86-64.so.2 with build-id: 89c19f7bc64e27bdd0c57a4b08e124f8c95799ee Found module libc.so.6 with build-id: 41259207a6a4da6595a09db78fa98a4118ae0d0e Found module libpthread.so.0 with build-id: 67209fc6697d6ec1416c5fa6c38bc27c4ab5a36b Found module libglib-2.0.so.0 with build-id: f3e247c84031e7f3d8e6ff9f90fdd6f172036dd0 Found module libgobject-2.0.so.0 with build-id: 2b46ed0e5d24638d56d0a4c7e385c977f79ff1f2 Found module libgio-2.0.so.0 with build-id: 77a4f94bcef6444b607f2338ec82b6e82b8b097e Found module libudisks2.so.0 with build-id: 8d0dceb32acd709c3a21f82b82cd9722d88a888b Found module libsystemd.so.0 with build-id: c186dbfef3076547b7b2e8778c09ca4acc4152c2 Found module libacl.so.1 with build-id: 085f5bd0ba57688c42c74a4687cd9331b662ccb5 Found module libpolkit-gobject-1.so.0 with build-id: 7b65b59d7c2ba98bcf21a8828dbcb111db4efe8b Found module libuuid.so.1 with build-id: 7c878c5c84b712cf42c147f4ddd7776153516c25 Found module libmount.so.1 with build-id: e745a8f545f99330d2a9749dd1f383ef8332ac1f Found module libblkid.so.1 with build-id: ff367947bc483683173ea08a83f81346266668e0 Found module libatasmart.so.4 with build-id: a59b47cf84caf1ec2e12a51e63c149c3b7d0cdda Found module libbd_utils.so.3 with build-id: 4ef7b49b3c31aecc5e24a4006d02457fa775d5f3 Found module libblockdev.so.3 with build-id: afbe749828fe6be3d2d0a8c37aca5b89551a4e05 Found module libgudev-1.0.so.0 with build-id: 8709b1c08d303bd64fcd50e86531ede545289e40 Found module libgmodule-2.0.so.0 with build-id: 80a77800edd846365db1f60fea8b6e1f22893cf0 Found module udisksd with build-id: f17350bfc2d13d741ead70b9aa86a73c7f4d2ba1 Stack trace of thread 5398: #0 0x00007f44c262f391 raise (libc.so.6 + 0x3d391) #1 0x00007f44c2618548 abort (libc.so.6 + 0x26548) #2 0x00007f44c2670f87 n/a (libc.so.6 + 0x7ef87) #3 0x00007f44c2702c82 __fortify_fail (libc.so.6 + 0x110c82) #4 0x00007f44c2702c52 __stack_chk_fail (libc.so.6 + 0x110c52) #5 0x00007f44c00868c7 bd_nvme_get_sanitize_log (libbd_nvme.so.3 + 0x58c7) Stack trace of thread 5401: #0 0x00007f44c26e71ef __poll (libc.so.6 + 0xf51ef) #1 0x00007f44c28428fe n/a (libglib-2.0.so.0 + 0x568fe) #2 0x00007f44c2842c5b g_main_loop_run (libglib-2.0.so.0 + 0x56c5b) #3 0x00007f44c2a9ee46 n/a (libgio-2.0.so.0 + 0x121e46) #4 0x00007f44c286c1cd n/a (libglib-2.0.so.0 + 0x801cd) #5 0x00007f44c27d3eb0 start_thread (libpthread.so.0 + 0x8eb0) #6 0x00007f44c26f352f __clone (libc.so.6 + 0x10152f) Stack trace of thread 5400: #0 0x00007f44c26ecc89 syscall (libc.so.6 + 0xfac89) #1 0x00007f44c2895842 g_cond_wait_until (libglib-2.0.so.0 + 0xa9842) #2 0x00007f44c2811631 n/a (libglib-2.0.so.0 + 0x25631) #3 0x00007f44c286cbea n/a (libglib-2.0.so.0 + 0x80bea) #4 0x00007f44c286c1cd n/a (libglib-2.0.so.0 + 0x801cd) #5 0x00007f44c27d3eb0 start_thread (libpthread.so.0 + 0x8eb0) #6 0x00007f44c26f352f __clone (libc.so.6 + 0x10152f) Stack trace of thread 5402: #0 0x00007f44c26ecc89 syscall (libc.so.6 + 0xfac89) #1 0x00007f44c289571f g_cond_wait (libglib-2.0.so.0 + 0xa971f) #2 0x00007f44c281164b n/a (libglib-2.0.so.0 + 0x2564b) #3 0x00007f44c2811ad8 g_async_queue_pop (libglib-2.0.so.0 + 0x25ad8) #4 0x000055c561cb2ee2 probe_request_thread_func (udisksd + 0x24ee2) #5 0x00007f44c286c1cd n/a (libglib-2.0.so.0 + 0x801cd) #6 0x00007f44c27d3eb0 start_thread (libpthread.so.0 + 0x8eb0) #7 0x00007f44c26f352f __clone (libc.so.6 + 0x10152f) Stack trace of thread 5399: #0 0x00007f44c26e71ef __poll (libc.so.6 + 0xf51ef) #1 0x00007f44c28428fe n/a (libglib-2.0.so.0 + 0x568fe) #2 0x00007f44c2842a1f g_main_context_iteration (libglib-2.0.so.0 + 0x56a1f) #3 0x00007f44c2842a71 n/a (libglib-2.0.so.0 + 0x56a71) #4 0x00007f44c286c1cd n/a (libglib-2.0.so.0 + 0x801cd) #5 0x00007f44c27d3eb0 start_thread (libpthread.so.0 + 0x8eb0) #6 0x00007f44c26f352f __clone (libc.so.6 + 0x10152f) (Ответ для Yuri N. Sedunov на комментарий #52) > Граждане пострадавшие, можете попробовать обновиться из №325139, и доложить > сюда. Содержимое задание обновилось, милости прошу еще раз попробовать. (Ответ для Yuri N. Sedunov на комментарий #55) > (Ответ для Yuri N. Sedunov на комментарий #52) > > Граждане пострадавшие, можете попробовать обновиться из №325139, и доложить > > сюда. > > Содержимое задание обновилось, милости прошу еще раз попробовать. и снова не помогло (Ответ для Sergey V Turchin на комментарий #35) > Как видно, fortify сработал в nvme-плагине. Он сработал после переполнения стека во время вызова bd_nvme_get_sanitize_log(), но в этой фукции особо не из-за чего переполняться. Может, ресурсов не хватает (ulimit -s)? Или же особенности линковки с плагином? Здравствуйте. №325139 не помог [root@host-154 log]# udisksctl status Error connecting to the udisks daemon: Ошибка вызова StartServiceByName для org.freedesktop.UDisks2: Время ожидания истекло [root@host-154 log]# systemctl status udisks2.service × udisks2.service - Disk Manager Loaded: loaded (/lib/systemd/system/udisks2.service; enabled; vendor preset: enabled) Active: failed (Result: signal) since Thu 2023-07-20 08:12:43 MSK; 27s ago Docs: man:udisks(8) Process: 3160 ExecStart=/usr/libexec/udisks2/udisksd (code=killed, signal=ABRT) Main PID: 3160 (code=killed, signal=ABRT) CPU: 24ms июл 20 08:12:43 host-154 systemd[1]: Starting Disk Manager... июл 20 08:12:43 host-154 udisksd[3160]: udisks daemon version 2.11.0 starting июл 20 08:12:43 host-154 udisksd[3160]: *** stack smashing detected ***: terminated июл 20 08:12:43 host-154 systemd[1]: udisks2.service: Main process exited, code=killed, status=6/ABRT июл 20 08:12:43 host-154 systemd[1]: udisks2.service: Failed with result 'signal'. июл 20 08:12:43 host-154 systemd[1]: Failed to start Disk Manager. [root@host-154 log]# journalctl -xeu udisks2.service ░░ ░░ An ExecStart= process belonging to unit udisks2.service has exited. ░░ ░░ The process' exit code is 'killed' and its exit status is 6. июл 20 08:09:59 host-154 systemd[1]: udisks2.service: Failed with result 'signal'. ░░ Subject: Unit failed ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ The unit udisks2.service has entered the 'failed' state with result 'signal'. июл 20 08:09:59 host-154 systemd[1]: Failed to start Disk Manager. ░░ Subject: Ошибка юнита udisks2.service ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ Произошел сбой юнита udisks2.service. ░░ ░░ Результат: failed. июл 20 08:12:43 host-154 systemd[1]: Starting Disk Manager... ░░ Subject: Начинается запуск юнита udisks2.service ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ Начат процесс запуска юнита udisks2.service. июл 20 08:12:43 host-154 udisksd[3160]: udisks daemon version 2.11.0 starting июл 20 08:12:43 host-154 udisksd[3160]: *** stack smashing detected ***: terminated июл 20 08:12:43 host-154 systemd[1]: udisks2.service: Main process exited, code=killed, status=6/ABRT ░░ Subject: Unit process exited ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ An ExecStart= process belonging to unit udisks2.service has exited. ░░ ░░ The process' exit code is 'killed' and its exit status is 6. июл 20 08:12:43 host-154 systemd[1]: udisks2.service: Failed with result 'signal'. ░░ Subject: Unit failed ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ The unit udisks2.service has entered the 'failed' state with result 'signal'. июл 20 08:12:43 host-154 systemd[1]: Failed to start Disk Manager. ░░ Subject: Ошибка юнита udisks2.service ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ Произошел сбой юнита udisks2.service. ░░ ░░ Результат: failed. Created attachment 13889 [details]
strace -t -o xxx udisksctl status
strace -t -o xxx udisksctl status
[root@host-154 ~]# journalctl -xr июл 20 08:31:35 host-154 systemd[1]: systemd-hostnamed.service: Deactivated successfully. ░░ Subject: Unit succeeded ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ The unit systemd-hostnamed.service has successfully entered the 'dead' state. июл 20 08:31:32 host-154 gvfs-udisks2-vo[2628]: monitor says it's not supported июл 20 08:31:32 host-154 gvfs-udisks2-vo[2628]: monitor says it's not supported июл 20 08:31:32 host-154 gvfs-udisks2-vo[2628]: monitor says it's not supported июл 20 08:31:32 host-154 gvfs-udisks2-vo[2628]: monitor says it's not supported июл 20 08:31:32 host-154 gvfs-udisks2-vo[2628]: monitor says it's not supported июл 20 08:31:32 host-154 gvfs-udisks2-vo[2628]: monitor says it's not supported июл 20 08:31:32 host-154 gvfs-udisks2-vo[2628]: monitor says it's not supported июл 20 08:31:32 host-154 gvfs-udisks2-vo[2628]: monitor says it's not supported июл 20 08:31:32 host-154 gvfs-udisks2-vo[2628]: monitor says it's not supported С заданием 325139 (билд 6.1) у сервиса udisks2 пропали сообщения об ошибках с loop устройствами. (Ответ для Alexander Makeenkov на комментарий #62) > С заданием 325139 (билд 6.1) у сервиса udisks2 пропали сообщения об ошибках > с loop устройствами. Пропустите сперва util-linux из build#325099, чтоб не мучиться. (Ответ для Alexander Makeenkov на комментарий #62) > С заданием 325139 (билд 6.1) у сервиса udisks2 пропали сообщения об ошибках > с loop устройствами. Это ожидаемо. Насколько я понимаю, остались проблемы с некоторыми nvme. Может быть поможет новая версия libnvme. (Ответ для Yuri N. Sedunov на комментарий #64) > (Ответ для Alexander Makeenkov на комментарий #62) > > С заданием 325139 (билд 6.1) у сервиса udisks2 пропали сообщения об ошибках > > с loop устройствами. > > Это ожидаемо. Насколько я понимаю, остались проблемы с некоторыми nvme. > Может быть поможет новая версия libnvme. А у меня на SL10 и так всё последнее стоит: libnvme1-1.4-alt1.x86_64 (Ответ для ЧМК на комментарий #65) > А у меня на SL10 и так всё последнее стоит: > libnvme1-1.4-alt1.x86_64 Есть 1.5, ёё еще надо собрать. Created attachment 13890 [details]
lshw на SL10 на ASRock H510M-HDV R2.0
Created attachment 13891 [details]
lspci на SL10 на ASRock H510M-HDV R2.0
(Ответ для ЧМК на комментарий #68) > Создано вложение 13891 [details] [подробности] > lspci на SL10 на ASRock H510M-HDV R2.0 MAXIO Technology (Hangzhou) Ltd. NVMe SSD Controller MAP1202 (rev 01) Такой же и у Vlad https://bugzilla.altlinux.org/attachment.cgi?id=13829 (Ответ для Yuri N. Sedunov на комментарий #69) > (Ответ для ЧМК на комментарий #68) > > Создано вложение 13891 [details] [подробности] > > lspci на SL10 на ASRock H510M-HDV R2.0 > > MAXIO Technology (Hangzhou) Ltd. NVMe SSD Controller MAP1202 (rev 01) > Такой же и у Vlad > https://bugzilla.altlinux.org/attachment.cgi?id=13829 че еще поставить? (Ответ для Vlad на комментарий #70) > (Ответ для Yuri N. Sedunov на комментарий #69) > > (Ответ для ЧМК на комментарий #68) > > > Создано вложение 13891 [details] [подробности] > > > lspci на SL10 на ASRock H510M-HDV R2.0 > > > > MAXIO Technology (Hangzhou) Ltd. NVMe SSD Controller MAP1202 (rev 01) > > Такой же и у Vlad > > https://bugzilla.altlinux.org/attachment.cgi?id=13829 > > че еще поставить? Разве что сизифное ядро попробовать. (Ответ для Yuri N. Sedunov на комментарий #71) > (Ответ для Vlad на комментарий #70) > > (Ответ для Yuri N. Sedunov на комментарий #69) > > > (Ответ для ЧМК на комментарий #68) > > > > Создано вложение 13891 [details] [подробности] > > > > lspci на SL10 на ASRock H510M-HDV R2.0 > > > > > > MAXIO Technology (Hangzhou) Ltd. NVMe SSD Controller MAP1202 (rev 01) > > > Такой же и у Vlad > > > https://bugzilla.altlinux.org/attachment.cgi?id=13829 > > > > че еще поставить? > > Разве что сизифное ядро попробовать. какое конкретное?) как накатить?) (Ответ для Vlad на комментарий #72) > > Разве что сизифное ядро попробовать. > какое конкретное?) как накатить?) un-def Подключить репозиторий Sisyphus # update-kernel -t un-def Отключить репозиторий Sisyphus Перезагрузиться. (Ответ для Yuri N. Sedunov на комментарий #66) > (Ответ для ЧМК на комментарий #65) > > > А у меня на SL10 и так всё последнее стоит: > > libnvme1-1.4-alt1.x86_64 > > Есть 1.5, ёё еще надо собрать. Собирается в задании №325139. (Ответ для Yuri N. Sedunov на комментарий #73) > (Ответ для Vlad на комментарий #72) > > > Разве что сизифное ядро попробовать. > > > какое конкретное?) как накатить?) > > un-def > > Подключить репозиторий Sisyphus > # update-kernel -t un-def > Отключить репозиторий Sisyphus > Перезагрузиться. Попробовал: ядро 6.4.4 отдельно ставиться не захотело. Сделал обновление всей системы. Перезагрузился - не помогло. В общем, util-linux в build#325099 завернули > 2023-Jul-20 09:28:49 :: disapproved by ldv > new mount API is not ready for p10 , но в закрытой рассылке было > Может быть, как уже сказал Глеб, udisks'у от новой версии util-linux нужно > не новое mount API, которое можно выключить на стадии сборки, а что-то > другое? т.е. надо отключить в util-linux новое mount API. (In reply to Sergey V Turchin from comment #76) > т.е. надо отключить в util-linux новое mount API. --disable-libmount-mountfd-support (Ответ для ЧМК на комментарий #75) ... > Попробовал: ядро 6.4.4 отдельно ставиться не захотело. Сделал обновление > всей системы. Перезагрузился - не помогло. Если новые libnvme/nvme из задания №325139 уже установлены, остается только ждать, когда отдел тестирования сбегает в магазин за железкой на вашем контроллере, воспроизведет ошибку и перевесит её куда-нибудь, наверное, на ядро. (Ответ для Yuri N. Sedunov на комментарий #78) > Если новые libnvme/nvme из задания №325139 уже установлены Для начала достаточно, чтобы проверили те, у кого воспроизводится падение. (Ответ для Leonid Krivoshein на комментарий #57) > (Ответ для Sergey V Turchin на комментарий #35) > > Как видно, fortify сработал в nvme-плагине. > Он сработал после переполнения стека во время вызова > bd_nvme_get_sanitize_log(), но в этой фукции особо не из-за чего > переполняться. Может, ресурсов не хватает (ulimit -s)? Или же особенности > линковки с плагином? $ ulimit -s 8192 (Ответ для Sergey V Turchin на комментарий #79) > (Ответ для Yuri N. Sedunov на комментарий #78) > > Если новые libnvme/nvme из задания №325139 уже установлены > Для начала достаточно, чтобы проверили те, у кого воспроизводится падение. увидел что какие-то новые обновления были у №325139. Поставил. Не помогло. Ошибок с loop сейчас уже нет. но udisks продолжает падать №325139 установил. Ошибка осталась Могу предоставить по удалёнке этот ПК с этими железяками. Это логи: [root@host-154 ~]# journalctl -xeu udisks2.service ░░ ░░ An ExecStart= process belonging to unit udisks2.service has exited. ░░ ░░ The process' exit code is 'killed' and its exit status is 6. июл 21 08:04:14 host-154 systemd[1]: udisks2.service: Failed with result 'signal'. ░░ Subject: Unit failed ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ The unit udisks2.service has entered the 'failed' state with result 'signal'. июл 21 08:04:14 host-154 systemd[1]: Failed to start Disk Manager. ░░ Subject: Ошибка юнита udisks2.service ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ Произошел сбой юнита udisks2.service. ░░ ░░ Результат: failed. июл 21 08:04:16 host-154 systemd[1]: Starting Disk Manager... ░░ Subject: Начинается запуск юнита udisks2.service ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ Начат процесс запуска юнита udisks2.service. июл 21 08:04:16 host-154 udisksd[2635]: udisks daemon version 2.11.0 starting июл 21 08:04:16 host-154 udisksd[2635]: *** stack smashing detected ***: terminated июл 21 08:04:16 host-154 systemd[1]: udisks2.service: Main process exited, code=killed, status=6/ABRT ░░ Subject: Unit process exited ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ An ExecStart= process belonging to unit udisks2.service has exited. ░░ ░░ The process' exit code is 'killed' and its exit status is 6. июл 21 08:04:16 host-154 systemd[1]: udisks2.service: Failed with result 'signal'. ░░ Subject: Unit failed ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ The unit udisks2.service has entered the 'failed' state with result 'signal'. июл 21 08:04:16 host-154 systemd[1]: Failed to start Disk Manager. ░░ Subject: Ошибка юнита udisks2.service ░░ Defined-By: systemd ░░ Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel ░░ ░░ Произошел сбой юнита udisks2.service. ░░ ░░ Результат: failed. [root@host-154 ~]# udisksctl status Error connecting to the udisks daemon: Ошибка вызова StartServiceByName для org.freedesktop.UDisks2: Время ожидания истекло [root@host-154 ~]# systemctl status udisks2.service × udisks2.service - Disk Manager Loaded: loaded (/lib/systemd/system/udisks2.service; enabled; vendor preset: enabled) Active: failed (Result: signal) since Fri 2023-07-21 08:05:48 MSK; 30s ago Docs: man:udisks(8) Process: 3121 ExecStart=/usr/libexec/udisks2/udisksd (code=killed, signal=ABRT) Main PID: 3121 (code=killed, signal=ABRT) CPU: 24ms июл 21 08:05:48 host-154 systemd[1]: Starting Disk Manager... июл 21 08:05:48 host-154 udisksd[3121]: udisks daemon version 2.11.0 starting июл 21 08:05:48 host-154 udisksd[3121]: *** stack smashing detected ***: terminated июл 21 08:05:48 host-154 systemd[1]: udisks2.service: Main process exited, code=killed, status=6/ABRT июл 21 08:05:48 host-154 systemd[1]: udisks2.service: Failed with result 'signal'. июл 21 08:05:48 host-154 systemd[1]: Failed to start Disk Manager. [root@host-154 ~]# А ещё есть идея: не городить кучу пакетов для обновления, а откатить только udisks2. Что скажете? (Ответ для Sergey V Turchin на комментарий #83) > А ещё есть идея: не городить кучу пакетов для обновления, а откатить только > udisks2. > Что скажете? Почему бы и нет, на данный момент это самый простой способ. Все что здесь предлагалось пробовал, все равно падает. Еще дополню, тунаре в устройствах показываются tmp, proc, boot и другое. NVMe SSD Controller MAP1202 чипсет 520 с рязанью. (Ответ для Sergey V Turchin на комментарий #83) > А ещё есть идея: не городить кучу пакетов для обновления, а откатить только > udisks2. Возражения у кого-нибудь есть? (Ответ для Sergey V Turchin на комментарий #83) > А ещё есть идея: не городить кучу пакетов для обновления, а откатить только > udisks2. А всё, обратно дороги нет. Если только откатывать весь https://packages.altlinux.org/ru/tasks/323890/ Разобраться надо с MAXIO MAP1202, он у всех пострадавших. Надеюсь, железяка уже закуплена? (Ответ для Yuri N. Sedunov на комментарий #87) > Разобраться надо с MAXIO MAP1202, он у всех пострадавших. > Надеюсь, железяка уже закуплена? Ты хотел подебажить или поговорить? (Ответ для Yuri N. Sedunov на комментарий #87) > Надеюсь, железяка уже закуплена? Надежды оправдали. (Ответ для ЧМК на комментарий #41) > поставил М.2 - SSD 256 Gb M.2 2280 M Apacer AS2280P4U > AP256GAS2280P4U-1 с адаптером на слот ExeGate EXE-529 Адаптер M.2 M key +- > PCI-Ex16 EX283709RUS. Проверили на аналогичном оборудовании - ошибку воспроизвести не удалось. (Ответ для Alexander Makeenkov на комментарий #90) > (Ответ для ЧМК на комментарий #41) > > поставил М.2 - SSD 256 Gb M.2 2280 M Apacer AS2280P4U > > AP256GAS2280P4U-1 с адаптером на слот ExeGate EXE-529 Адаптер M.2 M key +- > > PCI-Ex16 EX283709RUS. > > Проверили на аналогичном оборудовании - ошибку воспроизвести не удалось. Мне кажется, что это не от адаптера и SSD зависит, а от материнской платы, на которой этот чип стоит. Потому что на другой метеринской плате адаптера и SSD работают без проблем. (Ответ для ЧМК на комментарий #91) > (Ответ для Alexander Makeenkov на комментарий #90) > > (Ответ для ЧМК на комментарий #41) > > > поставил М.2 - SSD 256 Gb M.2 2280 M Apacer AS2280P4U > > > AP256GAS2280P4U-1 с адаптером на слот ExeGate EXE-529 Адаптер M.2 M key +- > > > PCI-Ex16 EX283709RUS. > > > > Проверили на аналогичном оборудовании - ошибку воспроизвести не удалось. > > Мне кажется, что это не от адаптера и SSD зависит, а от материнской платы, > на которой этот чип стоит. Потому что на другой метеринской плате адаптера и > SSD работают без проблем. MAXIO Technology (Hangzhou) Ltd. NVMe SSD Controller MAP1202 (rev 01) ASUSTeK COMPUTER INC. PRIME A520M-K AMD Ryzen 5 PRO 4650GE with Radeon Graphics Проблема есть, заметил у народа с 510 и 520 чипами от амд проблема присутствует, у арчеводов тоже есть проблема. Может другой ssd попробовать поставить, но есть только sata на M2 (Ответ для ЧМК на комментарий #91) > кажется, что это не от адаптера и SSD зависит, а от материнской платы BIOS у ASRock H510M-HDV R2.0 обновлён до версии 1.50 ? https://www.asrock.com/MB/Intel/H510M-HDV%20R2.0/index.ru.asp#BIOS (Ответ для porese на комментарий #92) > ASUSTeK COMPUTER INC. PRIME A520M-K BIOS обновлён до версии 3002 ? https://www.asus.com/ru/motherboards-components/motherboards/prime/prime-a520m-k/helpdesk_bios/?model2Name=PRIME-A520M-K (Ответ для Sergey V Turchin на комментарий #93) > (Ответ для ЧМК на комментарий #91) > > кажется, что это не от адаптера и SSD зависит, а от материнской платы > BIOS у ASRock H510M-HDV R2.0 обновлён до версии 1.50 ? > https://www.asrock.com/MB/Intel/H510M-HDV%20R2.0/index.ru.asp#BIOS Да. Только 1 месяц назад всё приобрели - уже была 1.50 util-linux я отправил отдельной задачей https://git.altlinux.org/tasks/325099/ (Ответ для Sergey V Turchin на комментарий #94) > (Ответ для porese на комментарий #92) > > ASUSTeK COMPUTER INC. PRIME A520M-K > BIOS обновлён до версии 3002 ? > https://www.asus.com/ru/motherboards-components/motherboards/prime/prime- > a520m-k/helpdesk_bios/?model2Name=PRIME-A520M-K 2806 от 10/27/2022 (Ответ для porese на комментарий #97) > > > ASUSTeK COMPUTER INC. PRIME A520M-K > > BIOS обновлён до версии 3002 ? > 2806 от 10/27/2022 Обновитесь, мало ли. Точно не помешает. Это вообще 1-е, что надо делать. (Ответ для Sergey V Turchin на комментарий #98) > (Ответ для porese на комментарий #97) > > > > ASUSTeK COMPUTER INC. PRIME A520M-K > > > BIOS обновлён до версии 3002 ? > > 2806 от 10/27/2022 > Обновитесь, мало ли. Точно не помешает. Это вообще 1-е, что надо делать. Обновил биос на 3002, обновил udisks, проблема не исчезла. (Ответ для ЧМК на комментарий #41) > Могу предоставить доступ Я написал вам почтой. (Ответ для ЧМК на комментарий #82) > №325139 установил. Ошибка осталась Попробуйте, пожалуйста, последнюю сборку задания https://git.altlinux.org/tasks/325139/ (Ответ для Alexander Makeenkov на комментарий #101) > (Ответ для ЧМК на комментарий #82) > > №325139 установил. Ошибка осталась > > Попробуйте, пожалуйста, последнюю сборку задания > https://git.altlinux.org/tasks/325139/ Установил - ошибка осталась *** Bug 47033 has been marked as a duplicate of this bug. *** (Ответ для ЧМК на комментарий #45) > (Ответ для Sergey V Turchin на комментарий #44) > > (Ответ для hasculdr на комментарий #40) > > > не помогло > > Пусть мантейнер разбирается. > > Если откатить пакет udisks2 на 2023/07/12, то всё отлично работает. https://www.altlinux.org/Downgrade Вы этим способом откатили? Если нет, то напишите, пожалуйста, команды для отката udisks2. (Ответ для Mikhail Aniskin на комментарий #104) > (Ответ для ЧМК на комментарий #45) > > (Ответ для Sergey V Turchin на комментарий #44) > > > (Ответ для hasculdr на комментарий #40) > > > > не помогло > > > Пусть мантейнер разбирается. > > > > Если откатить пакет udisks2 на 2023/07/12, то всё отлично работает. > > https://www.altlinux.org/Downgrade > Вы этим способом откатили? > Если нет, то напишите, пожалуйста, команды для отката udisks2. Тут выше есть как откатить. https://bugzilla.altlinux.org/show_bug.cgi?id=46911#c14 у кого падает -- делали nvme sanitize? https://git.altlinux.org/people/mcpain/packages/?p=udisks2.git;a=commit;h=bffd3549101b74579c5600ec4ecea24ea5d46ac2 Пока сделал вот такой временный объезд, чтобы больше не падало 2 Aris: просьба поскорее приложить. Это временное решение, но оно уже критически тормозит выпуск дистрибутива. (Ответ для Sergey V Turchin на комментарий #108) > 2 Aris: просьба поскорее приложить. Это временное решение, но оно уже > критически тормозит выпуск дистрибутива. Не надо спешить, есть альтернативное решение. https://github.com/storaged-project/libblockdev/pull/951 #326934 BUILDING #1 [locked] [test-only] sisyphus srpm=libblockdev-3.0.2-alt2.src.rpm Когда соберется -- проверьте. (In reply to Yuri N. Sedunov from comment #109) > (Ответ для Sergey V Turchin на комментарий #108) > > 2 Aris: просьба поскорее приложить. Это временное решение, но оно уже > > критически тормозит выпуск дистрибутива. > > Не надо спешить, есть альтернативное решение. > https://github.com/storaged-project/libblockdev/pull/951 > > #326934 BUILDING #1 [locked] [test-only] sisyphus > srpm=libblockdev-3.0.2-alt2.src.rpm > > Когда соберется -- проверьте. Не помогло (Ответ для Олег Соловьев на комментарий #110) > > > > Когда соберется -- проверьте. > > Не помогло Тогда напишите внятный комментарий к своему патчу -- приложу. Created attachment 14071 [details]
disable sanitize-log
Могу сам патч приложить вместо этого
(Ответ для Yuri N. Sedunov на комментарий #111) > (Ответ для Олег Соловьев на комментарий #110) > > Тогда напишите внятный комментарий к своему патчу -- приложу. Ждем пока сборочечница пережуёт все ядра. #326947 PENDING #1 sisyphus srpm=udisks2-2.10.0-alt3.src.rpm Был в отпуске. Смотрю есть новая версия udisk2. Переустановил ОС на ПК и обновился - всё работает. Спасибо. (Ответ для ЧМК на комментарий #114) > Был в отпуске. > Смотрю есть новая версия udisk2. > Переустановил ОС на ПК и обновился - всё работает. Спасибо. Тогда думаю, что можно закрывать. Возможно связано ли этой темой. Я столкнулся с тем, что у меня kde5 после логина прогружает рабочий стол около минуты. Причём после прогрузки апплеты "Датчик системного монитора" не показывают никаких значений, пока не тыкнеш в их настройки, после чего они просыпаются и начинают давать показания. После прогрузки рабочего стола: # systemctl status udisks2.service ● udisks2.service - Disk Manager Loaded: loaded (/lib/systemd/system/udisks2.service; disabled; vendor preset: enabled) Active: active (running) since Sat 2023-08-26 13:28:04 +07; 1min 42s ago Docs: man:udisks(8) Main PID: 3863 (udisksd) Tasks: 5 (limit: 19062) Memory: 16.2M CPU: 2.551s CGroup: /system.slice/udisks2.service └─ 3863 /usr/libexec/udisks2/udisksd авг 26 13:28:04 ogion.localdomain udisksd[3863]: Error getting 'loop0' information: Failed to get status of> авг 26 13:28:04 ogion.localdomain udisksd[3863]: Error getting 'loop1' information: Failed to get status of> авг 26 13:28:04 ogion.localdomain udisksd[3863]: Error getting 'loop2' information: Failed to get status of> авг 26 13:28:04 ogion.localdomain udisksd[3863]: Error getting 'loop3' information: Failed to get status of> авг 26 13:28:04 ogion.localdomain udisksd[3863]: Error getting 'loop4' information: Failed to get status of> авг 26 13:28:04 ogion.localdomain udisksd[3863]: Error getting 'loop5' information: Failed to get status of> авг 26 13:28:04 ogion.localdomain udisksd[3863]: Error getting 'loop6' information: Failed to get status of> авг 26 13:28:04 ogion.localdomain udisksd[3863]: Error getting 'loop7' information: Failed to get status of> авг 26 13:28:04 ogion.localdomain systemd[1]: Started Disk Manager. авг 26 13:28:04 ogion.localdomain udisksd[3863]: Acquired the name org.freedesktop.UDisks2 on the system me> [root@ogion denis]# udisksctl status MODEL REVISION SERIAL DEVICE -------------------------------------------------------------------------- m.2 Smartbuy PS5013-2280T 128GB EDFM00.7 46A60727082200000177 nvme0n1 2TB RUN S9 2TB V0609B0 D1K910K8X00176 sda Patriot Burst SBFMJ1.3 B7A30795015300807570 sdb WDC WD10EZEX-22BN5A0 01.01A01 WD-WCC3F6KUKZVS sde WDC WD5000AAKX-60U6AA0 18.01H18 WD-WCC2EAMR0367 sdf Generic STORAGE DEVICE 1532 000000001532 sdc Generic STORAGE DEVICE 1532 000000001532 sdd $ rpm -qa |grep udisks libudisks2-2.10.0-alt3.x86_64 udisks2-2.10.0-alt3.x86_64 $ rpm -q util-linux util-linux-2.39.1-alt0.p10.1.x86_64 $ uname -a Linux ogion.localdomain 6.1.42-un-def-alt1 #1 SMP PREEMPT_DYNAMIC Wed Aug 2 10:19:01 UTC 2023 x86_64 GNU/Linux (Ответ для Denis G. Samsonenko на комментарий #116) > Возможно связано ли этой темой. Вряд ли, тут основная причина зависания системы было то, что сервис udisks2 не запускался в принципе. Приложите, пожалуйста, вывод следующих команд: $ cat /etc/os-release $ systemd-analyze time $ systemd-analyze blame # journalctl -b 0 Когда началась данная проблема? После каких-то обновлений или само по себе? Устанавливали ли вы какое-то дополнительное ПО, не входящее в дистрибутив или репозиторий? Created attachment 14248 [details]
вывод journalctl -b 0
вывод journalctl -b 0
(Ответ для Alexander Makeenkov на комментарий #117) > Вряд ли, тут основная причина зависания системы было то, что сервис udisks2 > не запускался в принципе. А на каком этапе этот сервис должен запускаться? Сразу после загрузки системы он не запущен. После логина и входа в kde он запущен. > Приложите, пожалуйста, вывод следующих команд: > $ cat /etc/os-release NAME="starter kit" VERSION="10" ID=altlinux VERSION_ID=10 PRETTY_NAME="ALT Starterkit 10 (Hypericum)" ANSI_COLOR="1;33" CPE_NAME="cpe:/o:alt:starterkit:10" BUILD_ID="starter kit p10 (Hypericum)" ALT_BRANCH_ID="p10" HOME_URL="http://en.altlinux.org/starterkits" BUG_REPORT_URL="https://bugs.altlinux.org/" > $ systemd-analyze time Startup finished in 19.889s (firmware) + 7.513s (loader) + 5.381s (kernel) + 6.505s (userspace) = 39.290s graphical.target reached after 6.498s in userspace > $ systemd-analyze blame 4.720s systemd-udev-settle.service 982ms nut-driver.service 547ms network.service 332ms systemd-random-seed.service 264ms accounts-daemon.service 258ms postfix.service 246ms dev-nvme0n1p1.device 188ms cups.service 110ms smb.service 105ms user@500.service 105ms udisks2.service 77ms polkit.service 73ms udevd-final.service 60ms systemd-udev-trigger.service 50ms systemd-modules-load.service 49ms bluetooth.service 44ms dbus.service 42ms systemd-journald.service 42ms systemd-udevd.service 41ms upower.service 37ms rtkit-daemon.service 37ms systemd-logind.service 32ms systemd-fsck@dev-disk-by\x2duuid-fba3b9ef\x2d15c0\x2d47fe\x2d90e5\x2d6c9153a0e481.service 31ms lm_sensors.service 27ms colord.service 26ms sshd.service 24ms systemd-fsck@dev-disk-by\x2duuid-2658172c\x2d4631\x2d4ac6\x2dbdd1\x2dff678b4636a1.service 21ms systemd-fsck-root.service 21ms lightdm.service 20ms alsa-restore.service 19ms systemd-tmpfiles-setup-dev.service 18ms home.mount 15ms gpm.service 14ms dev-disk-by\x2duuid-82b3f4e7\x2d6791\x2d4735\x2d8b04\x2d9eb88fdb9c17.swap 12ms dev-hugepages.mount 12ms dev-mqueue.mount 11ms sys-kernel-debug.mount 11ms sys-kernel-tracing.mount 11ms boot-efi.mount > # journalctl -b 0 Там длинный вывод, на 2600 строк. Сделал аттачмент. > Когда началась данная проблема? После каких-то обновлений или само по себе? Ну, может месяц уже или больше, сейчас уже не вспомню точно. После какого-то из обновлений, в котором было много пакетов kde заметил, что после логина не вижу рабочий стол, только окно NUT Monitor, который стоит в автозагрузке. По началу рабочий стол не появлялся, пока я рару раз не рестартану X'ы через Ctrl+Alt+Backspace и нового релогина, тогда после третьего раза рабочий стол прогружался. Потом прошло ещё пара обновлений, теперь рабочий стол прогружается, если подождать около минуты после логина. > Устанавливали ли вы какое-то дополнительное ПО, не входящее в дистрибутив > или репозиторий? Ну, телеграм стоит не из дистрибутива, но проблема появилась ещё до него. (Ответ для Denis G. Samsonenko на комментарий #119) > > $ cat /etc/os-release > > NAME="starter kit" > VERSION="10" > ID=altlinux > VERSION_ID=10 > PRETTY_NAME="ALT Starterkit 10 (Hypericum)" На наших тестовых и рабочих стендах (ALT Workstation K 10.1) описанной вами проблемы не наблюдается. Можете проверить на этом же компьютере один из официальных дистрибутивов (например, тот же ALT Workstation K)? Будет ли воспроизводиться проблема на нём? (Ответ для Alexander Makeenkov на комментарий #120) > На наших тестовых и рабочих стендах (ALT Workstation K 10.1) описанной вами > проблемы не наблюдается. Можете проверить на этом же компьютере один из Ну, у меня на другом компе с аналогичной системой тоже такой проблемы нет (но там другой набор ssd и hdd, и нет винды в дуалбуте). > официальных дистрибутивов (например, тот же ALT Workstation K)? Будет ли > воспроизводиться проблема на нём? Могу попробовать скачать live-образ и с него загрузиться. Поставил скачиваться 10.1 и 10.2 RC1. (Ответ для Alexander Makeenkov на комментарий #120) > На наших тестовых и рабочих стендах (ALT Workstation K 10.1) описанной вами > проблемы не наблюдается. Можете проверить на этом же компьютере один из > официальных дистрибутивов (например, тот же ALT Workstation K)? Будет ли > воспроизводиться проблема на нём? Записал на флешку K Workstation 10.1, загрузился с неё в режиме с сессией. Немного поднастроил внешний вид, отключил заставку загрузки рабочего стола, отключил автологин. Поставил в автозапуск pavucontrol, чтобы было какое-то окно приложения при запуске рабочего стола. Пару раз перезагрузился. После нажатия на Enter в экране логина SDDM забойчий стол прогружается в среднем за 10 с. При этом сначала прогружается полностью рабочий стол с панелью, фоном и иконками на рабочем столе, потом сразу появляется окно pavucontrol, который я поставил в автозагрузку. При этом версии udisks2 и util-linux такие: 2.9.4-alt1 и 2.36.1-alt2 соответственно. Обновил udisks2 и util-linux до версий 2.10.0-alt3 и 2.39.1-alt0.p10.1 соответственно. Поместил на панел виджет системного монитора, показывающего общую загрузку CPU. Несколько раз перезагрузился. После обновления udisks2 и util-linux рабочий стол теперь прогружается в среднем за 45 с, при этом сначала появляется окно pavucontrol (примерно на 10-й секунде плюс-минус 5 с), потом уже прогружается сам рабочий стол с панелью и иконками рабочего стола (на 45 с). При этом виджет системного монитора ничего не показывает, покане зайдёшь в его настройку и не нажмёшь OK. При нескольких перезагрузках фон рабочего стола то появлялся сразу после логина, то иногда всё время держался чёрный фон, и картинка фона прогружалась вконце вместе с пранелью и иконками рабочего стола. Окно pavucontrol всегда появлялось довольно рано и всегда до прогрузки самого рабочего стола. (Ответ для Denis G. Samsonenko на комментарий #122) > При нескольких перезагрузках фон рабочего стола то появлялся сразу после > логина, то иногда всё время держался чёрный фон, и картинка фона > прогружалась вконце вместе с пранелью и иконками рабочего стола. Окно > pavucontrol всегда появлялось довольно рано и всегда до прогрузки самого > рабочего стола. Попробуйте проверить диск на ошибки. Пример команды: # smartctl -s on -a /dev/nvme0n1 Обратить внимание на результат (PASSED или FAILED) в строке SMART overall-health self-assessment test result: PASSED (Ответ для Alexander Makeenkov на комментарий #123) > Попробуйте проверить диск на ошибки. > Пример команды: > # smartctl -s on -a /dev/nvme0n1 > Обратить внимание на результат (PASSED или FAILED) в строке SMART > overall-health self-assessment test result: PASSED # smartctl -s on -a /dev/nvme0n1 smartctl 7.2 2020-12-30 r5155 [x86_64-linux-6.1.42-un-def-alt1] (ALT Sisyphus 7.2-alt1) Copyright (C) 2002-20, Bruce Allen, Christian Franke, www.smartmontools.org === START OF INFORMATION SECTION === Model Number: m.2 Smartbuy PS5013-2280T 128GB Serial Number: 46A60727082200000177 Firmware Version: EDFM00.7 PCI Vendor/Subsystem ID: 0x1987 IEEE OUI Identifier: 0x6479a7 Total NVM Capacity: 128 035 676 160 [128 GB] Unallocated NVM Capacity: 0 Controller ID: 1 NVMe Version: 1.3 Number of Namespaces: 1 Namespace 1 Size/Capacity: 128 035 676 160 [128 GB] Namespace 1 Formatted LBA Size: 512 Namespace 1 IEEE EUI-64: 6479a7 6710c0144d Local Time is: Wed Aug 30 20:31:47 2023 +07 Firmware Updates (0x12): 1 Slot, no Reset required Optional Admin Commands (0x0017): Security Format Frmw_DL Self_Test Optional NVM Commands (0x005e): Wr_Unc DS_Mngmt Wr_Zero Sav/Sel_Feat Timestmp Log Page Attributes (0x0a): Cmd_Eff_Lg Telmtry_Lg Maximum Data Transfer Size: 64 Pages Warning Comp. Temp. Threshold: 85 Celsius Critical Comp. Temp. Threshold: 95 Celsius Supported Power States St Op Max Active Idle RL RT WL WT Ent_Lat Ex_Lat 0 + 4.50W - - 0 0 0 0 0 0 1 + 2.70W - - 1 1 1 1 0 0 2 + 2.16W - - 2 2 2 2 0 0 3 - 0.0700W - - 3 3 3 3 1000 1000 4 - 0.0050W - - 4 4 4 4 5000 45000 Supported LBA Sizes (NSID 0x1) Id Fmt Data Metadt Rel_Perf 0 + 512 0 1 1 - 4096 0 0 === START OF SMART DATA SECTION === SMART overall-health self-assessment test result: PASSED SMART/Health Information (NVMe Log 0x02) Critical Warning: 0x00 Temperature: 33 Celsius Available Spare: 100% Available Spare Threshold: 5% Percentage Used: 0% Data Units Read: 881 536 [451 GB] Data Units Written: 294 514 [150 GB] Host Read Commands: 10 155 050 Host Write Commands: 3 318 777 Controller Busy Time: 95 Power Cycles: 461 Power On Hours: 2 984 Unsafe Shutdowns: 22 Media and Data Integrity Errors: 0 Error Information Log Entries: 0 Warning Comp. Temperature Time: 0 Critical Comp. Temperature Time: 0 Temperature Sensor 1: 50 Celsius Error Information (NVMe Log 0x01, 16 of 16 entries) No Errors Logged Есть такой старый баг, может ли это быть связано? https://bugs.kde.org/show_bug.cgi?id=426233 (Ответ для Leonid Krivoshein на комментарий #125) > Есть такой старый баг, может ли это быть связано? > https://bugs.kde.org/show_bug.cgi?id=426233 На лив-системе (грузится с флешки) я не обновлял qt и kde, только udisks2 и util-linux, что привело к выше указанным задержкам в загрузке рабочего стола. На самой же системе на этом компе у меня давно sddm заменён на lightdm, и всё равно наблюдаются такие же симптомы. Я попробую поотключать диски и ещё позагружаться с флешки -- посмотрю, будет ли зависеть от того, какие диски подключены или не подключены. (Ответ для Alexander Makeenkov на комментарий #123) > Попробуйте проверить диск на ошибки. > Пример команды: > # smartctl -s on -a /dev/nvme0n1 > Обратить внимание на результат (PASSED или FAILED) в строке SMART > overall-health self-assessment test result: PASSED Я нашёл, что описанное поведение стабильно воспроизводится при подключенном HDD, на котором стоит Windows 10 и efi раздел с которого грузится grub. Если этот HDD отключить, то live-система грузится с флешки и показывает рабочий стол после логина за 10 с, при этом не наблюдается проблем с виждетом системного монитора, он показывает загрузку CPU сразу. Это диск WD Blue на 1 TB: WDC WD10EZEX-22BN5A0 01.01A01 WD-WCC3F6KUKZVS sde # smartctl -s on -a /dev/sde smartctl 7.2 2020-12-30 r5155 [x86_64-linux-6.1.49-un-def-alt1] (ALT Sisyphus 7.2-alt1) Copyright (C) 2002-20, Bruce Allen, Christian Franke, www.smartmontools.org === START OF INFORMATION SECTION === Model Family: Western Digital Blue Device Model: WDC WD10EZEX-22BN5A0 Serial Number: WD-WCC3F6KUKZVS LU WWN Device Id: 5 0014ee 26077d246 Firmware Version: 01.01A01 User Capacity: 1 000 204 886 016 bytes [1,00 TB] Sector Sizes: 512 bytes logical, 4096 bytes physical Rotation Rate: 7200 rpm Device is: In smartctl database [for details use: -P show] ATA Version is: ACS-2, ACS-3 T13/2161-D revision 3b SATA Version is: SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s) Local Time is: Sat Sep 2 15:00:03 2023 +07 SMART support is: Available - device has SMART capability. SMART support is: Enabled === START OF ENABLE/DISABLE COMMANDS SECTION === SMART Enabled. === START OF READ SMART DATA SECTION === SMART overall-health self-assessment test result: PASSED General SMART Values: Offline data collection status: (0x82) Offline data collection activity was completed without error. Auto Offline Data Collection: Enabled. Self-test execution status: ( 0) The previous self-test routine completed without error or no self-test has ever been run. Total time to complete Offline data collection: (11280) seconds. Offline data collection capabilities: (0x7b) SMART execute Offline immediate. Auto Offline data collection on/off support. Suspend Offline collection upon new command. Offline surface scan supported. Self-test supported. Conveyance Self-test supported. Selective Self-test supported. SMART capabilities: (0x0003) Saves SMART data before entering power-saving mode. Supports SMART auto save timer. Error logging capability: (0x01) Error logging supported. General Purpose Logging supported. Short self-test routine recommended polling time: ( 2) minutes. Extended self-test routine recommended polling time: ( 117) minutes. Conveyance self-test routine recommended polling time: ( 5) minutes. SCT capabilities: (0x3035) SCT Status supported. SCT Feature Control supported. SCT Data Table supported. SMART Attributes Data Structure revision number: 16 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0 3 Spin_Up_Time 0x0027 175 173 021 Pre-fail Always - 2216 4 Start_Stop_Count 0x0032 094 094 000 Old_age Always - 6077 5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0 7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0 9 Power_On_Hours 0x0032 063 063 000 Old_age Always - 27269 10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0 11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0 12 Power_Cycle_Count 0x0032 095 095 000 Old_age Always - 5377 192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 226 193 Load_Cycle_Count 0x0032 199 199 000 Old_age Always - 5850 194 Temperature_Celsius 0x0022 110 089 000 Old_age Always - 33 196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0 197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0030 200 200 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0 200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 0 SMART Error Log Version: 1 No Errors Logged SMART Self-test log structure revision number 1 Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error # 1 Extended offline Completed without error 00% 27250 - # 2 Short offline Completed without error 00% 27248 - # 3 Extended offline Completed without error 00% 13284 - # 4 Short offline Completed without error 00% 13282 - SMART Selective self-test log data structure revision number 1 SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS 1 0 0 Not_testing 2 0 0 Not_testing 3 0 0 Not_testing 4 0 0 Not_testing 5 0 0 Not_testing Selective self-test flags (0x0): After scanning selected spans, do NOT read-scan remainder of disk. If Selective self-test is pending on power-up, resume after 0 minute delay. (Ответ для Denis G. Samsonenko на комментарий #127) > Я нашёл, что описанное поведение стабильно воспроизводится при подключенном > HDD, на котором стоит Windows 10 и efi раздел с которого грузится grub. > Если этот HDD отключить, то live-система грузится с флешки и показывает > рабочий стол после логина за 10 с, при этом не наблюдается проблем с > виждетом системного монитора, он показывает загрузку CPU сразу. > Это диск WD Blue на 1 TB: > WDC WD10EZEX-22BN5A0 01.01A01 WD-WCC3F6KUKZVS Пробовал обновить bios (в результате чего слетел загрузчик grub, остался только загрузчик windows, пришлось из live-системы восстанавливать grub на efi), пробовал подключить этот hdd через новый кабель sata, пробовал поперетыкать в другие разъёмы sata на материнской плате -- поведение не изменилось. Делал диагностику этого диска и из linux (smartctl, whdd) и из windows (Western Digital Dashboard), и там и там вроде пишет, что диск работает нормально, сбоев нет. Однако с udisks2-2.10.0-alt3 с подключенным этим hdd наблюдаются задержки загрузки рабочего стола kde, а с udisks2-2.9.4-alt1 такого не наблюдается. Это всё же проблемы железа (HDD) или софта (udisks2, kde)? (Ответ для Denis G. Samsonenko на комментарий #128) ... > Это всё же проблемы железа (HDD) или софта (udisks2, kde)? Можно попробовать загрузиться с регулярки на сизифе. http://nightly.altlinux.org/sisyphus/tested/ Возмите KDE и для сравнения к-н еще (gnome, mate ...) (Ответ для Yuri N. Sedunov на комментарий #129) > Можно попробовать загрузиться с регулярки на сизифе. > http://nightly.altlinux.org/sisyphus/tested/ Попробовал последнюю регулярку с kde. На этой live-системе описанных выше проблем нет. Версии udisks2 вроде как одинаковые. Однако вывод systemctl status udisks2 отличается: # systemctl status udisks2.service ● udisks2.service - Disk Manager Loaded: loaded (/lib/systemd/system/udisks2.service; enabled; preset: enabled) Active: active (running) since Sun 2023-09-03 23:30:35 +07; 9min ago Docs: man:udisks(8) Main PID: 3435 (udisksd) Tasks: 6 (limit: 18937) Memory: 15.8M CPU: 583ms CGroup: /system.slice/udisks2.service └─3435 /usr/libexec/udisks2/udisksd сен 03 23:30:34 localhost.localdomain systemd[1]: Starting udisks2.service - Disk Manager... сен 03 23:30:34 localhost.localdomain udisksd[3435]: udisks daemon version 2.10.0 starting сен 03 23:30:35 localhost.localdomain systemd[1]: Started udisks2.service - Disk Manager. сен 03 23:30:35 localhost.localdomain udisksd[3435]: Acquired the name org.freedesktop.UDisks2 on the system message bus В выводе нет рагани на loop0 ... loop7. Ещё я заметил, что в ругулярке стоит enabled для сервиса udisks2, а у меня на машине с p10 стоит disabled. Сделал ему enabled тоже, но не помогло. Рабочий стол нормально загружается, только если перед тем, как залогиниться в lighdm, сначала на второй консоли запустить udisksctl status. Он некоторое время не отвечает, слышно как шуми hdd, в первый раз даже отвалился с ошибкой "Error connecting to the udisks daemon: Timeout was reached". При повторном запуске он таки выдал таблицу. После этого я снова переключился на первую консоль и залогинился в lighdm, после чего рабочий стол загрузился без проблем и задержек. Ваша проблема в NTFS на диске с виндоус, и она решена в libblockdev-3.0.3 в сизифе. То есть для решения вашей проблемы на установленной системе достаточно точечно обновить libblockdev* из Сизифа. (Ответ для Yuri N. Sedunov на комментарий #131) > Ваша проблема в NTFS на диске с виндоус, и она решена в libblockdev-3.0.3 в > сизифе. То есть для решения вашей проблемы на установленной системе > достаточно точечно обновить libblockdev* из Сизифа. Вроде бы у меня там два hdd с ntfs, но проблема только с одним из них, на котором собственно сами винда стоит. В общем, пересобрал в хашере libblockdev-3.0.3-alt1.src.rpm и обновил до него (сам libblockdev, а также -crypto, -fs, -loop, -mdraid, -nvme, -part, -swap и -utils) и проблема действительно вроде бы ушла. Получается, надо пересобрать libblockdev-3.0.3-alt1 в p10, чтобы таких проблем не возникало. (Ответ для Denis G. Samsonenko на комментарий #132) > (Ответ для Yuri N. Sedunov на комментарий #131) > > Ваша проблема в NTFS на диске с виндоус, и она решена в libblockdev-3.0.3 в > > сизифе. То есть для решения вашей проблемы на установленной системе > > достаточно точечно обновить libblockdev* из Сизифа. > > Вроде бы у меня там два hdd с ntfs, но проблема только с одним из них, на > котором собственно сами винда стоит. Можете поэкспериментировать с ntfscluster и ntfsinfo на ваших дисках. Возможно, добавление второго и вводит в ступор ntfscluster. commit aefd6778b9accc27a1cc55fa0ae380e000096dc8 Author: Alexis Murzeau <amubtdx@gmail.com> Date: Fri Jul 14 14:52:28 2023 +0000 Use ntfsinfo instead of ntfscluster for faster bd_fs_ntfs_get_info ntfscluster can take as much as 45s to complete on a USB key. Use ntfsinfo to get size information instead of ntfscluster, ntfsinfo is near instantanous (177ms instead of 45s on the same USB key). (Ответ для Yuri N. Sedunov на комментарий #133) > Можете поэкспериментировать с ntfscluster и ntfsinfo на ваших дисках. > Возможно, добавление второго и вводит в ступор ntfscluster. Ну да, ntfscluster на разделе с виндой отрабатывает у меня за 35 с: 1.07user 0.91system 0:34.59elapsed 5%CPU (0avgtext+0avgdata 3144maxresident)k 2172064inputs+0outputs (0major+316minor)pagefaults 0swaps При этом на вывод сыпется куча строк вида: Inode 1005419 is an extent of inode 384172. Собственно вывод этих трок и занимает основное время. На втором диске с единственным разделом ntfscluster отрабатывает быстро: 0.07user 0.05system 0:00.54elapsed 22%CPU (0avgtext+0avgdata 2444maxresident)k 132672inputs+0outputs (0major+170minor)pagefaults 0swaps При этом в выводе есть только одна строка "Inode 33021 is an extent of inode 32959". ntfsinfo же на обоих дисках отрабатывает быстро. Проблема сохраняется. Ждём фикса (Ответ для Vladimir Ivashchenko на комментарий #135) > Проблема сохраняется. Ждём фикса (Ответ для Vladimir Ivashchenko на комментарий #135) > Проблема сохраняется. Ждём фикса systemctl status udisks2.service ● udisks2.service - Disk Manager Loaded: loaded (/lib/systemd/system/udisks2.service; disabled; vendor preset: enabled) Active: active (running) since Fri 2023-09-08 15:46:25 MSK; 9min ago Docs: man:udisks(8) Main PID: 3366 (udisksd) Tasks: 5 (limit: 18964) Memory: 14.4M CPU: 3.418s CGroup: /system.slice/udisks2.service └─ 3366 /usr/libexec/udisks2/udisksd сен 08 15:46:25 altlinux udisksd[3366]: Error getting 'loop0' information: Failed to get status of the device loop0: No such device or address (g> сен 08 15:46:25 altlinux udisksd[3366]: Error getting 'loop1' information: Failed to get status of the device loop1: No such device or address (g> сен 08 15:46:25 altlinux udisksd[3366]: Error getting 'loop2' information: Failed to get status of the device loop2: No such device or address (g> сен 08 15:46:25 altlinux udisksd[3366]: Error getting 'loop3' information: Failed to get status of the device loop3: No such device or address (g> сен 08 15:46:25 altlinux udisksd[3366]: Error getting 'loop4' information: Failed to get status of the device loop4: No such device or address (g> сен 08 15:46:25 altlinux udisksd[3366]: Error getting 'loop5' information: Failed to get status of the device loop5: No such device or address (g> сен 08 15:46:25 altlinux udisksd[3366]: Error getting 'loop6' information: Failed to get status of the device loop6: No such device or address (g> сен 08 15:46:25 altlinux udisksd[3366]: Error getting 'loop7' information: Failed to get status of the device loop7: No such device or address (g> сен 08 15:46:25 altlinux systemd[1]: Started Disk Manager. сен 08 15:46:25 altlinux udisksd[3366]: Acquired the name org.freedesktop.UDisks2 on the system message bus (Ответ для Denis G. Samsonenko на комментарий #132) > > Получается, надо пересобрать libblockdev-3.0.3-alt1 в p10, чтобы таких > проблем не возникало. https://packages.altlinux.org/ru/tasks/325139/ Created attachment 15694 [details]
udisks2 dumped
Created attachment 15695 [details]
lspci
Created attachment 15696 [details]
lshw -c disk
Created attachment 15697 [details]
dmesg
Добрый день. В логах при загрузке всегда дампится udisks. Периодически из-за это не прогружается таскбар в KDE. udisks daemon version 2.10.1 libblockdev-3.0.3-alt1 Может это быть из-за версии 3.0.3 libblockdev? Уже вышли 3.0.4 , есть в Сизифе, и 3.1.0 Эта бага для p10, и она давно закрыта. Заведите новую. |
Created attachment 13823 [details] Журнал Добрый день. Сегодня 13.07.23г после установки последних обновлений и перезагрузки системы. Кде перестало загружаться после авторизации в системе. Полностью снес ситему и на чистую поставил обновления. Ситуация повторилась. (До обновления все работает отлично). Если подождать минут 30 появится возможность открыть консоль и перезагрузить кде. Но она не загружается и сыпет ошибками. Спустя 1ч кде загрузилось, но все очень медленно открывается.