В Sisyphus на данный момент старая версия. Нет поддержки AMD AI MAX+ 395, как и всей линейки AMD AI
(In reply to Илья from comment #0) > В Sisyphus на данный момент старая версия. Нет поддержки AMD AI MAX+ 395, > как и всей линейки AMD AI 7.2[1] не содержит ничего интересного: > ROCm 7.2.0 adds support for RDNA4 architecture-based AMD Radeon AI PRO R9600D and AMD Radeon RX 9060 XT LP, and RDNA3 architecture-based AMD Radeon RX 7700 GPUs. Если прям очень нужно, есть незаконченная сборка 7.1[2], там нет всех необходимых пакетов, но базовый функционал работает. 1. https://rocm.docs.amd.com/en/latest/about/release-notes.html#release-highlights 2. https://packages.altlinux.org/en/tasks/402972/
Также прошу обновить внимание, что эти сборки требуют еще и сборки ядерного модуля для полной совместимости, ядра в сизифе этих модулей не имеют поэтому возможны проблемы в работе. Будут ли когда-нибудь эти модули собраны неизвестно, у меня нету ни желания ни возможности этим заниматься.
У меня есть в наличии сборка rocm 7.2.1, но по ряду причин (см. блокер) в сизиф она не пройдет. Прочему - спросите в ООО. Ниже пример запуска comfyUI с pytorch rocm на базе пакетов моей сборки. Как видно, генерация и offload работают без ошибок. ❯ ./run_gpu.sh [START] Security scan [ComfyUI-Manager] Using `uv` as Python module for pip operations. Using Python 3.13.12 environment at: venv [DONE] Security scan ## ComfyUI-Manager: installing dependencies done. ** ComfyUI startup time: 2026-04-13 10:42:14.341 ** Platform: Linux ** Python version: 3.13.12 (main, Feb 12 2026, 10:54:37) [GCC 14.3.1 20251017 (ALT Sisyphus 14.3.1-alt2)] ** Python executable: /.../comfyui/ComfyUI/venv/bin/python ... Using Python 3.13.12 environment at: venv Using Python 3.13.12 environment at: venv Prestartup times for custom nodes: 0.0 seconds: /.../comfyui/ComfyUI/custom_nodes/rgthree-comfy 0.0 seconds: /.../comfyui/ComfyUI/custom_nodes/comfyui-easy-use 0.3 seconds: /.../comfyui/ComfyUI/custom_nodes/comfyui-manager Checkpoint files will always be loaded safely. Total VRAM 16304 MB, total RAM 32023 MB pytorch version: 2.9.1+rocm7.2.1.gitff65f5bc Set: torch.backends.cudnn.enabled = False for better AMD performance. AMD arch: gfx1201 ROCm version: (7, 2) Set vram state to: NORMAL_VRAM Device: cuda:0 AMD Radeon RX 9070 : native Enabled pinned memory 30422.0 Using pytorch attention Python version: 3.13.12 (main, Feb 12 2026, 10:54:37) [GCC 14.3.1 20251017 (ALT Sisyphus 14.3.1-alt2)] ComfyUI version: 0.5.1 ComfyUI frontend version: 1.34.9 [Prompt Server] web root: /.../comfyui/ComfyUI/venv/lib64/python3/site-packages/comfyui_frontend_package/static Total VRAM 16304 MB, total RAM 32023 MB pytorch version: 2.9.1+rocm7.2.1.gitff65f5bc Set: torch.backends.cudnn.enabled = False for better AMD performance. AMD arch: gfx1201 ROCm version: (7, 2) Set vram state to: NORMAL_VRAM Device: cuda:0 AMD Radeon RX 9070 : native Enabled pinned memory 30422.0 ### Loading: ComfyUI-Manager (V3.39) ... got prompt Using split attention in VAE Using split attention in VAE VAE load device: cpu, offload device: cpu, dtype: torch.float32 Requested to load ZImageTEModel_ loaded completely; 95367431640625005117571072.00 MB usable, 7672.25 MB loaded, full load: True CLIP/text encoder model load device: cuda:0, offload device: cpu, current: cuda:0, dtype: torch.float16 model weight dtype torch.bfloat16, manual cast: None model_type FLOW unet missing: ['norm_final.weight'] Requested to load Lumina2 Unloaded partially: 6787.87 MB freed, 884.38 MB remains loaded, 142.50 MB buffer reserved, lowvram patches: 0 loaded completely; 13585.36 MB usable, 11739.55 MB loaded, full load: True 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1/1 [00:01<00:00, 1.71s/it] Requested to load AutoencodingEngine loaded completely; 95367431640625005117571072.00 MB usable, 319.75 MB loaded, full load: True 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 8/8 [00:06<00:00, 1.24it/s] Prompt executed in 63.55 seconds got prompt 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1/1 [00:00<00:00, 1.05it/s] 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 8/8 [00:06<00:00, 1.22it/s] Prompt executed in 40.81 seconds