Created attachment 19289 [details] Логи ошибки выполнения и скрипт Платформы: ALT KWorkstation 11.0, ALT Workstation 11.0, ALT Education KDE 11.0, ALT Education XFCE 11.0, ALT Server 11.0 (Обновленные до Sisyphus) Версия пакета: python3-module-asgi-lifespan-2.1.0-alt1.1 После установки пакета и модели, при попытке запустить установленную модель при помощи скрипта, выполнение прерывается с ошибкой бекэнда. Шаги воспроизведения: 1. Установить пакет: # apt-get install python3-module-llama-cpp-python 2. Скачать GGUF-модель, например: wget https://huggingface.co/bartowski/Llama-3.2-3B-Instruct-GGUF/resolve/main/Llama-3.2-3B-Instruct-f16.gguf 3. Создать скрипт test_llama.py Скрипт прикладываю: 4. Выполнить: python3 /root/test_llama.py Результат: Инициализация модели завершается с ошибкой Ожидаемый результат (При проверке с апстримным модулем установленным через pip) Модель должна загружаться и инициализироваться корректно, как минимум с CPU-бэкендом (ggml), без дополнительных пересборок Логи прикладываю:
Created attachment 19290 [details] Логи ошибки