Bug 50962 - Упаковать libllama.so
Summary: Упаковать libllama.so
Status: CLOSED FIXED
Alias: None
Product: Sisyphus
Classification: Development
Component: llama.cpp (show other bugs)
Version: unstable
Hardware: all Linux
: P5 enhancement
Assignee: Vitaly Chikunov
QA Contact: qa-sisyphus
URL:
Keywords:
Depends on:
Blocks:
 
Reported: 2024-07-22 17:57 MSK by Anton Zhukharev
Modified: 2024-07-23 04:18 MSK (History)
1 user (show)

See Also:


Attachments

Note You need to log in before you can comment on or make changes to this bug.
Description Anton Zhukharev 2024-07-22 17:57:24 MSK
Просьба упаковать разделяемую библиотеку libllama.so.
Необходимо для дайнейшей сборки https://pypi.org/project/llama-cpp-python/
Comment 1 Vitaly Chikunov 2024-07-22 21:34:23 MSK
А там разве не забандлен llama.cpp -- как вы будете это объезжать?

https://github.com/abetlen/llama-cpp-python/blob/main/.gitmodules
Comment 2 Vitaly Chikunov 2024-07-22 21:39:31 MSK
1. Если я соберу libllama.so, но вы не будете его использовать, то зачем он нужен.

2. llama.cpp может быть собран с поддержкой cpu (у нас пока собрана только эта версия) и с поддержкой cuda, vulcan -там нет мультиархитектурности, это будут независимые llama.cpp бинарники и библиотеки -- как вы будете это выбирать и использовать?

В примере https://pypi.org/project/llama-cpp-python/ они собирают забандленый llama.cpp с нужными опциями. Например `CMAKE_ARGS="-DGGML_CUDA=on" pip install llama-cpp-python` для CUDA.

Как это все будет работать с libllama.so из репозитория?
Comment 3 Vitaly Chikunov 2024-07-22 21:44:33 MSK
> Как это все будет работать с libllama.so из репозитория?

3. Да и как пользователи будут выбирать или поддержку cpu, или (в будущем) cuda?

jfyi Например, ollama собирает несколько версий llama.spp-server и бандлит их в себя потом при использовании нужная версия запускается автоматически. (Кстати, у них есть и питон модуль https://pypi.org/project/ollama/).
Comment 4 Vitaly Chikunov 2024-07-22 23:43:32 MSK
Я посмотрел как сделано в Федоре https://src.fedoraproject.org/rpms/python-llama-cpp-python/tree/rawhide вы хотите так же делать?
Comment 5 Repository Robot 2024-07-23 04:18:10 MSK
llama.cpp-1:3441-alt1 -> sisyphus:

 Tue Jul 23 2024 Vitaly Chikunov <vt@altlinux> 1:3441-alt1
 - Update to b3441 (2024-07-23).
 - spec: Package libllama and libllama-devel (ALT#50962).
 - spec: Use upstream install procedure; as a consequence, some binary names are
   changed.