llama-cpp

Библиотека на C++ для локального inference больших языковых моделей (LLM) в формате GGUF. Позволяет запускать LLM на CPU.

Подключение к проекту

conanfile.py

from conan import ConanFile

class Application(ConanFile):
    settings = "os", "compiler", "arch", "build_type"
    generators = "PkgConfigDeps", "CMakeDeps"

    requires = ("llama-cpp/<version>@aurora",)

.spec файл

%define __provides_exclude_from ^%{_datadir}/%{name}/lib/.*$
%define __requires_exclude ^(libgomp.*|libz.*|libllama.*|libggml.*|libcommon.*|libcurl.*|libssl.*|libcrypto.*)$

BuildRequires: conan

В секции %build:

CONAN_LIB_DIR="%{_builddir}/conan-libs/"
conan-install-if-modified --source-folder="%{_sourcedir}/.." --output-folder="$CONAN_LIB_DIR" -vwarning
PKG_CONFIG_PATH="$CONAN_LIB_DIR":$PKG_CONFIG_PATH
export PKG_CONFIG_PATH

CMakeLists.txt

include(FindPkgConfig)
pkg_check_modules(LLAMACPP REQUIRED IMPORTED_TARGET llama-cpp)
target_link_libraries(${PROJECT_NAME} PRIVATE PkgConfig::LLAMACPP)

Пример использования

Заголовочные файлы:

  • llama.h - основной API
  • chat.h - работа с chat templates
#include "llama.h"
#include "chat.h"
#include <iostream>

int main() {
    llama_model_params params = llama_model_default_params();
    std::cout << "Default GPU: " << params.main_gpu << std::endl;

    bool valid = common_chat_verify_template("chatml", false);
    std::cout << "chatml valid: " << valid << std::endl;

    return 0;
}

Использование в проекте

Документация по использованию Conan-пакетов для разработки приложений для ОС Аврора.

На сервере Conan библиотеки заранее собраны и размещены под различные версии ОС Аврора 4 и ОC Аврора 5. Для данных версий представлены архитектуры armv7hl, aarch64 и x84_64.

Библиотеку можно использовать в проекте с помощью данного conanfile.py

from conan import ConanFile

class Application(ConanFile):
    settings = "os", "compiler", "arch", "build_type"
    generators = "PkgConfigDeps"

    requires = (
        "llama-cpp/b8188@aurora",
    )    

Процесс локальной сборки описан в документации.

llama-cpp

Inference of LLaMA model in pure C/C++
Лицензия
MIT
Версия
Автор
Daniil Markevich <d.markevich@omp.ru>
Домашняя страница
Скачать
x86_64
40.3 Mb
MD5: ec71f94959e26cd09f6d423993cd1d44
Updated: 03.03.2026, 18:32:31
armv8
38.29 Mb
MD5: 56f2d5895f32f232bb930c64fd8998dc
Updated: 02.03.2026, 21:29:15
armv7
36.97 Mb
MD5: 67e159da171d9816a08b7258e06f246a
Updated: 02.03.2026, 21:30:09
armv8
38.29 Mb
MD5: f3e8f9f56f567f2427f656ceae61bd48
Updated: 03.03.2026, 13:07:10
armv7
36.97 Mb
MD5: 7fea2ac539afc19a76b2b0517c3199b6
Updated: 03.03.2026, 18:34:06
x86_64
40.32 Mb
MD5: c23bd34fbfcac67cd84f420c8da34bfc
Updated: 02.03.2026, 21:30:40
Использование в проекте

Мы используем cookies для персонализации сайта и его более удобного использования. Вы можете запретить cookies в настройках браузера.

Пожалуйста ознакомьтесь с политикой использования cookies.