Skip to Content

Перед установкой

В этом разделе приведены общие сведения о программных компонентах для группы целевых машин с NLP и системные требования к таким машинам.

Общие сведения

Компоненты Primo.AI.Api и их связи с NLP-компонентом AI Текст приведены на схеме ниже:

Компоненты Primo.AI.Api и группы целевых машин NLP

Группа целевых машин NLP — набор из 4 сервисов, обеспечивающих работу LLM-модели в рамках NLP-задач. Состоит из Logics-сервера с агентом и LLM-ядра с агентом.

Агент Logics-сервера — self-hosted веб-приложение, REST API. Управляет Logics-сервером, а также агентом LLM-ядра. Лицензируется (требует 1 лицензии на Агента Primo RPA AI Server). Выполнено как NET8-приложение, которое размещено на той же физической или виртуальной машине-хосте, что и контейнер Logics-сервера.

Logics-сервер — python-приложение, логическая обвязка вокруг LLM-ядра. Размещено в отдельном docker-контейнере на той же физической или виртуальной машине-хосте, что и его агент Logics-сервера.

Агент LLM-ядра — self-hosted веб-приложение, REST API. Управляет LLM-ядром. Выполнено как NET8-приложение, которое размещено на той же физической или виртуальной машине-хосте, что и контейнер LLM-ядра.

LLM-ядро — python-приложение, обеспечивающее работу LLM-модели. Тип ядра определяется полем Движок в Портале. Размещено в отдельном docker-контейнере на той же физической или виртуальной машине-хосте, что и агент LLM-ядра.

Группа целевых машин NLP может представлять из себя как единственную физическую или виртуальную машину с 2 docker-контейнерами и 2 агентами, так и располагаться на 2 разных машинах. При этом наибольшие требования к производительности предъявляет машина с LLM-ядром. Не рекомендуется размещать на машине с LLM-ядром другие ресурсоёмкие приложения. Групп целевых машин NLP может быть много. Все группы целевых машин NLP должны быть настроены одинаково, и на каждой целевой машине должен быть развернут агент. Версии ОС на целевых машинах могут отличаться.

Порт 44392, указанный на схеме выше, используется при настройке конфигурационных файлов агента и открытия портов на файерволе (в том числе аппаратном в сети организации).

Для настройки группы целевых машин NLP нужна чистая машина с ОС Linux (обязательно с последними обновлениями). На машину необходимо скопировать папку с комплектом поставки. Это может быть любая папка, но для определенности пусть будет папка /srv/samba/shared/install*.

Для настройки группы целевых машин NLP требуется последовательно выполнить все шаги настоящего руководства.

*Сетевая папка, доступная с машины, на которой размещен комплект поставки.

Системные требования

Для группы целевых машин NLP следует использовать рабочие станции под управлением Astra Linux, к которой предъявляются требования из таблицы ниже.

ПараметрМашина с Logics-серверомМашина с LLM-ядром (CPU)Машина с LLM-ядром (CPU), модель base-LLM-04Машина с LLM-ядром (GPU)
CPU4 ядра2 ядра (AVX512)12 ядер (AVX512)8 ядер
RAM8 ГБ32 ГБ32 ГБ32 ГБ
HDD50 ГБ250 ГБ250 ГБ250 ГБ
GPU---NVIDIA с памятью не менее 20 ГБ, поколение Compute Capability не ниже 8.0
CUDA toolkit---не ниже 12.1
⚠️

Несмотря на то, что LLM-ядро с моделями base-LLM-01/02/03 запускается уже на 2 ядрах CPU с AVX512, учитывайте, что при выборе данной конфигурации, время ожидания ответа при параллельной обработке нескольких запросов будет значительно увеличиваться.

⚠️

Перед установкой компонентов целевой машины проверьте наличие инструкций AVX512 процессора.

Проверить наличие инструкций AVX2/AVX512 можно командой:

grep avx /proc/cpuinfo

Если в выводе содержатся только AVX2-инструкции, обработка запросов моделью будет замедлена в разы, или, в зависимости от модели, невозможна. Если в выводе отсутствуют даже AVX2-инструкции, работа с LLM-моделями будет невозможна.

Что дальше

Выполните установку Docker на каждую целевую машину из группы:

После чего можете переходить к установке агента.