Skip to Content

Перед установкой

В этом разделе приведены общие сведения о программных компонентах для целевых машин (Умный OCR / NLP) и системные требования к таким машинам.

Общие сведения

Компоненты AI Server и их связи с целевыми машинами приведены на схеме ниже:

Компоненты AI Server

Целевая машина — физическая или виртуальная машина, на которой производится обучение/инференс ИИ-моделей AI Server.

НаименованиеКомпонент AI ServerЗапускКол-воDockerСтандартные портыЛицензируетсяРоль
Агент*systemd1Нетhttps: 5002, http: 5092ДаВзаимодействие серверной части AI Server с другими компонентами Целевой машины; Управление жизненным циклом IDP-сервера и Logics-сервера
IDP-серверУмный OCRАгент0..NДаhttp: 9100..9999НетОбучение и инференс CV-моделей
Logics-серверNLPАгент0..1Даhttp: 8001НетНепосредственное взаимодействие с LLM-моделями
Агент LLM-ядраNLPsystemd1Нетhttps: 5005, http: 5095НетУправление жизненным циклом LLM-ядра
LLM-ядроNLPАгент LLM-ядра0..1Даhttp: 8000 / 8003 / 8004НетИнференс LLM-моделей

Целевых машин может быть несколько. Например, для Умного OCR можно использовать отдельную от NLP целевую машину. На каждой целевой машине при этом должен быть свой агент (требует отдельной лицензии).

⚠️

Не рекомендуется размещать на машине с LLM-ядром другие ресурсоёмкие приложения.

Для настройки целевых машин нужна чистая машина с ОС Linux (обязательно с последними обновлениями). На машину необходимо скопировать папку с комплектом поставки. Это может быть любая папка, но для определенности пусть будет папка /srv/samba/shared/install*.

Для настройки целевых машин требуется последовательно выполнить все шаги настоящего руководства.

*Сетевая папка, доступная с машины, на которой размещен комплект поставки.

Системные требования

Для целевых машин следует использовать рабочие станции под управлением Astra Linux Special Edition / Ubuntu, к которым предъявляются требования из таблицы ниже.

КомпонентыВид LLMCPURAMHDDGPUТребования
Умный OCR-4 ядра AVX5128 Гб50 Гб-Минимальные
Умный OCR-16 ядер AVX51232 Гб2 Тб-Рекомендуемые
Умный OCR-16 ядер AVX51232 Гб2 ТбNVIDIA (≥ 16 ГБ, 8.0 ≤ Compute Capability ≤ 12.0, 12.4 ≤ CUDA toolkit ≤ 12.8)Рекомендуемые, оптимизация обучения
NLPOllama2 ядра AVX51216 Гб250 Гб-Минимальные
NLPOllama2 ядра AVX51216 Гб250 ГбNVIDIA (≥ 24 ГБ, 8.0 ≤ Compute Capability ≤ 9.0, 12.4 ≤ CUDA toolkit ≤ 12.8)Рекомендуемые
NLPOllama2 ядра AVX51216 Гб250 ГбNVIDIA (≥ 24 ГБ, Compute Capability 12.0, CUDA toolkit 12.8)Рекомендуемые
NLPvLLM8 ядра AVX51232 Гб250 ГбNVIDIA (≥ 24 ГБ, 8.0 ≤ Compute Capability ≤ 9.0, 12.4 ≤ CUDA toolkit ≤ 12.8)Рекомендуемые
⚠️

Если на 1 целевой машине установлены одновременно компоненты Умного OCR и NLP, то требования суммируются.

Проверить наличие инструкций AVX512 можно командой:

grep avx /proc/cpuinfo

Если в выводе содержатся только AVX2-инструкции, обработка запросов моделью будет замедлена в разы, или, в зависимости от модели, невозможна. Если в выводе отсутствуют даже AVX2-инструкции, работа с LLM-моделями будет невозможна.

Что дальше

Выполните установку Docker на каждую целевую машину из группы:

После чего можете переходить к установке агента.