Skip to Content

Установка Primo.AI.Api

  1. Подключаемся к серверу по SSH с пользователем с правами root.
  2. Создаем папку /app/Primo.AI/Api:
    sudo mkdir -p /app/Primo.AI/Api
  3. Разархивируем Api-linux.zip в /app/Primo.AI/Api:
    sudo unzip /srv/samba/shared/install/distr/Api-linux.zip -d /app/Primo.AI/Api
  4. Установим владельца папки с инсталляцией:
    sudo chown -R primo:primo-ai /app/Primo.AI/Api

Создаем и настраиваем службу

  1. Копируем файл службы, который идет с комплектом поставки, в /etc/systemd/system:
    sudo cp /app/Primo.AI/Api/Primo.AI.Api.service /etc/systemd/system/Primo.AI.Api.service
  2. Перезагружаем systemctl:
    sudo systemctl daemon-reload
  3. Помещаем службу в автозапуск:
    sudo systemctl enable /etc/systemd/system/Primo.AI.Api.service

Редактируем конфигурационный файл

  1. Открываем в vim конфигурационный файл:

    sudo nano appsettings.ProdLinux.json
  2. Редактируем строки подключения к БД:

    alt

    Cм. инструкцию по установке PostgreSQL.

    В HOST указываем адрес сервера, где установлен PostgreSQL.

    В USER ID указываем пользователя БД primo, в PASSWORD — его пароль.

  3. Настраиваем Primo.AI.Api на работу с сервисом получения параметров оборудования для лицензирования — вводим адрес этого сервиса:

    alt

  4. Настраиваем подключение к RabbitMQ:

    alt

  5. Опционально — настраиваем MinIO:

    alt

  6. Опционально — настраиваем Redis:

    alt

  7. Настраиваем параметр Security > EnabledOrigins для кроссдоменных запросов:

    alt

Размещаем файлы ИИ-моделей

  1. Размещаем файлы моделей Умного OCR:

    sudo cp -r /srv/samba/shared/install/data/models/SmartOCR/* /app/Primo.AI/Api_Models/
  2. Размещаем файлы моделей AI Текст.

    Модели AI Текст:

    Имя моделиLLM-ядроМультимодальностьИмя файла
    base-LLM-01-7b-safetensors-fp16 (vLLM, 8B)vLLMнетe255188e-d9f6-41d3-b170-0c25bc0bd02f
    base-LLM-01-7b-gguf-q8 (Ollama, 8B)Ollamaнетddc02d8d-0117-4c67-acb3-2dd0549d2985
    base-LLM-06-7b-gguf-q8 (Ollama, multimodal, 7B)Ollamaдаf55425a0-87c8-4d9e-a4cd-abc56f96ab1e
    base-LLM-06-7b-safetensors-fp16 (vLLM, multimodal, 7B)vLLMда78e57e23-363c-4b1e-b4e2-36fb31da5b48
    base-LLM-07-8b-safetensors-fp16 (vLLM, 8B)vLLMнетe161b94d-3272-4afa-9aad-d191b61c67d3
    base-LLM-06-7b-gguf-fp16 (Ollama, multimodal, 7B)Ollamaдаc7a88b7f-bf7e-484b-bcc4-fea147315c83
    base-LLM-06-32b-gguf-q4_k_m (Ollama, multimodal, 32B)Ollamaда68c2d421-1877-4693-b53f-2e1ca1079db8
    base-LLM-08-27b-gguf-q4_k_m (Ollama, multimodal, 27B)Ollamaда1fc223ef-7a13-42db-8bcb-5fda5a39779e
    base-LLM-09-30b-gguf-q4_k_m (Ollama, thinking, 30B)Ollamaнет7be7740d-64bc-4d07-a3b2-5ba5e6815e17
    base-LLM-10-4b-safetensors-base (vLLM, 4B)vLLMнет98291769-7a84-468f-af2a-5ea4bb02f72a

    Файлы моделей объемные, поэтому можно скопировать только отдельные (укажите вместо ‘xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx’ имя файла модели, воспользовавшись столбцом “Имя файла” из таблицы выше).

    sudo cp /srv/samba/shared/install/data/models/NLP/xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx /app/Primo.AI/Api_Models/

    Либо, если места достаточно, скопируйте все модели:

    sudo cp /srv/samba/shared/install/data/models/NLP/* /app/Primo.AI/Api_Models/

    Если разместить только часть моделей, то при попытке использования остальных моделей, интерфейс системы будет выдавать ошибку.

  3. Размещаем стандартный контекст NLP-запросов:

    sudo cp -r /srv/samba/shared/install/data/context/* /app/Primo.AI/Api_ContextFiles/

Запускаем службу

  1. Даем права на запуск:
    sudo chmod -R 770 /app/Primo.AI/Api/Primo.AI.Api
  2. Запускаем службу:
    sudo systemctl start Primo.AI.Api
  3. Проверяем состояние службы:
    sudo systemctl status Primo.AI.Api

Что дальше

Теперь вы можете перейти к установке компонента Api.Auth.