Установка сервера AI
Подключаемся к серверу по SSH с пользователем с правами root.
Установка Docker
Создаем подсеть сервера
Загрузка образов
Размещение файлов
Создаем папку
/app/Primo.AI/Api
и дочерние:Размещаем окружение сервера в
/app/Primo.AI/Api
:Размещаем файлы моделей "Умного OCR":
Размещаем файлы моделей "AI Текст". Файлы моделей объемные, поэтому можно скопировать только отдельные.
Базовая модель 'Llama' для vLLM-ядра:
Базовая модель 'Llama' для Llama-ядра:
Базовая модель 'Qwen' для vLLM-ядра:
Размещаем стандартный контекст NLP-запросов:
Должна получиться следующая иерархия папок для соответствия стандартному docker-compose.yaml:
Редактируем конфигурационные файлы
Редактируем конфигурационный файл Api
Открываем в редакторе конфигурационный файл:
Указываем адрес Портала AI Сервера в Security > EnabledOrigins:
Редактируем конфигурационный файл Api.Auth
Открываем в редакторе конфигурационный файл:
Указываем адрес Портала AI Сервера в Security > EnabledOrigins:
Редактируем конфигурационный файл Api.Inference
Открываем в редакторе конфигурационный файл:
Указываем адрес Портала AI Сервера в Security > EnabledOrigins:
Редактируем конфигурационный файл Api.Logs
Открываем в редакторе конфигурационный файл:
Указываем адрес Портала AI Сервера в Security > EnabledOrigins:
Редактируем конфигурационный файл nginx
Открываем в редакторе конфигурационный файл:
Указываем корректный адрес к сервису Api.MachineInfo:
Создание контейнера
Last updated