Last updated
Was this helpful?
Last updated
Was this helpful?
Подключаемся к серверу по SSH с пользователем с правами root.
.
Создаем папку /app/Primo.AI/Api
и дочерние:
Размещаем окружение сервера в /app/Primo.AI/Api
:
Размещаем файлы моделей "Умного OCR":
Размещаем файлы моделей "AI Текст". Файлы моделей объемные, поэтому можно скопировать только отдельные.
Базовая модель для vLLM-ядра:
Базовая модель для Llama-ядра:
Дополнительная базовая модель для vLLM-ядра:
Размещаем стандартный контекст NLP-запросов:
Должна получиться следующая иерархия папок для соответствия стандартному docker-compose.yaml:
Открываем в редакторе конфигурационный файл:
Указываем адрес Портала AI Сервера в Security > EnabledOrigins:
Открываем в редакторе конфигурационный файл:
Указываем адрес Портала AI Сервера в Security > EnabledOrigins:
Открываем в редакторе конфигурационный файл:
Указываем адрес Портала AI Сервера в Security > EnabledOrigins:
Открываем в редакторе конфигурационный файл:
Указываем адрес Портала AI Сервера в Security > EnabledOrigins:
Открываем в редакторе конфигурационный файл:
Указываем корректный адрес к сервису Api.MachineInfo: