Обновление 1.25.4.0 → 1.25.4.1
Инструкции ограничиваются вариантом установки через Docker.
Значимые изменения в версии 1.25.4.1, которые следует учитывать системному администратору:
- изменились все имена OCI-образов;
- добавился движок Ollama в компонент AI Текст;
- добавились модели для AI Текст;
- обновилась модель проекта “Классификатор”;
- обновился
venv.zip
для Умного OCR.
Машина сервера
-
Скачайте на машину сервера обновленные образы его компонентов:
Компонент Старое имя образа Новое имя образа Имя файла Api server_api:latest primo-rpa/ai-server-api:1.25.4.1 distr/ai-server-api.tar Api.Logs server_logs:latest primo-rpa/ai-server-logs:1.25.4.1 distr/ai-server-logs.tar Api.Auth server_auth:latest primo-rpa/ai-server-auth:1.25.4.1 distr/ai-server-auth.tar Api.Inference server_inference:latest primo-rpa/ai-server-inference:1.25.4.1 distr/ai-server-inference.tar -
Загрузите обновленные образы:
docker load -i /srv/samba/shared/install/distr/ai-server-api.tar && \ docker load -i /srv/samba/shared/install/distr/ai-server-logs.tar && \ docker load -i /srv/samba/shared/install/distr/ai-server-auth.tar && \ docker load -i /srv/samba/shared/install/distr/ai-server-inference.tar
-
Обновите имена образов в файле
/app/Primo.AI/Api/docker-compose.yaml
— старое и новое имя образа указаны в таблице выше. -
Укажите в конфигурации ссылку на документацию:
sudo nano /app/Primo.AI/Api/volumes/conf/Api/appsettings.ProdLinux.json
Раздел Documentation должен принять вид:
"Documentation": { "TrainingMonitoringUrl": "https://docs.primo-rpa.ru/ru/primo-ai/user/smart-ocr/training/monitoring", "AgentsModelsUrl": "https://docs.primo-rpa.ru/ru/primo-ai/user/NLP/configuration#%D0%BE%D1%81%D0%BD%D0%BE%D0%B2%D0%BD%D1%8B%D0%B5-%D0%BF%D0%B0%D1%80%D0%B0%D0%BC%D0%B5%D1%82%D1%80%D1%8B" },
-
Перезапустите компоненты Api:
docker compose -f /app/Primo.AI/Api/docker-compose.yaml down && \ docker compose -f /app/Primo.AI/Api/docker-compose.yaml up -d
-
Обновите сервис Api.MachineInfo, скачав файл
Api.MachineInfo-linux.zip
из каталогаdistr
:sudo systemctl stop Primo.AI.Api.MachineInfo && \ sudo unzip -o /srv/samba/shared/install/distr/Api.MachineInfo-linux.zip -x appsettings* -d /app/Primo.AI/Api.MachineInfo/ && \ sudo systemctl start Primo.AI.Api.MachineInfo
-
Обновите модель Классификатора, скачав файл
5ed5d6eb-d7c0-4d67-8433-0119d922f14c
из каталогаdata/models/SmartOCR
:sudo cp /srv/samba/shared/install/data/models/SmartOCR/5ed5d6eb-d7c0-4d67-8433-0119d922f14c /app/Primo.AI/Api/volumes/Api_Models/
-
Скачайте при необходимости новые модели AI Текст — укажите вместо “xxxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx” имя файла модели из таблицы ниже:
sudo cp /srv/samba/shared/install/data/models/NLP/xxxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx /app/Primo.AI/Api/volumes/Api_Models/
Таблица Новые модели в AI Текст
Внимание! При необходимости обрабатывать изображения компонентом AI Текст рекомендуем использовать новую модель base-LLM-06 (Vllm, multimodal, 7B) вместо прежней (base-LLM-04).
Имя модели | LLM-ядро | Мультимодальность | Имя файла | Имя файла кэша |
---|---|---|---|---|
base-LLM-05 (llama-cpp-python, 27B) | llama-cpp-python | Нет | data/models/NLP/f55425a0-87c8-4d9e-a4cd-abc56f96ab1e | f55425a087c84d9ea4cdabc56f96ab1e |
base-LLM-06 (Vllm, multimodal, 7B) | vLLM | Да | data/models/NLP/78e57e23-363c-4b1e-b4e2-36fb31da5b48 | 78e57e23363c4b1eb4e236fb31da5b48 |
base-LLM-07 (Vllm, 8B) | vLLM | Нет | data/models/NLP/e161b94d-3272-4afa-9aad-d191b61c67d3 | e161b94d32724afa9aadd191b61c67d3 |
Целевая машина Умного OCR
-
Скачайте на целевую машину обновленный образ:
Компонент Старое имя образа Новое имя образа Имя файла Целевая машина Умного OCR agent_ai:latest primo-rpa/ai-server-smartocr:1.25.4.1 distr/ai-server-smartocr.tar -
Загрузите обновленный образ:
docker load -i /srv/samba/shared/install/distr/ai-server-smartocr.tar
-
Обновите имя образа в файле
/app/Primo.AI/SmartOCR/docker-compose.yaml
— старое и новое имя образа указаны в таблице выше. -
Скачайте на целевую машину свежий архив с библиотеками
venv.zip
из каталогаdocker/agents/SmartOCR/volumes
. -
Обновите библиотеки:
sudo rm -r /app/Primo.AI/SmartOCR/volumes/IDP/lib/python3.11 && \ yes | sudo unzip /srv/samba/shared/install/docker/agents/SmartOCR/volumes/venv.zip -d /app/Primo.AI/SmartOCR/volumes/IDP/lib
-
Перезапустите целевую машину Умного OCR:
docker compose -f /app/Primo.AI/SmartOCR/docker-compose.yaml down && \ docker compose -f /app/Primo.AI/SmartOCR/docker-compose.yaml up -d
-
Удалите кэш модели Классификатора:
sudo rm /app/Primo.AI/SmartOCR/volumes/AgentData/Models/5ed5d6eb-d7c0-4d67-8433-0119d922f14c.zip
Целевая машина NLP
-
Скачайте на целевую машину обновленный образ Logics-сервера:
Компонент Старое имя образа Новое имя образа Имя файла Logics-сервер logics:latest primo-rpa/ai-server-logics:1.25.4.1 distr/ai-server-logics.tar -
Загрузите обновленный образ Logics-сервера:
docker load -i /srv/samba/shared/install/distr/ai-server-logics.tar
-
Обновите имя образа в файле
/app/Primo.AI/Agent/appsettings.ProdLinux.json
— старое и новое имя образа указаны в таблице выше. -
Скачайте на целевую машину обновленные образы LLM-ядра:
LLM-ядро Старое имя образа Новое имя образа Имя файла vLLM для GPU vllm/vllm-openai:latest primo-rpa/ai-server-vllm-gpu:1.25.4.1 distr/ai-server-vllm-gpu.tar vLLM для CPU vllm-cpu:latest primo-rpa/ai-server-vllm-cpu:1.25.4.1 distr/ai-server-vllm-cpu.tar Ollama - primo-rpa/ai-server-ollama:1.25.4.1 distr/ai-server-ollama.tar ⚠️Внимание! Если вы использовали llama-cpp-python (ex Llama) и модель base-LLM-02 (Ollama, 8B) (ex base-LLM-02), то обратите внимание, что инференс модели теперь производится новым движком Ollama.
-
Загрузите требуемые новые образы LLM-ядра, заменив “ai-server-xxxxxx.tar” на имя файла образа:
docker load -i /srv/samba/shared/install/distr/ai-server-xxxxxx.tar
-
Только для vLLM. Обновите имена образов в файле
/app/Primo.AI/Agent.NlpEngine/appsettings.ProdLinux.json
— старое и новое имя образа указаны в таблице выше. -
Только для Ollama. Добавьте недостающие ключи конфигурации:
- Ключ Ollama в NlpProcess > HealthCheck файла конфигурации
/app/Primo.AI/Agent.NlpEngine/appsettings.ProdLinux.json
:
"Ollama": { "Url": "http://localhost:8004/v1/models", "TimeoutSeconds": 120, "PeriodMilliseconds": 500 },
- Ключ Ollama в NlpProcess > EnginesDockerRun файла конфигурации
/app/Primo.AI/Agent.NlpEngine/appsettings.ProdLinux.json
:
"Ollama": { "ImageName": "primo-rpa/ai-server-ollama:1.25.4.1", "ContainerName": "ollama", "Port": 8004, "Subnet": "agent_ai", "PostRunCommands": [ "ln {modelFilePath} {blobFilePath}", "ollama create {modelId} -f {modelMetaFilePath}", "ollama run {modelId}" ] },
- Ключ Ollama в NlpProcess > Engines файла конфигурации
/app/Primo.AI/Agent/appsettings.ProdLinux.json
:
"Ollama": { "Host": "ollama", // Находится в единой подсети с logics-сервером, поэтому доступен по имени контейнера "Port": 8004 },
- Ключ Ollama в NlpProcess > HealthCheck файла конфигурации
-
Удалите кэш обновленных моделей, заменив “xxxxxxxxxxxxxxxxxxxxxxxxxxx” на имя файла кэша модели из таблицы Новые модели AI Текст:
sudo rm /app/Primo.AI/Agent.NlpEngineData/ModelTemplates/xxxxxxxxxxxxxxxxxxxxxxxxxxx
-
Обновите агента Logics-сервера, скачав файл
Agent-linux.zip
из каталогаdistr
:sudo systemctl stop Primo.AI.Agent && \ sudo unzip -o /srv/samba/shared/install/distr/Agent-linux.zip -x appsettings* -d /app/Primo.AI/Agent/ && \ sudo systemctl start Primo.AI.Agent
-
Обновите агента LLM-ядра, скачав файл
Agent.NlpEngine-linux.zip
из каталогаdistr
:sudo systemctl stop Primo.AI.Agent.NlpEngine && \ sudo unzip -o /srv/samba/shared/install/distr/Agent.NlpEngine-linux.zip -x appsettings* -d /app/Primo.AI/Agent.NlpEngine/ && \ sudo systemctl start Primo.AI.Agent.NlpEngine