Skip to Content

Обновление 1.25.4.0 → 1.25.4.1

⚠️

Инструкции ограничиваются вариантом установки через Docker.

Значимые изменения в версии 1.25.4.1, которые следует учитывать системному администратору:

  • изменились все имена OCI-образов;
  • добавился движок Ollama в компонент AI Текст;
  • добавились модели для AI Текст;
  • обновилась модель проекта “Классификатор”;
  • обновился venv.zip для Умного OCR.

Машина сервера

  1. Скачайте на машину сервера обновленные образы его компонентов:

    КомпонентСтарое имя образаНовое имя образаИмя файла
    Apiserver_api:latestprimo-rpa/ai-server-api:1.25.4.1distr/ai-server-api.tar
    Api.Logsserver_logs:latestprimo-rpa/ai-server-logs:1.25.4.1distr/ai-server-logs.tar
    Api.Authserver_auth:latestprimo-rpa/ai-server-auth:1.25.4.1distr/ai-server-auth.tar
    Api.Inferenceserver_inference:latestprimo-rpa/ai-server-inference:1.25.4.1distr/ai-server-inference.tar
  2. Загрузите обновленные образы:

    docker load -i /srv/samba/shared/install/distr/ai-server-api.tar && \ docker load -i /srv/samba/shared/install/distr/ai-server-logs.tar && \ docker load -i /srv/samba/shared/install/distr/ai-server-auth.tar && \ docker load -i /srv/samba/shared/install/distr/ai-server-inference.tar
  3. Обновите имена образов в файле /app/Primo.AI/Api/docker-compose.yaml — старое и новое имя образа указаны в таблице выше.

  4. Укажите в конфигурации ссылку на документацию:

    sudo nano /app/Primo.AI/Api/volumes/conf/Api/appsettings.ProdLinux.json

    Раздел Documentation должен принять вид:

    "Documentation": { "TrainingMonitoringUrl": "https://docs.primo-rpa.ru/ru/primo-ai/user/smart-ocr/training/monitoring", "AgentsModelsUrl": "https://docs.primo-rpa.ru/ru/primo-ai/user/NLP/configuration#%D0%BE%D1%81%D0%BD%D0%BE%D0%B2%D0%BD%D1%8B%D0%B5-%D0%BF%D0%B0%D1%80%D0%B0%D0%BC%D0%B5%D1%82%D1%80%D1%8B" },
  5. Перезапустите компоненты Api:

    docker compose -f /app/Primo.AI/Api/docker-compose.yaml down && \ docker compose -f /app/Primo.AI/Api/docker-compose.yaml up -d
  6. Обновите сервис Api.MachineInfo, скачав файл Api.MachineInfo-linux.zip из каталога distr:

    sudo systemctl stop Primo.AI.Api.MachineInfo && \ sudo unzip -o /srv/samba/shared/install/distr/Api.MachineInfo-linux.zip -x appsettings* -d /app/Primo.AI/Api.MachineInfo/ && \ sudo systemctl start Primo.AI.Api.MachineInfo
  7. Обновите модель Классификатора, скачав файл 5ed5d6eb-d7c0-4d67-8433-0119d922f14c из каталога data/models/SmartOCR:

    sudo cp /srv/samba/shared/install/data/models/SmartOCR/5ed5d6eb-d7c0-4d67-8433-0119d922f14c /app/Primo.AI/Api/volumes/Api_Models/
  8. Скачайте при необходимости новые модели AI Текст — укажите вместо “xxxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx” имя файла модели из таблицы ниже:

    sudo cp /srv/samba/shared/install/data/models/NLP/xxxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx /app/Primo.AI/Api/volumes/Api_Models/

Таблица Новые модели в AI Текст

⚠️

Внимание! При необходимости обрабатывать изображения компонентом AI Текст рекомендуем использовать новую модель base-LLM-06 (Vllm, multimodal, 7B) вместо прежней (base-LLM-04).

Имя моделиLLM-ядроМультимодальностьИмя файлаИмя файла кэша
base-LLM-05 (llama-cpp-python, 27B)llama-cpp-pythonНетdata/models/NLP/f55425a0-87c8-4d9e-a4cd-abc56f96ab1ef55425a087c84d9ea4cdabc56f96ab1e
base-LLM-06 (Vllm, multimodal, 7B)vLLMДаdata/models/NLP/78e57e23-363c-4b1e-b4e2-36fb31da5b4878e57e23363c4b1eb4e236fb31da5b48
base-LLM-07 (Vllm, 8B)vLLMНетdata/models/NLP/e161b94d-3272-4afa-9aad-d191b61c67d3e161b94d32724afa9aadd191b61c67d3

Целевая машина Умного OCR

  1. Скачайте на целевую машину обновленный образ:

    КомпонентСтарое имя образаНовое имя образаИмя файла
    Целевая машина Умного OCRagent_ai:latestprimo-rpa/ai-server-smartocr:1.25.4.1distr/ai-server-smartocr.tar
  2. Загрузите обновленный образ:

    docker load -i /srv/samba/shared/install/distr/ai-server-smartocr.tar
  3. Обновите имя образа в файле /app/Primo.AI/SmartOCR/docker-compose.yaml — старое и новое имя образа указаны в таблице выше.

  4. Скачайте на целевую машину свежий архив с библиотеками venv.zip из каталога docker/agents/SmartOCR/volumes.

  5. Обновите библиотеки:

    sudo rm -r /app/Primo.AI/SmartOCR/volumes/IDP/lib/python3.11 && \ yes | sudo unzip /srv/samba/shared/install/docker/agents/SmartOCR/volumes/venv.zip -d /app/Primo.AI/SmartOCR/volumes/IDP/lib
  6. Перезапустите целевую машину Умного OCR:

    docker compose -f /app/Primo.AI/SmartOCR/docker-compose.yaml down && \ docker compose -f /app/Primo.AI/SmartOCR/docker-compose.yaml up -d
  7. Удалите кэш модели Классификатора:

    sudo rm /app/Primo.AI/SmartOCR/volumes/AgentData/Models/5ed5d6eb-d7c0-4d67-8433-0119d922f14c.zip

Целевая машина NLP

  1. Скачайте на целевую машину обновленный образ Logics-сервера:

    КомпонентСтарое имя образаНовое имя образаИмя файла
    Logics-серверlogics:latestprimo-rpa/ai-server-logics:1.25.4.1distr/ai-server-logics.tar
  2. Загрузите обновленный образ Logics-сервера:

    docker load -i /srv/samba/shared/install/distr/ai-server-logics.tar
  3. Обновите имя образа в файле /app/Primo.AI/Agent/appsettings.ProdLinux.json — старое и новое имя образа указаны в таблице выше.

  4. Скачайте на целевую машину обновленные образы LLM-ядра:

    LLM-ядроСтарое имя образаНовое имя образаИмя файла
    vLLM для GPUvllm/vllm-openai:latestprimo-rpa/ai-server-vllm-gpu:1.25.4.1distr/ai-server-vllm-gpu.tar
    vLLM для CPUvllm-cpu:latestprimo-rpa/ai-server-vllm-cpu:1.25.4.1distr/ai-server-vllm-cpu.tar
    Ollama-primo-rpa/ai-server-ollama:1.25.4.1distr/ai-server-ollama.tar
    ⚠️

    Внимание! Если вы использовали llama-cpp-python (ex Llama) и модель base-LLM-02 (Ollama, 8B) (ex base-LLM-02), то обратите внимание, что инференс модели теперь производится новым движком Ollama.

  5. Загрузите требуемые новые образы LLM-ядра, заменив “ai-server-xxxxxx.tar” на имя файла образа:

    docker load -i /srv/samba/shared/install/distr/ai-server-xxxxxx.tar
  6. Только для vLLM. Обновите имена образов в файле /app/Primo.AI/Agent.NlpEngine/appsettings.ProdLinux.json — старое и новое имя образа указаны в таблице выше.

  7. Только для Ollama. Добавьте недостающие ключи конфигурации:

    • Ключ Ollama в NlpProcess > HealthCheck файла конфигурации /app/Primo.AI/Agent.NlpEngine/appsettings.ProdLinux.json:
    "Ollama": { "Url": "http://localhost:8004/v1/models", "TimeoutSeconds": 120, "PeriodMilliseconds": 500 },
    • Ключ Ollama в NlpProcess > EnginesDockerRun файла конфигурации /app/Primo.AI/Agent.NlpEngine/appsettings.ProdLinux.json:
    "Ollama": { "ImageName": "primo-rpa/ai-server-ollama:1.25.4.1", "ContainerName": "ollama", "Port": 8004, "Subnet": "agent_ai", "PostRunCommands": [ "ln {modelFilePath} {blobFilePath}", "ollama create {modelId} -f {modelMetaFilePath}", "ollama run {modelId}" ] },
    • Ключ Ollama в NlpProcess > Engines файла конфигурации /app/Primo.AI/Agent/appsettings.ProdLinux.json:
    "Ollama": { "Host": "ollama", // Находится в единой подсети с logics-сервером, поэтому доступен по имени контейнера "Port": 8004 },
  8. Удалите кэш обновленных моделей, заменив “xxxxxxxxxxxxxxxxxxxxxxxxxxx” на имя файла кэша модели из таблицы Новые модели AI Текст:

    sudo rm /app/Primo.AI/Agent.NlpEngineData/ModelTemplates/xxxxxxxxxxxxxxxxxxxxxxxxxxx
  9. Обновите агента Logics-сервера, скачав файл Agent-linux.zip из каталога distr:

    sudo systemctl stop Primo.AI.Agent && \ sudo unzip -o /srv/samba/shared/install/distr/Agent-linux.zip -x appsettings* -d /app/Primo.AI/Agent/ && \ sudo systemctl start Primo.AI.Agent
  10. Обновите агента LLM-ядра, скачав файл Agent.NlpEngine-linux.zip из каталога distr:

    sudo systemctl stop Primo.AI.Agent.NlpEngine && \ sudo unzip -o /srv/samba/shared/install/distr/Agent.NlpEngine-linux.zip -x appsettings* -d /app/Primo.AI/Agent.NlpEngine/ && \ sudo systemctl start Primo.AI.Agent.NlpEngine