Skip to Content

Установка агента LLM-ядра

Файлы из комплекта поставки

Скопируйте на целевую машину файлы, приведенные в таблице ниже — они находятся в комплекте поставки Primo RPA AI Server.

ФайлОписание
distr/Agent.NlpEngine-linux.zipДистрибутив агента LLM-ядра

Установка агента

Установка и настройка агента

Разверните файлы агента на целевой машине.

sudo mkdir -p /app/Primo.AI /app/Primo.AI/Agent.NlpEngine /app/Primo.AI/Agent.NlpEngineData
sudo unzip distr/Agent.NlpEngine-linux.zip -d /app/Primo.AI/Agent.NlpEngine
sudo chmod -R 771 /app/Primo.AI/Agent.NlpEngine /app/Primo.AI/Agent.NlpEngineData
sudo chown -R agent:primo-ai /app/Primo.AI/Agent.NlpEngine /app/Primo.AI/Agent.NlpEngineData

Установите агент как службу и настройте автозапуск:

sudo cp /app/Primo.AI/Agent.NlpEngine/Primo.AI.Agent.NlpEngine.service /etc/systemd/system/
sudo systemctl daemon-reload
sudo systemctl enable /etc/systemd/system/Primo.AI.Agent.NlpEngine.service

Настройте сервис, скорректировав конфигурационный файл /app/Primo.AI/Agent.NlpEngine/appsettings.ProdLinux.json.

  • Обязательно установите адрес Primo.AI.Api и его компонентов – XxxxxxxBaseUrl, заменив https://XXXXXXXXXXXXXXXXX:44392 на доступный из Целевой машины эндпоинт AI Server:
sudo sed -i 's|https://primo-rpa-ai-server:44392|https://XXXXXXXXXXXXXXXXX:44392|g' /app/Primo.AI/Agent.NlpEngine/appsettings.ProdLinux.json
  • Для GPU измените имя образа vLLM в ключе NlpProcess > EnginesDockerRun > Vllm:
"EnginesDockerRun": { "Vllm": { "ImageName": "primo-rpa/ai-server-vllm-gpu", // вместо "primo-rpa/ai-server-vllm-cpu" "ContainerName": "vllm", "Port": 8000, "Subnet": "agent_agent_ai" }, }
sudo sed -i 's|"ImageName": "primo-rpa/ai-server-vllm-cpu"|"ImageName": "primo-rpa/ai-server-vllm-gpu"|g' /app/Primo.AI/Agent.NlpEngine/appsettings.ProdLinux.json

Запустите службы:

sudo systemctl start Primo.AI.Agent.NlpEngine

Проверьте статус службы:

sudo systemctl status Primo.AI.Agent.NlpEngine

Просмотрите журнал службы:

sudo journalctl -u Primo.AI.Agent.NlpEngine

Настройка SELinux

Проверьте, включен ли SELinux в системе командой sestatus. Если включен, измените контекст исполняемого файла агента:

sudo chcon -t bin_t /app/Primo.AI/Agent.NlpEngine/Primo.AI.Agent.NlpEngine

Что дальше

Выполните установку LLM-ядра на текущей машине.