Установка агента LLM-ядра
Файлы из комплекта поставки
Скопируйте на целевую машину файлы, приведенные в таблице ниже — они находятся в комплекте поставки Primo RPA AI Server.
| Файл | Описание |
|---|---|
distr/Agent.NlpEngine-linux.zip | Дистрибутив агента LLM-ядра |
Установка агента
Установка и настройка агента
Разверните файлы агента на целевой машине.
sudo mkdir -p /app/Primo.AI /app/Primo.AI/Agent.NlpEngine /app/Primo.AI/Agent.NlpEngineDatasudo unzip distr/Agent.NlpEngine-linux.zip -d /app/Primo.AI/Agent.NlpEnginesudo chmod -R 771 /app/Primo.AI/Agent.NlpEngine /app/Primo.AI/Agent.NlpEngineDatasudo chown -R agent:primo-ai /app/Primo.AI/Agent.NlpEngine /app/Primo.AI/Agent.NlpEngineDataУстановите агент как службу и настройте автозапуск:
sudo cp /app/Primo.AI/Agent.NlpEngine/Primo.AI.Agent.NlpEngine.service /etc/systemd/system/sudo systemctl daemon-reloadsudo systemctl enable /etc/systemd/system/Primo.AI.Agent.NlpEngine.serviceНастройте сервис, скорректировав конфигурационный файл /app/Primo.AI/Agent.NlpEngine/appsettings.ProdLinux.json.
- Обязательно установите адрес Primo.AI.Api и его компонентов –
XxxxxxxBaseUrl, заменивhttps://XXXXXXXXXXXXXXXXX:44392на доступный из Целевой машины эндпоинт AI Server:
sudo sed -i 's|https://primo-rpa-ai-server:44392|https://XXXXXXXXXXXXXXXXX:44392|g' /app/Primo.AI/Agent.NlpEngine/appsettings.ProdLinux.json- Для GPU измените имя образа vLLM в ключе NlpProcess > EnginesDockerRun > Vllm:
"EnginesDockerRun": {
"Vllm": {
"ImageName": "primo-rpa/ai-server-vllm-gpu", // вместо "primo-rpa/ai-server-vllm-cpu"
"ContainerName": "vllm",
"Port": 8000,
"Subnet": "agent_agent_ai"
},
}sudo sed -i 's|"ImageName": "primo-rpa/ai-server-vllm-cpu"|"ImageName": "primo-rpa/ai-server-vllm-gpu"|g' /app/Primo.AI/Agent.NlpEngine/appsettings.ProdLinux.jsonЗапустите службы:
sudo systemctl start Primo.AI.Agent.NlpEngineПроверьте статус службы:
sudo systemctl status Primo.AI.Agent.NlpEngineПросмотрите журнал службы:
sudo journalctl -u Primo.AI.Agent.NlpEngineНастройка SELinux
Проверьте, включен ли SELinux в системе командой sestatus. Если включен, измените контекст исполняемого файла агента:
sudo chcon -t bin_t /app/Primo.AI/Agent.NlpEngine/Primo.AI.Agent.NlpEngineЧто дальше
Выполните установку LLM-ядра на текущей машине.