# Prisma Platform MVP Минимальный чат-агент на Agno + Ollama с рантаймом AgentOS. В этом проекте AgentOS работает как HTTP API сервер (FastAPI + Uvicorn). ## Текущая структура ```text prisma_platform/ ├── .env ├── .env.example ├── requirements.txt └── src/ ├── __init__.py ├── agent_os.py ├── agent_runner.py ├── main.py └── observability.py ``` ## Установка ```bash python -m venv .venv source .venv/bin/activate pip install -r requirements.txt cp .env.example .env ``` ## Запуск Интерактивный режим чата: ```bash python -m src.main ``` Режим одного сообщения: ```bash python -m src.main --message "Привет, что ты умеешь?" ``` ## Запуск AgentOS Запуск сервера AgentOS: ```bash python -m src.agent_os ``` По умолчанию AgentOS работает на `http://127.0.0.1:7777`. Документация API доступна по адресам: - `http://127.0.0.1:7777/docs` - `http://127.0.0.1:7777/redoc` ## Переменные окружения Основные переменные: - `AGENT_ID` (по умолчанию: `prisma-agent`) - `OLLAMA_MODEL_ID` (по умолчанию: `gemma4:31b`) - `OLLAMA_HOST` (по умолчанию: `http://localhost:11435`) - `OLLAMA_TEMPERATURE` (по умолчанию: `0`) - `AGENT_MARKDOWN` (по умолчанию: `false`) - `AGENT_DEBUG_MODE` (по умолчанию: `true`) - `AGENT_INSTRUCTIONS` (по умолчанию: `You are a helpful assistant. Answer briefly and clearly.`) - `AGENT_OS_HOST` (по умолчанию: `127.0.0.1`) - `AGENT_OS_PORT` (по умолчанию: `7777`) - `PHOENIX_TRACING_ENABLED` (по умолчанию: `false`) - `PHOENIX_COLLECTOR_ENDPOINT` (по умолчанию: `http://localhost:6006`) - `PHOENIX_PROJECT_NAME` (по умолчанию: `prisma-platform`) ## Phoenix трассировка (локально) 1. Установите зависимости: ```bash pip install -r requirements.txt ``` 2. Поднимите Phoenix (см. `docker-service/docker-compose.yml`) и включите трассировку в `.env`: ```dotenv PHOENIX_TRACING_ENABLED=true PHOENIX_COLLECTOR_ENDPOINT=http://localhost:6006 PHOENIX_PROJECT_NAME=prisma-platform ``` 3. Запустите приложение как обычно (`python -m src.main` или `python -m src.agent_os`).