make up
– Sobe tudo (Ollama + UI)make down
– Derrubamake restart
– Reiniciamake status
– Mostra statusmake logs
– Logs em tempo real
- WebUI: http://localhost:3000
- API Ollama: http://localhost:11434
git clone llm-server cd llm-server make up
- Docker instalado
- nvidia-container-toolkit configurado (se for usar GPU)
watch -n1 nvidia-smi
curl http://localhost:11434/api/generate -d '{
"model": "mistral",
"prompt": "Explique o que é aprendizado por reforço.",
"stream": false
}'