Zum Inhalt

On-Prem KI (Ollama)

Die Suite unterstützt einen On-Prem KI-Modus über Ollama, das lokal läuft.

Konfiguration

In ai_compliance_suite.config.json:

{
  "ai": {
    "provider": "on_prem",
    "on_prem": {
      "base_url": "http://127.0.0.1:11434",
      "model": "llama3.1:latest",
      "timeout_s": 60
    }
  }
}

Modell installieren

Beispiel:

ollama pull llama3.1:latest

Fehlerbehebung

  • Wenn keine Verbindung möglich ist:
  • Prüfen, ob Ollama läuft
  • base_url prüfen
  • Wenn das Modell fehlt:
  • mit ollama pull <model> installieren