Zurück

Technologie & Systemanforderungen

Technische Spezifikationen und Sicherheitsarchitektur von LokalKI.

Datenfluss – 100% lokal

Ihre Daten
LokalKI Server
Mitarbeiter

Kein Cloud-Datentransfer

Technische Spezifikationen

AnforderungDetails
DockerContainer-basierte Bereitstellung, Docker Compose
Linux SupportUbuntu 20.04+, Debian 11+, RHEL 8+
NVIDIA GPUEmpfohlen für LLM-Inferenz (CUDA 11.8+)

Systemanforderungen

Docker-Unterstützung

LokalKI wird als Docker-Container ausgeliefert. Vollständige Orchestrierung über Docker bzw. Docker Compose. Einfache Bereitstellung ohne komplexe Abhängigkeiten.

Hardware-Empfehlung

  • NVIDIA GPU empfohlen (für optimale Inferenz-Performance)
  • 16 GB RAM minimal (32 GB für größere Modelle empfohlen)
  • Ausreichend Festplattenspeicher für Vektordatenbank und Dokumentenindex

Sicherheitsarchitektur

Air-gapped fähig

LokalKI kann in einer vollständig vom Internet getrennten Umgebung betrieben werden. Keine Abhängigkeit von externen Diensten – ideal für hochsensible Umgebungen.

Keine externen API-Aufrufe

Alle KI-Inferenzen erfolgen lokal. Keine Daten werden an OpenAI, Anthropic oder andere Cloud-Anbieter gesendet. Volle DSGVO-Konformität.

Lokale Vektordatenbank

Dokumentenembeddings und RAG-Indizes werden ausschließlich auf Ihren Servern gespeichert. Keine Cloud-Speicher, keine Drittanbieter-Infrastruktur.

Demo anfordern