Technologie & Systemanforderungen
Technische Spezifikationen und Sicherheitsarchitektur von LokalKI.
Datenfluss – 100% lokal
Ihre Daten
→
LokalKI Server
↔
Mitarbeiter
✕
Kein Cloud-Datentransfer
Technische Spezifikationen
| Anforderung | Details |
|---|---|
| Docker | Container-basierte Bereitstellung, Docker Compose |
| Linux Support | Ubuntu 20.04+, Debian 11+, RHEL 8+ |
| NVIDIA GPU | Empfohlen für LLM-Inferenz (CUDA 11.8+) |
Systemanforderungen
Docker-Unterstützung
LokalKI wird als Docker-Container ausgeliefert. Vollständige Orchestrierung über Docker bzw. Docker Compose. Einfache Bereitstellung ohne komplexe Abhängigkeiten.
Hardware-Empfehlung
- NVIDIA GPU empfohlen (für optimale Inferenz-Performance)
- 16 GB RAM minimal (32 GB für größere Modelle empfohlen)
- Ausreichend Festplattenspeicher für Vektordatenbank und Dokumentenindex
Sicherheitsarchitektur
Air-gapped fähig
LokalKI kann in einer vollständig vom Internet getrennten Umgebung betrieben werden. Keine Abhängigkeit von externen Diensten – ideal für hochsensible Umgebungen.
Keine externen API-Aufrufe
Alle KI-Inferenzen erfolgen lokal. Keine Daten werden an OpenAI, Anthropic oder andere Cloud-Anbieter gesendet. Volle DSGVO-Konformität.
Lokale Vektordatenbank
Dokumentenembeddings und RAG-Indizes werden ausschließlich auf Ihren Servern gespeichert. Keine Cloud-Speicher, keine Drittanbieter-Infrastruktur.