Sovereign AI Platform

Bauen Sie compliante KI. Auf dänischem Boden.

Ihre eigene private KI-Umgebung auf Dänemarks stärkstem Supercomputer. 27 LLMs, Orchestrierung, Compliance — der gesamte Stack bereit ab Tag eins.

1.528 H100 GPUs 27 LLMs 0 Daten-Egress 100% DK

Das Fundament

Souveräne KI. Ohne Kompromisse.

Sie erhalten Souveränität, Performance und Compliance — gleichzeitig. Ein Abonnement, der ganze Stack.

Wert 01

Daten bleiben in Dänemark

Full-Stack auf dänischem Boden — von GPU bis Application.

  • Air-gapped DK-Rechenzentrum.
  • CLOUD Act findet keine Anwendung.
  • Voller Audit-Trail + ISAE 3000-bereit.

Wert 02

Die Plattform, bereit

Orchestrierung, Modelle, Compliance — alles out of the box.

  • 27+ LLMs + dynamisches Routing.
  • 14 Tage von Signatur bis Produktion.
  • Kein CAPEX — nur Abonnement.

Wert 03

Ihre KI. Ihre Kontrolle.

Multi-Model. Custom Deployment. Exit-ready.

  • Frei zwischen 27+ Open-Source LLMs wechseln.
  • Ihre eigenen fine-tuned Modelle deployen.
  • Zero-Training Policy. Ihre Daten werden nie zu Trainingsdaten.

Das Fundament

Sieben Schichten. Ein Stack. Sovereign by Design.

Von GPU bis Application. Wir liefern das Fundament. Sie bauen den Wert.

Applikationen auf dem Stack — klinische Tools, Research-Plattformen, Analytics-Dashboards.

Sie erhalten

  • Multi-Tenant API für Ihre Apps
  • Authentifizierung und rollenbasierter Zugriff
  • SDKs für Python, Node, Go
  • Observability: Latenz, Tokens, Fehler pro App
Alle liefern Apps — nicht das Fundament darunter.

Dynamische Modell-Auswahl, Queue-Management und Load Balancing. Sie senden einen Prompt — wir wählen Modell und GPU.

Sie erhalten

  • Routing-Engine mit Regeln pro Task-Typ
  • Load Balancer über GPU-Knoten
  • Model Selector nach Latenz-Vorgaben
  • Workload Manager mit Priority Queues
  • Fallback-Strategien bei Modell-Fehlern
AWS/Azure liefern es nicht. Sie bauen selbst.

27+ Open-Source LLMs integriert und GPU-optimiert. Eigene Fine-Tunes laufen nebenher.

Sie erhalten

  • Llama 3 (8B, 70B), Mistral (7B, 8x22B), Mixtral 8x7B
  • Gemma 2, Qwen 2.5, Phi-3, DeepSeek (Opt-in)
  • Custom Model Deployment mit vLLM
  • Zero-Training Policy: Ihre Daten verlassen nie den Stack
OpenAI = 1 Modell. Azure = 1 Anbieter. Bedrock = Lock-in.

Vektor-Datenbanken für RAG, Object Storage für Dokumente und ein unveränderliches Audit-Ledger pro Prompt.

Sie erhalten

  • Milvus oder pgvector — Sie wählen
  • S3-kompatibler Object Storage (MinIO)
  • SHA-256 signiertes Audit-Ledger pro Call
  • K-Anonymity in allen Logs
Keine Audit-Trail in Public Cloud.

Alle Runtime-Infrastruktur vorinstalliert und gewartet. Kein yum, apt oder Treiber-Chaos.

Sie erhalten

  • Kubernetes mit GPU-aware Scheduler
  • NVIDIA CUDA + CuDNN in kompatiblen Versionen
  • vLLM für High-Throughput Inference
  • PyTorch + TensorFlow einsatzbereit
Sonst installieren und betreiben Sie alles selbst.

Dedizierte Compute-Kapazität auf NVIDIA DGX H100-Knoten. InfiniBand zwischen Knoten, keine Überbuchung.

Sie erhalten

  • Dedizierte H100 GPUs (nicht geteilt)
  • InfiniBand 400 Gb/s zwischen Knoten
  • GPU-Scheduling pro Partition
  • Multi-Node Training Support
Public Cloud teilt GPUs. Keine dedizierte Zuteilung.

Physische Hardware in dänischem Rechenzentrum. Air-gapped vom Public Internet. Grüne Energie.

Sie erhalten

  • 191 NVIDIA DGX H100-Knoten auf GEFION
  • 1.528 H100 Tensor Core GPUs insgesamt
  • Air-gapped — kein Public Internet
  • Erneuerbare Energie (Green Power)
  • ISAE 3000-auditiertes Rechenzentrum
AWS/Azure haben nichts in DK mit diesen Specs.

Gegenüber dem Markt

Die Wahl ist einfach.

Souveränität, Sicherheit, Performance, Vendor-Freiheit — gleichzeitig.

Kriterium People's Lab AWS Bedrock Azure OpenAI Claude API GEFION direkt
EU / DK Jurisdiktion
Multi-Model Support
Data Residency garantiert
Custom Model Deployment
Zero-Training Policy
Audit-Trail eingebaut
Private Deployment
Dänisches Hosting
Full-Stack (nicht nur Compute)
Ohne Vendor Lock-in

Zielgruppen

Gebaut für die, die keine Kompromisse machen.

Consultancies

Beratungen und Digital-Advisors

Pains

  • Sie bauen Lösungen, deren Infrastruktur Sie nicht besitzen wollen
  • Kunden fordern EU-Souveränität
  • Vendor Lock-in bei AWS/Azure schadet Ihrer Flexibilität

Gains

  • Whitelabel-Partition für Kunden
  • Fokus auf Wert-Layer: Advisory und Integration
  • Premium-Position als souveräne Alternative

Eine Consultancy betreibt fünf Kundenlösungen auf derselben Partition. Jeder Kunde hat eigene logische Tenancy. Die Consultancy hält die Kunden-Beziehung; wir liefern den Stack.

Regulated

Bank, Versicherung, Pharma, Verteidigung, öffentlicher Sektor

Pains

  • Dürfen keine Public Cloud für regulierte Daten nutzen
  • Eigenes Rechenzentrum kostet 7 Mio. €+ CAPEX
  • Keine Compliance-ready KI-Plattform in der EU

Gains

  • DK-Hosting mit Audit-Trail ab Tag 1
  • ISAE 3000-ready von Anfang an
  • 12 Monate Umsetzung überspringen

Eine dänische Bank betreibt Kredit-Risiko-Modelle auf privater Partition. Daten verlassen nie DK. EU AI Act-Compliance dokumentiert im Audit-Ledger.

Vertical SaaS

EPA-Anbieter, Banking-Software, Gov-Tech

Pains

  • Kunden fordern Souveränität; Sie wollen keine Compute betreiben
  • OpenAI-API zehrt Margen auf
  • Vendor Lock-in schadet Ihrem Exit

Gains

  • Multi-LLM ins Produkt einbetten
  • Stabile Preise, planbare Margen
  • Multi-Model-Freiheit ohne Lock-in

Ein EPA-Anbieter bettet einen KI-Journal-Assistenten ins Produkt ein. Die Klinik-Kunden sehen People's Lab als Hosting-Partner — Compliance ist gelöst.

Multi-Model

Eine Partition. 27 Modelle. Null Lock-in.

Jeder Task erhält das passende Modell. Wir routen. Sie bauen.

Das richtige Modell pro Task. Ohne manuelle Auswahl.

Klassifikation, Zusammenfassung, Code-Generierung und lange RAG-Abfragen haben verschiedene Optima. Ein 7B-Modell für Klassifikation, ein 70B für Reasoning, ein Custom Fine-Tune für Ihre Domäne.

Unsere Routing-Engine liest den Task-Typ und wählt das Modell. Sie schreiben einen Prompt. Wir orchestrieren Compute, Model Selection und Failover.

Onboarding

Von Unterschrift bis Produktion in zwei Wochen.

1

Sign

DPA und Tier-Auswahl online.

Selber Tag
2

Bereit

Compute, API-Key und Dashboard.

24 Stunden
3

Produktion

Dediziertes Onboarding.

2 Wochen

Sicherheit

Daten bleiben in Dänemark.

Ihr Prompt aus Ihrer App VPN TUNNEL DK PERIMETER — AIR-GAPPED GEFION H100 Compute LLM routed model Antwort audit-signiert VPN TUNNEL — zurück
Außerhalb des Perimeters: USA Ireland Frankfurt Public Internet — keine ausgehenden Verbindungen.
DSGVO-konformDokumentiert in jeder Audit-Zeile
ISAE 3000-auditiertUnabhängige Prüfung durch Dritte
EU AI Act 2027-readyAudit-Trail und Modell-Governance vorhanden
Air-gappedKeine Verbindung zum Public Internet

Fragen

Typisch von technischen Entscheidern.

Shared läuft auf geteilter GPU-Kapazität mit Fair Scheduling — gut für PoC und Entwicklung. Dedicated bietet garantierte H100-Zuteilung mit 99,5 % SLA und planbarer Latenz — für Produktion mit geschäftskritischen Workloads.

Ja. Wir hosten Gewichte in Hugging Face-, GGUF- und safetensors-Format, bereitgestellt über vLLM. Custom Model Deployment ist in Dedicated und höher enthalten. Wir prüfen Kompatibilität vor Go-Live.

Reines OPEX. Monatliches Abo auf Ihre Partition, 12 Monate Vertrag. Keine Hardware-Investition. Token-Verbrauch über dem inkludierten Volumen wird als Overage abgerechnet — transparent und pro Modell.

Alle. Prompts, Antworten, Embeddings, Vektor-Indexe, Audit-Logs und Modell-Gewichte liegen auf GEFION in Dänemark. Nichts verlässt den Perimeter. Air-gapped vom Public Internet.

Ja. Der Shared-Tier hat einen Gratis-Test mit 10M Tokens inklusive. Sie erhalten am selben Tag einen API-Key und können gegen alle 27 LLMs laufen lassen. PoC läuft auf Shared und migriert ohne Code-Änderungen zu Dedicated.

Unsere DPA ist Baseline-DSGVO mit explizit definierten Auftragsverarbeiter-Rollen. Der ISAE 3000 Typ II-Report wird für Private Cloud und Enterprise bereitgestellt — er deckt Zugriffs-Kontrollen, Logging, Change Management und Sub-Processors ab.

Ihr Team über API-Keys. Unser SRE-Team hat Break-Glass-Zugriff — pro Nutzung im Audit-Ledger dokumentiert. Keine Dritten. Kein US-Mutterkonzern. Zero-Training Policy: Ihre Prompts werden nie zu Trainingsdaten.

Ja — der Enterprise-Tier umfasst On-Prem Deployment. Wir liefern denselben Stack als Appliance oder Air-gapped Deployment in Ihrem Rechenzentrum. Verteidigung und öffentlicher Sektor mit Classified Workloads laufen typischerweise hier.

Wenn Sie bereit sind

KI für Gesundheit, Bank oder Verteidigung — ohne Daten aus Dänemark zu verschieben.