Sovereign AI Platform

Bygg compliant AI. På dansk jord.

Få deres eget private AI-miljø på Danmarks sterkeste superdatamaskin. 27 LLM-er, orkestrering, compliance — hele stacken klar fra dag én.

1 528 H100 GPU-er 27 LLM-er 0 data-egress 100 % DK

Fundamentet

Suveren AI. Uten kompromisser.

Dere får suverenitet, ytelse og compliance — samtidig. Ett abonnement, hele stacken.

Verdi 01

Data blir i Danmark

Full stack på dansk jord — fra GPU til application.

  • Air-gapped DK-datasenter.
  • CLOUD Act gjelder ikke.
  • Full audit-trail + ISAE 3000-klar.

Verdi 02

Plattformen, klar

Orkestrering, modeller, compliance — alt ut av boksen.

  • 27+ LLM-er + dynamisk routing.
  • 14 dager fra signatur til produksjon.
  • Ingen CAPEX — kun abonnement.

Verdi 03

Deres AI. Deres kontroll.

Multi-model. Custom deployment. Exit-ready.

  • Bytt fritt mellom 27+ open-source LLM-er.
  • Deploy deres egne fine-tunede modeller.
  • Zero-training policy. Data blir aldri treningsdata.

Fundamentet

Syv lag. Én stack. Sovereign by design.

Fra GPU til application. Vi gir fundamentet. Dere bygger verdien.

Applikasjoner dere bygger oppå stacken — kliniske verktøy, research-plattformer, analyse-dashboards.

Dere får

  • Multi-tenant API til appene deres
  • Autentisering og rollebasert tilgang
  • SDK-er for Python, Node, Go
  • Observability: latency, tokens, feil pr. app
Alle leverer noen apper — men ikke fundamentet under.

Dynamisk modell-valg, kø-håndtering og load balancing. Dere sender én prompt — vi velger rett modell og GPU.

Dere får

  • Routing Engine med regler pr. task-type
  • Load balancer på tvers av GPU-noder
  • Model Selector basert på latency-krav
  • Workload Manager med priority queues
  • Fallback-strategier ved modell-feil
AWS/Azure leverer det ikke. Dere bygger selv.

27+ åpen kildekode-LLM-er integrert og GPU-optimalisert. Deploy egne fine-tunede modeller ved siden av.

Dere får

  • Llama 3 (8B, 70B), Mistral (7B, 8x22B), Mixtral 8x7B
  • Gemma 2, Qwen 2.5, Phi-3, DeepSeek (opt-in)
  • Custom model deployment med vLLM
  • Zero-training policy: data forlater aldri stacken
OpenAI = 1 modell. Azure = 1 leverandør. Bedrock = lock-in.

Vektor-databaser for RAG, object storage for dokumenter og et uforanderlig audit-ledger pr. prompt.

Dere får

  • Milvus eller pgvector — dere velger
  • S3-kompatibel object storage (MinIO)
  • SHA-256 signert audit-ledger pr. kall
  • K-anonymity i alle logger
Ingen audit-trail i public cloud.

All runtime-infrastruktur preinstallert og vedlikeholdt. Ingen yum, apt eller driver-helvete.

Dere får

  • Kubernetes med GPU-aware scheduler
  • NVIDIA CUDA + CuDNN i kompatible versjoner
  • vLLM for high-throughput inference
  • PyTorch + TensorFlow klar til bruk
Ellers må dere selv installere og drifte.

Dedikert compute på NVIDIA DGX H100-noder. InfiniBand mellom noder, ingen overbooking.

Dere får

  • Dedikerte H100 GPU-er (ikke delt)
  • InfiniBand 400 Gb/s mellom noder
  • GPU-scheduling pr. partisjon
  • Multi-node training support
Public cloud deler GPU-er. Ingen dedikert.

Fysisk hardware i dansk datasenter. Air-gapped fra public internet. Grønn strøm.

Dere får

  • 191 NVIDIA DGX H100-noder på GEFION
  • 1 528 H100 Tensor Core GPU-er totalt
  • Air-gapped — ingen public internet
  • Fornybar energi (green power)
  • ISAE 3000-auditert datasenter
AWS/Azure har ingenting i DK med disse specs.

Mot konkurrenten

Valget er enkelt.

Suverenitet, sikkerhet, ytelse, vendor-frihet — samtidig.

Kriterium People's Lab AWS Bedrock Azure OpenAI Claude API GEFION direkte
EU / DK jurisdiksjon
Multi-model support
Data residency garantert
Custom model deployment
Zero-training policy
Audit-trail innebygget
Private deployment
Dansk hosting
Full-stack (ikke bare compute)
Uten vendor lock-in

Målgrupper

Bygget for de som ikke kan gå på kompromiss.

Consultancies

Konsulenthus og digital-rådgivere

Pains

  • Dere bygger løsninger dere ikke vil eie infrastruktur bak
  • Klienter krever EU-suverenitet
  • Vendor lock-in i AWS/Azure skader fleksibiliteten deres

Gains

  • Whitelabel-partisjon til klienter
  • Fokusér på verdi-laget: advisory og integrasjon
  • Premium-posisjon som suverent alternativ

En consultancy bygger fem kundeløsninger på samme partisjon. Hver klient har egen logisk tenancy. Consultancy eier kundeforholdet, vi leverer stacken.

Regulated

Bank, forsikring, pharma, forsvar, offentlig sektor

Pains

  • Kan ikke bruke public cloud for regulert data
  • Eget datasenter koster 50M+ kr CAPEX
  • Ingen compliance-ready AI-plattform i EU

Gains

  • DK-hosting med audit-trail fra dag 1
  • ISAE 3000-ready fra start
  • Hopp over 12 måneders implementering

En dansk bank kjører kreditt-risiko-modeller på privat partisjon. Data forlater aldri DK. EU AI Act-compliance dokumentert i audit-ledger.

Vertical SaaS

EPJ-leverandører, bank-software, gov-tech

Pains

  • Kunder krever suverenitet, dere vil ikke drifte compute
  • OpenAI-API tapper marginer
  • Vendor lock-in skader exit-en deres

Gains

  • Bygg multi-LLM inn i produktet deres
  • Stabile priser, forutsigbare marginer
  • Multi-model frihet uten lock-in

En EPJ-leverandør bygger en AI-journal-assistent inn i produktet. Klinikk-kundene ser People's Lab som hosting-partner — compliance er avklart.

Multi-model

Én partisjon. 27 modeller. Null lock-in.

Hver task får rett modell. Vi router. Dere bygger.

Rett modell pr. task. Uten manuelt valg.

Klassifikasjon, oppsummering, kode-generering og lange RAG-spørringer har forskjellige optima. En 7B-modell til klassifikasjon, en 70B til reasoning, en custom fine-tune til domenet deres.

Routing-motoren leser task-typen og velger modellen. Dere skriver én prompt. Vi orkestrerer compute, model-selection og failover.

Onboarding

Fra signatur til produksjon på to uker.

1

Sign

DPA og tier-valg på nett.

Samme dag
2

Klar

Compute, API-key og dashboard.

24 timer
3

Produksjon

Dedikert onboarding-support.

2 uker

Sikkerhet

Data forblir i Danmark.

Prompt fra appen VPN TUNNEL DK PERIMETER — AIR-GAPPED GEFION H100 compute LLM routed model Respons audit-signert VPN TUNNEL — retur
Utenfor perimeter: USA Ireland Frankfurt Public internet — ingen utgående forbindelser.
GDPR-compliantDokumentert i hver audit-linje
ISAE 3000-auditertUavhengig tredjeparts-revisjon
EU AI Act 2027-readyAudit-trail og modell-governance klart
Air-gappedIngen forbindelse til public internet

Spørsmål

Typisk fra tekniske beslutningstakere.

Shared kjører på delt GPU-kapasitet med fair scheduling — bra for PoC og utvikling. Dedicated gir garantert H100-allokering med 99,5 % SLA og forutsigbar latency — for produksjon med forretningskritiske workloads.

Ja. Vi hoster vekter i Hugging Face-, GGUF- og safetensors-format, levert via vLLM. Custom model deployment er inkludert i Dedicated og oppover. Vi validerer kompatibilitet før go-live.

Ren OPEX. Månedlig abonnement på partisjonen, 12 måneders kontrakt. Ingen hardware-investering. Token-forbruk over inkludert volum faktureres som overage — transparent og pr. modell.

Alle. Prompts, responses, embeddings, vektor-indekser, audit-logger og modell-vekter ligger på GEFION i Danmark. Ingenting forlater perimeteret. Air-gapped fra public internet.

Ja. Shared tier har gratis prøveperiode med 10M tokens inkludert. Dere får API-key samme dag og kan kjøre mot alle 27 LLM-er. PoC kjører på Shared, migreres til Dedicated uten kode-endringer.

Vår DPA er baseline-GDPR med databehandler-roller eksplisitt definert. ISAE 3000 Type II-erklæring utleveres til Private Cloud og Enterprise — den dekker tilgangskontroller, logging, change management og sub-processors.

Teamet deres via API-keys. SRE-teamet vårt har break-glass-tilgang — dokumentert i audit-ledger ved hver bruk. Ingen tredjeparter. Ingen US-parent. Zero-training policy: prompts blir aldri treningsdata.

Ja — Enterprise tier inkluderer on-prem deployment. Vi leverer samme stack som appliance eller air-gapped deployment i datasenteret deres. Forsvar og offentlig sektor med classified workloads kjører typisk her.

Når dere er klare

Bygg helsens, bankens eller forsvarets AI — uten å flytte data ut av Danmark.