AI-suverænitet bliver oftest diskuteret som et spørgsmål om data-residens. Den halvdel får opmærksomhed. Den anden halvdel — om det workflow, I bygger i dag, stadig kører næste kvartal — får den sjældent. Sådan tænker vi om begge hos umage, og sådan kører vi det i praksis.
I februar 2025 indførte den amerikanske regering sanktioner mod Den Internationale Straffedomstols chefanklager. I løbet af få dage mistede han ifølge flere medier adgangen til sin Microsoft 365-konto. E-mail, dokumenter, det hele.
Det er en suverænitetshistorie — men kun den ene slags. En ren kontinuitetshistorie. Intet var lækket. Intet var misbrugt. Tjenesten blev bare trukket tilbage.
Imens handler den suverænitetssamtale, de fleste compliance-teams allerede har, om det andet spørgsmål: hvor ligger jeres fortrolige data, og hvem kan se dem? Den bekymring er heller ikke paranoid. En amerikansk retsafgørelse i New York Times’ søgsmål tvang OpenAI til at gemme brugersamtaler, der ellers ville være blevet slettet — også fra betalende kunder. Hvis jeres team indsætter mødereferater, interne præsentationer, udkast til strategidokumenter eller uudgivne produktidéer i en chatbot, er det nu aktiver, der ligger på en andens harddisk af grunde, der intet har med jer at gøre.
Begge historier handler om suverænitet. Dataspørgsmålet får seriøs opmærksomhed. Kontinuitetsspørgsmålet gør det ofte ikke — før det bider.
Dette indlæg er, hvordan vi tænker om begge dele, og hvordan vi faktisk driver det hos umage.
To risici, ikke én
Den første risiko — hvor jeres data ligger, og hvem der kan se dem — er den, de fleste compliance-samtaler allerede tager alvorligt. At persondata siver ind i en modeltræningspipeline i en jurisdiktion, I ikke kan revidere, er en reel bekymring. At interne strategidokumenter ligger på infrastruktur, I ikke kan inspicere, er en reel bekymring. Vi tager begge dele alvorligt, og det gør de fleste af vores kunder også.
Den anden risiko er kontinuitet. Hvad sker der med jeres drift, hvis OpenAI ændrer sine vilkår, Anthropic udfaser den model, jeres agent afhænger af, Microsoft bliver fanget af et nyt sanktionsregime, eller en leverandør stille forsvinder fra jeres marked på grund af et embargo? I kan besvare alle dataspørgsmål perfekt og stadig være én leverandørbeslutning fra, at et forretningskritisk workflow ikke kører næste tirsdag.
Risiciene forstærker også hinanden. Den leverandør, I stolede på i dataspørgsmålet, kan blive en kontinuitetsrisiko fra den ene dag til den anden, og den kontinuitets-fallback, I griber fat i — “skift bare udbyder” — kan genintroducere det dataproblem, I troede var løst.
Løsningen er ikke at flytte alt lokalt. Løsningen er at være tydelige om begge risici og have fallbacks, som I faktisk selv kontrollerer, for de workflows der betyder noget.
Hvor det betyder noget — og hvor det ikke gør
Vi er ikke purister. Det meste af vores udvikling kører mod Claude Code, Codex og GitHub Copilot. Til det daglige udviklingsarbejde vinder den bedste tilgængelige model på den bedste tilgængelige infrastruktur hver gang. Vi ville være langsommere og dårligere uden.
Suverænitet dukker op tre specifikke steder:
Følsomme data. Kunde-IP, persondata, intern strategi. Hvis værst tænkelige eksponering er “det ender med at træne en model i en jurisdiktion, vi ikke kontrollerer”, holder vi det lokalt.
Forretningskritiske workflows. Hvis det virkelig ville gøre ondt, at et workflow stopper i morgen, får det en fallback, der ikke afhænger af nogen andens roadmap.
Planlagte, uovervågede agenter. Alt der kører natten over, på en cron eller i et langt loop. Overraskelser på per-token-priser og rate limits er fine, når et menneske kigger med. De er ikke fine kl. 3 om natten midt i et batch-job.
Alt andet er fair game for frontier-udbyderne. Suverænitet er ikke en religion. Det er et specifikt svar på specifikke spørgsmål.
I har ikke brug for en frontier-model
Den typiske antagelse er, at hvis I kører AI internt, får I en ringere ChatGPT. Det passer ikke.
For de fleste reelle opgaver — opsummering, ekstraktion, klassifikation, kodenavigation, et specifikt agent-loop — ligger en mindre, dedikeret model inden for få procentpoint af frontier-modellerne. Nogle gange er den hurtigere. Ofte er den mere forudsigelig. Altid er den jeres.
En 30B-model, der gør én ting godt, er som regel et bedre produktionsvalg end en 400B-generalist, der gør det samme og også kender hovedstaden i Burkina Faso. I ansætter ikke en quizmester. I kører et workload.
Sådan ser vores kit ud i praksis
Vi kører tre lokale rigs, dimensioneret til forskellige afvejninger.
- En desktop med 128 GB unified memory. Kører meget store modeller, langsomt. God til eksperimenter og enkeltstående dybe kørsler.
- En dedikeret AI-rig med to (snart tre) brugte Nvidia 3090’ere. Kører ~30B-modeller hurtigt, fordi VRAM’en er, hvor den skal være. Det er arbejdshesten.
- En backup-server med et indbygget mobilt grafikkort. Mindre modeller i et rimeligt tempo. Tager over, når de primære rigs er optaget.
Brugte GPU’er og lidt kølings-håndværk rækker langt. Den samlede hardwareregning er mindre end det, mange teams bruger på API-credits på en måned.
Oven i det læner vi os op ad en open source-stack, der i stilhed er blevet fremragende:
- Open WebUI — et lokalt alternativ til ChatGPT-webgrænsefladen, peget mod de modeller, vi har kørende. De fleste på teamet bruger den som daglig chatklient til intern brug.
- Vexa — mødetransskription og opsummering, helt lokalt. Vi vedligeholder et fork med et par ekstra features; værd at kigge på, hvis I vil have et setup, der er mindre fikset. En ordentlig gennemgang følger.
- Invoke AI og ComfyUI — billede-, video-, lyd- og musikgenerering. Alt det kreative, vi ellers skulle betale pr. kald for.
- Chunkhound — indeksering og semantisk søgning i store kodebaser. Gør lokale agenter brugbare på rigtige repoer i stedet for legetøjseksempler.
De workloads vi faktisk kører på det her kit:
- Træning af billedgenkendelse og den agentic motor til et kundeservice-system hos en kunde. Begge dele sidder på vores rigs, og vi kan genopbygge dem, hvis noget ændrer sig upstream.
- Natlige batch-jobs, hvor lokale agenter gennemgår hele websites for SEO, GEO, tilgængelighed, indholdskonsistens og PII-læk. Den slags arbejde, som ingen har lyst til at betale pr. token for i nogen skala, der betyder noget.
- Planlagte agenter, der producerer ugentlige opsummeringer af Optimizely-fællesskabets aktivitet og AI-verdenen bredere set. Lokal model, lokal cron, lokalt storage.
Intet af det er eksotisk. Delene har eksisteret i mere end et år. Det der er ændret er, at de blev gode nok.
Fra hjemme-rig til produktion
Rigs under et skrivebord er fine til R&D, interne værktøjer og visse kundeopgaver. Til suveræn AI på produktionskvalitet og i skala er næste skridt at leje dedikeret GPU-kapacitet fra et EU — helst dansk — datacenter.
I får bare-metal-GPU’er, en fysisk placering, I kan pege på i et compliance-dokument, en jurisdiktion jeres juridiske team allerede forstår, og — vigtigst — infrastruktur, der ikke deles med en udbyder, hvis forretningsmodel kan ændre sig. De modeller, I kører, er ikke frontier. Det behøver de heller ikke at være. En veltunet 30B- eller 70B-model på dedikeret infrastruktur slår et frontier-API på den specifikke opgave, I går op i, det meste af tiden — og bliver ved med at køre, uanset hvilken vej den politiske vind blæser i dette kvartal.
I kan besvare dataspørgsmålet perfekt og stadig være én leverandørbeslutning fra et workflow, der ikke kører på mandag.
Sådan kommer I i gang
Hvis det her rammer, og I vil have en suveræn fallback for mindst jeres vigtigste workflows inden udgangen af kvartalet, er her kortversionen:
Opgør begge ender. Lav en liste over de workflows, der rører ved fortrolige data, og en liste over de workflows, det ville gøre ondt at miste i morgen. De to lister overlapper, men ikke helt. Krydset er der, I starter.
Kør én workload lokalt som pilot. Én agent, én model, én lejet GPU. Open WebUI plus en 30B-model på en lejet EU-dedikeret server er et weekendprojekt, ikke et seksmåneders indkøbsforløb.
Behold frontier-modellerne. Vi laver stadig det meste udvikling mod Claude, GPT og Gemini. At flytte væk fra dem på alt ville være langsommere og dyrere. At flytte væk fra dem for de workflows, der ikke må fejle, er sund fornuft.
I behøver ikke vinde en debat om AI-suverænitet. I har brug for et svar til den mandag morgen, hvor debatten holder op med at være hypotetisk.