Zum Hauptinhalt springen
18. April 202610 Min. LesezeitSovereign AI

Sovereign AI: DSGVO-konforme KI-Plattform 2026

Lukas Obermann

Lukas Obermann

Sovereign AI: DSGVO-konforme KI-Plattform 2026

Seit Monaten reden alle über Sovereign AI. Auf Konferenzen, in Ministerien, in Analystenberichten. Die Gründe sind gut bekannt: Der EU AI Act greift ab August 2026 mit voller Wucht, der US CLOUD Act hebelt im Extremfall jede DSGVO-Zusicherung aus, und das Schrems-II-Urteil hat längst klargemacht, dass „Cloud-Region Frankfurt" kein Freibrief ist.

Die viel interessantere Frage ist aber: Was heißt das konkret für dein Unternehmen? Welche Entscheidungen musst du 2026 treffen — und was kannst du technisch tun, ohne auf eine schöne neue Euro-Cloud zu warten, die es so schnell nicht geben wird?

Dieser Pillar-Post bündelt, was wir bei SEADEV in Kundenprojekten seit Monaten in der Praxis sehen. Nicht als abstraktes Paper, sondern als Entscheidungsgrundlage für alle, die KI ernsthaft in ihren Geschäftsbetrieb heben wollen — und nicht bei der ersten DSGVO-Prüfung kalte Füße bekommen möchten.

Was Sovereign AI wirklich bedeutet

„Sovereign AI" ist kein einzelnes Produkt und auch kein Feature, das du irgendwo ankreuzt. Es ist ein Bündel von Anforderungen, die sich in drei Dimensionen denken lassen:

  • Datensouveränität: Deine Daten bleiben in einem Rechtsraum, dem du vertraust — in der Praxis: EU, idealerweise im eigenen Rechenzentrum oder bei einem EU-Anbieter ohne US-Konzernmutter.
  • Modell- und Stack-Souveränität: Du kannst die eingesetzten Modelle, Gewichte und die umliegende Infrastruktur auf Wunsch austauschen. Kein Vendor Lock-in, keine Blackbox.
  • Operative Souveränität: Du entscheidest selbst, wann du was aktualisierst, wer Zugriff bekommt und wie du im Störfall reagierst — ohne auf einen Hyperscaler angewiesen zu sein.

Gartner sieht genau deswegen 61% der westeuropäischen IT-Entscheider ihre Abhängigkeit von lokalen Cloud-Anbietern erhöhen; die weltweiten Sovereign-Cloud-IaaS-Ausgaben werden bis 2027 auf rund 125 Milliarden US-Dollar anwachsen. Übersetzt: Das ist kein Nischen-Thema mehr, das sind Milliardenmärkte, die sich gerade neu sortieren.

Warum 2026 das Entscheidungsjahr ist

Drei regulatorische Weichenstellungen laufen in diesem Jahr zusammen — und betreffen praktisch jedes Unternehmen, das KI produktiv einsetzt.

EU AI Act: Der Stichtag im August 2026

Der AI Act tritt in Stufen in Kraft. Der für dich relevante Stichtag ist 2. August 2026: Ab dann gelten die Regeln für Hochrisiko-KI-Systeme, allgemeine KI-Modelle (GPAI) und die meisten Transparenzpflichten in voller Breite.

Was das konkret bedeutet:

  • Inventarisierung: Du musst wissen, welche KI-Systeme bei euch wo eingesetzt werden — inkl. Schatten-KI, die Mitarbeitende heute „einfach mal so" in den Browser werfen.
  • Risikoklassifikation: HR-Screening, Kreditentscheidungen, Zugangskontrollen, kritische Infrastruktur — viele klassische Automatisierungen fallen plötzlich in Hochrisiko-Bereiche.
  • Transparenz und Dokumentation: Nutzer müssen wissen, wenn sie mit KI interagieren; ihr müsst nachweisen, welches Modell mit welchen Daten arbeitet.
  • Datenschutzfolgeabschätzung (DSFA): Bei personenbezogenen Daten in KI-Systemen wird die DSFA in der Regel zur Pflicht — und die ist mit Blackbox-Cloud-Diensten schwer sauber zu machen.

CLOUD Act vs. DSGVO: Der Interessenkonflikt bleibt

Das Data Privacy Framework zwischen EU und USA hat vieles entschärft — der grundlegende Konflikt aber bleibt: Der CLOUD Act verpflichtet US-Unternehmen zur Herausgabe von Daten an US-Behörden, auch wenn diese Daten physisch in der EU liegen. Jede Tochtergesellschaft eines US-Konzerns ist davon betroffen — egal, ob das Rechenzentrum in Frankfurt, Dublin oder Wien steht.

Das ist für viele Branchen relevant:

  • Gesundheitswesen, Banken, Versicherungen, Behörden — überall dort, wo Berufs- oder Amtsgeheimnisse gelten.
  • Forschung und Entwicklung mit Geschäftsgeheimnissen, Patenten, strategischen Roadmaps.
  • Unternehmen mit Lieferanten- oder Partnerdaten, deren NDAs grenzüberschreitende Herausgabe explizit ausschließen.

NIS2 und KRITIS: Resilienz wird verpflichtend

Parallel zieht die NIS2-Richtlinie die Daumenschrauben bei Cybersicherheit und Lieferketten-Resilienz an. Wer KI in geschäftskritische Prozesse hebt, muss belegen, dass das System auch unter Stress, Ausfall oder Angriff funktioniert. Eine KI-Funktion, die nur läuft, solange ein US-Hyperscaler seinen Dienst nicht abschaltet, ist in dieser Logik ein Risiko.

Warum die Cloud-KI-Rechnung selten aufgeht

Auf dem Papier ist die Rechnung simpel: API-Call rein, Antwort raus, pro 1.000 Token ein paar Cent. In der Praxis haben wir bei Kunden immer wieder dieselben Überraschungen gesehen.

1. Datenschutz ist kein Switch

„DSGVO-Modus aktivieren" reicht nicht. Die Compliance ist immer so gut wie die schwächste Komponente. Ein einziges SaaS-Tool mit eingebauter LLM-Funktion kann dein gesamtes DSFA-Konzept sprengen, wenn niemand weiß, was es mit den Eingaben macht.

2. Kosten explodieren mit der Adoption

Die ersten Monate sind günstig. Dann merken die Teams, wie gut LLMs bei Recherche, Zusammenfassung und Coding helfen — und die Nutzung verzehnfacht sich. Bei Cloud-KI zahlst du jeden zusätzlichen Token. Bei einem On-Premise-Stack bleibt der Grenzkosten-Aufwand weitgehend flach, solange die Hardware passt.

3. Vendor Lock-in ist real

Prompts, Feintuning-Daten, Agenten-Workflows — all das entsteht mit der Zeit und bindet dich an einen Anbieter. Wenn der sein Preis-Modell dreht, sein Modell zurückzieht oder (wie 2025 bei Sora) den Dienst einstellt, stehst du vor Migrationskosten, mit denen niemand gerechnet hat.

4. Modelle sind ein bewegliches Ziel

Closed-Source-Modelle ändern sich im Hintergrund. Das gleiche Prompt liefert in sechs Monaten andere Ergebnisse — und du kannst das weder kontrollieren noch ordentlich nachvollziehen. Für Audits und reproduzierbare Entscheidungen ist das ein Problem.

Der praktische Weg: Open-Source-KI On-Premise

Die gute Nachricht: Du musst nicht auf eine fertige EU-Cloud warten. Die Technologien für einen souveränen KI-Stack existieren heute — als produktionsreife Open-Source-Projekte, getestet in tausenden Deployments.

DSGVO-konformer Open-Source-KI-Stack mit fünf Schichten: Inference, API Gateway, Frontend, Automation und Integration — On-Premise, EU-Datenhaltung, ohne Vendor Lock-in

Ein realistischer Stack besteht aus fünf Schichten, die wir bei Kunden immer wieder in Varianten dieses Aufbaus sehen.

Schicht 1: Inference — wo die Modelle laufen

Die Basis bilden lokale Inferenz-Server. vLLM ist 2026 der De-facto-Standard für GPU-basierte Inferenz von Open-Weight-Modellen; Ollama ist der einfache Einstieg, gut für Proof-of-Concepts und kleine Teams. Zur Modellwahl: Llama 4, Mistral 3, Qwen 3.5 und die neuen Open-Weight-Modelle von Google und Meta decken heute praktisch alle Standard-Use-Cases ab.

Schicht 2: API-Gateway — damit alles einheitlich wird

LiteLLM sitzt als Proxy vor den Inference-Servern und bietet ein einheitliches, OpenAI-kompatibles API. Konkret heißt das: Du kannst mehrere Modelle gleichzeitig betreiben, Rate-Limiting pro Team/Abteilung durchsetzen, Audit-Logs zentral erfassen und bei Bedarf sogar kontrolliert externe APIs als Fallback zuschalten.

Schicht 3: Frontend — wo die User arbeiten

Für generelle Chat- und Wissens-Use-Cases ist OpenWebUI die erste Wahl — eine ChatGPT-ähnliche Oberfläche mit RAG, Modell-Auswahl und Zugriffskontrolle. Für strukturierte Prozesse wie Angebots-Generierung, Support-Klassifikation oder Dokumenten-Review bauen wir meist zusätzlich maßgeschneiderte UIs, die den Prompt abstrahieren und konsistente Ergebnisse liefern. Mehr Details dazu findest du in unserem OpenWebUI-Leitfaden.

Schicht 4: Automation — damit KI in Prozesse einzieht

Sobald KI nicht mehr nur chattet, sondern Arbeit übernimmt, brauchst du eine Workflow-Engine. Windmill, n8n und vergleichbare Tools orchestrieren Dokumenten-Ingestion, RAG-Updates, Trigger aus E-Mail oder Ticket-Systemen und die Übergabe an Menschen, wenn der Agent unsicher ist. Wie man eine RAG-Pipeline praxistauglich baut, haben wir im RAG-Praxisleitfaden beschrieben.

Schicht 5: Integration — damit KI sich mit eurer Welt verbindet

Am Ende muss der Stack in eure bestehende IT eingebettet sein: LDAP oder Active Directory für Single-Sign-On, Nextcloud oder ein NAS für Dokumente, CRM- und Ticket-Systeme für Kontext. Genau hier entsteht der Hebel — eine KI, die nur Allgemeinwissen hat, ist nett; eine KI, die euren internen Wissensstand kennt, ist ein Wettbewerbsvorteil. Und nachdem was KI-Agenten heute leisten können, rückt das zunehmend in den Mittelpunkt — Details dazu in unserem Überblick zu KI-Agenten 2026.

Betriebsmodelle: On-Premise, Hybrid oder Managed EU

Sovereign AI heißt nicht automatisch „alles im eigenen Keller". In der Praxis sehen wir drei Betriebsmodelle, die sich nach Unternehmensgröße und Risikoprofil unterscheiden.

On-Premise im eigenen Rechenzentrum

Wann sinnvoll: Regulierte Branchen (Gesundheit, Finanz, Verteidigung, Behörden), bestehende Rechenzentren mit Kapazität, Daten mit höchster Sensitivität.

Vorteile: Volle Kontrolle, keine Daten verlassen eure Perimeter, vorhersehbare Kosten.

Zu bedenken: GPU-Hardware ist nicht trivial — eine Workstation mit einer NVIDIA RTX 6000 Ada oder ein kleiner Cluster aus A100/H100 ist je nach Userzahl nötig. Apple Silicon (Mac Studio M3 Ultra) ist für kleine Teams bis 20 Nutzer überraschend wirtschaftlich.

Managed Sovereign Cloud aus der EU

Wann sinnvoll: Keine eigene Rechenzentrum-Kompetenz, aber strenge Datensouveränitäts-Anforderungen — und der Wunsch, Hardware-Risiko auszulagern.

Vorteile: Schnell einsatzbereit, Betrieb auf europäischer Infrastruktur ohne US-Konzernbeteiligung, planbare OpEx statt CapEx.

Zu bedenken: Der Anbieter muss wirklich EU-souverän sein — nicht nur „EU-Region eines US-Hyperscalers". Vertragliche Regelung für Zugriffsanfragen von Drittstaaten ist Pflicht.

Hybrid: Klassifizierung nach Datensensitivität

Wann sinnvoll: Pragmatischer Start — sensitive Workloads on-premise, öffentliche Recherche- und Coding-Anfragen gehen an einen kontrollierten externen Endpoint.

Vorteile: Skaliert mit eurem Reifegrad. Für die ersten Monate reicht oft ein einziger lokaler Inferenz-Node plus ein klar geregelter Cloud-Fallback.

Zu bedenken: Die Trennlinie zwischen „darf raus" und „muss drin bleiben" ist eine Governance-Aufgabe, die Teams und Legal gemeinsam definieren müssen. Ein API-Gateway wie LiteLLM ist hier Pflicht, damit Routing, Logging und Policies zentral bleiben.

Governance, die in der Praxis trägt

Technik allein reicht nicht. Die Sovereign-AI-Kunden, die bei uns langfristig stabil laufen, haben vier Governance-Bausteine gemeinsam.

1. Policy statt Verbot

„KI ist verboten" führt nur zu Schatten-Nutzung. Besser: eine klare Policy, welche Tools für welche Datenklassen zulässig sind. Beispiel: öffentliche Recherche und Coding-Hilfe → genehmigte externe APIs mit No-Training-Clause; personenbezogene Daten und interne Dokumente → ausschließlich der interne Stack.

2. Inventar und Audit-Trails

Ein zentrales Inventar der eingesetzten Modelle, Datenflüsse und Zugriffe ist für den AI Act ohnehin nötig — und wird zur Lebensversicherung, wenn ein Incident passiert. Das muss kein Enterprise-Tool sein, ein gepflegtes Confluence/Markdown-Repository reicht anfangs oft aus.

3. DSFA als lebendes Dokument

Datenschutzfolgeabschätzungen werden oft einmal geschrieben und nie wieder angefasst. Für KI-Systeme ist das zu wenig — Modelle und Prompts ändern sich. Plane eine jährliche Review und eine Ad-hoc-Review bei größeren Modellwechseln ein.

4. Menschen, die es können

Das am meisten unterschätzte Element: jemand in der Organisation, der KI-System-Betrieb wirklich versteht. Das kann intern aufgebaut oder per Partner eingekauft werden — aber ohne geht es nicht. Ein DSGVO-konformer KI-Stack ohne Ownership ist nach sechs Monaten kein DSGVO-konformer Stack mehr.

Ein Migrationsplan für die nächsten zwölf Monate

Die meisten Unternehmen, die wir begleiten, starten nicht auf der grünen Wiese, sondern haben bereits eine wilde KI-Nutzung im Betrieb. Ein pragmatischer Fahrplan, der in unseren Projekten reproduzierbar funktioniert:

  1. Monat 1–2: Bestandsaufnahme. Welche KI-Tools nutzen eure Teams heute wirklich? Welche Datenklassen werden damit verarbeitet? Wo sitzen die Anbieter? Ergebnis: eine Heatmap von Use-Cases und Compliance-Risiken.
  2. Monat 3–4: Policy und Architektur. KI-Richtlinie finalisieren (zusammen mit Datenschutz, Betriebsrat, Legal). Ziel-Architektur für Sovereign AI skizzieren — inklusive Hybrid-Modell für die Übergangszeit.
  3. Monat 5–7: Pilot. Ein begrenzter Stack für ein Pilot-Team. Realistisch: 20–40 User, ein Use-Case (oft internes Wissensmanagement mit RAG). Modelle lokal oder in der EU-Sovereign-Cloud, OpenWebUI als Frontend, klare KPIs.
  4. Monat 8–10: Rollout. Ausrollen auf breite Mitarbeiterschaft. Parallel die bisherigen Cloud-Nutzungen in die neuen Bahnen lenken. Schulungen, Prompt-Kataloge, Feedback-Schleifen.
  5. Monat 11–12: Härten für den AI Act. Dokumentation vollständig machen, DSFA aktualisieren, Incident-Response-Plan testen. Pünktlich zum 2. August 2026 bist du nicht nur compliant, sondern auch produktiver als vorher.

Die Milchmädchenrechnung, die meistens stimmt

„Lohnt sich das?" — die zweithäufigste Frage nach „Ist das DSGVO-konform?". Eine vereinfachte Betrachtung für ein Unternehmen mit 100 Mitarbeitenden und mittlerer KI-Nutzung:

  • ChatGPT Enterprise, Copilot, Gemini & Co. pro Nutzer: realistisch 25–40 € / Monat, bei 100 Nutzern also 30.000–48.000 € / Jahr, weiter steigend mit jeder Lizenz. Daten? Schwer zu kontrollieren. CLOUD Act? Wirksam.
  • Eigener Open-Source-Stack (On-Premise, GPU-Workstation): 20.000–40.000 € einmalig Hardware, 15.000–25.000 € pro Jahr Betrieb & Weiterentwicklung. Daten? Unter deiner Kontrolle. CLOUD Act? Kein Thema.
  • Managed Sovereign EU: Pay-per-Use, typisch 1.500–5.000 € / Monat für 100 Nutzer, je nach Volumen. Keine CapEx, EU-Datenhaltung garantiert.

Bei typischer Nutzung ist der On-Premise-Stack nach 12–18 Monaten günstiger als Cloud-KI — und die Differenz wird größer, je mehr die KI-Adoption wächst. Und das ist der Knackpunkt: Die meisten Unternehmen planen heute mit KI-Nutzung wie vor zwei Jahren, nicht mit der, die in zwei Jahren normal sein wird.

Für wen lohnt sich Sovereign AI zuerst?

Nicht für jeden ist der Weg gleich dringend. Unsere Priorisierung aus Projekterfahrung:

  • Sehr hohe Dringlichkeit: Regulierte Branchen (Banken, Versicherungen, Gesundheit), Behörden, KRITIS-Betreiber, Rechtsanwalts- und Notariatskanzleien, Forschung mit strategischem IP.
  • Hohe Dringlichkeit: Industrie mit Geschäftsgeheimnissen, Produktentwickler mit sensibler Roadmap, mittelständische B2B-Unternehmen mit NDA-starken Kundenbeziehungen.
  • Mittlere Dringlichkeit: Allgemeine Dienstleister mit personenbezogenen Daten (Marketing, HR, Consulting), die heute schon KI produktiv nutzen.
  • Geringere Dringlichkeit (aber oft unterschätzt): Rein öffentlich arbeitende Unternehmen ohne personenbezogene Daten — hier geht es weniger um DSGVO als um Kosten- und Vendor-Risiko.

Was wir bei SEADEV konkret machen

Unsere AI-OpenStack-Plattform ist genau dieser Stack, kuratiert und einsatzbereit: vLLM oder Ollama für die Inferenz, LiteLLM als Gateway, OpenWebUI plus maßgeschneiderte Frontends, Windmill/n8n für Automation, Integration in LDAP/Active Directory, Nextcloud und bestehende Datenquellen. Wir betreiben das je nach Kundenwunsch on-premise, in unserem Rechenzentrum in Österreich — oder hybrid als Mischform.

Wir sind kein Startup, das nur Modelle einkauft und weiterverkauft. Wir sind ein österreichisches Software-Haus, das Produkte, APIs und KI-Lösungen baut und betreibt — und Sovereign AI ist die logische Erweiterung dieses Portfolios.

Der kürzeste mögliche Schluss

Sovereign AI ist 2026 keine ideologische Entscheidung mehr, sondern eine betriebswirtschaftliche und rechtliche. Der AI Act kommt, der CLOUD Act bleibt, und die Kosten von Cloud-KI steigen mit der Adoption schneller, als die meisten Planungen vorsehen. Wer jetzt die ersten sechs Monate nutzt, um eine saubere Grundlage zu schaffen, hat Mitte 2027 einen handfesten Vorsprung — nicht nur bei Compliance, sondern bei Produktivität und Kostenstruktur.

Falls du überlegst, wie Sovereign AI bei euch aussehen könnte — oder ob euer aktueller KI-Einsatz vor dem AI Act besteht — meld dich bei uns. Wir klären das gerne in einem unverbindlichen Erstgespräch. Ganz ohne Nerd-Speak, falls gewünscht.

Tags

Sovereign AIDSGVOEU AI ActOn-Premise KIDatenschutzAI OpenStackOpen Source

Teilen

Weitere Artikel