[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"blog-content-weekly-ai-news-kw17":3},"\u003Cp>Es gibt Wochen, da passiert nichts. Und dann gibt es den 16. April 2026. An einem einzigen Tag sind uns vier ernst zu nehmende Releases begegnet: Anthropic hat \u003Ca href=\"https:\u002F\u002Fwww.anthropic.com\u002Fclaude\u002Fopus\" target=\"_blank\" rel=\"noopener noreferrer\">Claude Opus 4.7\u003C\u002Fa> ausgerollt, Alibaba hat \u003Ca href=\"https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen3-next\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Qwen 3.6-35B-A3B\u003C\u002Fa> unter Apache 2.0 veröffentlicht, GitLab hat \u003Ca href=\"https:\u002F\u002Fdocs.gitlab.com\u002Freleases\u002F18\u002Fgitlab-18-11-released\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">18.11 mit Agentic SAST GA\u003C\u002Fa> ausgeliefert, und Ollama hat \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Follama\u002Follama\u002Freleases\" target=\"_blank\" rel=\"noopener noreferrer\">v0.21 mit Hermes- und Copilot-CLI-Integration\u003C\u002Fa> nachgelegt. Einen Tag später startet Anthropic \u003Ca href=\"https:\u002F\u002Fwww.anthropic.com\u002Fnews\u002Fclaude-design\" target=\"_blank\" rel=\"noopener noreferrer\">Claude Design\u003C\u002Fa> — und die Figma-Aktie verliert 6,8 Prozent. Hier ist, was du in dieser Woche tatsächlich im Kopf behalten solltest.\u003C\u002Fp>\n\n\u003Ch2>Top-Story: Claude Opus 4.7 — besser in jeder Dimension\u003C\u002Fh2>\n\u003Cp>Anthropic hat am 16. April \u003Ca href=\"https:\u002F\u002Fwww.anthropic.com\u002Fnews\u002Fclaude-opus-4-7\" target=\"_blank\" rel=\"noopener noreferrer\">Claude Opus 4.7 veröffentlicht\u003C\u002Fa>. Die Zahlen: 87,6 Prozent auf SWE-bench Verified, 94,2 Prozent auf GPQA, 1 Million Token Context Window und identische Preise zum Vorgänger (5 US-Dollar pro Million Input-Tokens, 25 US-Dollar pro Million Output-Tokens). Latent Space hat den Release nüchtern zusammengefasst: \u003Ca href=\"https:\u002F\u002Fwww.latent.space\u002Fp\u002Fainews-04172026\" target=\"_blank\" rel=\"noopener noreferrer\">\"literally one step better than 4.6 in every dimension\"\u003C\u002Fa>.\u003C\u002Fp>\n\u003Cp>Das Entscheidende sind dabei die Cyber-Safeguards aus \u003Ca href=\"https:\u002F\u002Fwww.anthropic.com\u002Fglasswing\" target=\"_blank\" rel=\"noopener noreferrer\">Project Glasswing\u003C\u002Fa> — die defensive Sicherheits-Zusammenarbeit, die Anthropic im Zuge von Claude Mythos Preview letzten Monat vorgestellt hatte. Opus 4.7 ist das erste öffentliche Modell, in das diese Safeguards direkt eingebaut sind. Und bevor Zahlenspiele losgehen: Simon Willison hat herausgefunden, dass der \u003Ca href=\"https:\u002F\u002Fsimonwillison.net\u002F2026\u002FApr\u002F20\u002Fclaude-token-counter\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Opus-4.7-Tokenizer rund 1,46× mehr Tokens\u003C\u002Fa> als 4.6 pro Prompt zählt. Das heißt: Gleicher Preis pro Token, aber mehr Tokens pro Aufgabe. In der Praxis landet man damit nicht exakt bei den beworbenen Listenpreisen.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Unser Take:\u003C\u002Fstrong> Für Coding-Teams, die schon auf Claude setzen, ist der Upgrade-Pfad trivial — es ist ein Drop-in. Für alle anderen bleibt die Frage: Lohnt sich ein proprietäres Frontier-Modell noch, wenn Open-Weight-Alternativen in derselben Woche ähnliche Benchmarks erreichen? Dazu gleich mehr.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quelle:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Fwww.anthropic.com\u002Fnews\u002Fclaude-opus-4-7\" target=\"_blank\" rel=\"noopener noreferrer\">Anthropic\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fwww.latent.space\u002Fp\u002Fainews-04172026\" target=\"_blank\" rel=\"noopener noreferrer\">Latent Space AINews\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fsimonwillison.net\u002F2026\u002FApr\u002F20\u002Fclaude-token-counter\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Simon Willison zum Tokenizer\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch2>Qwen 3.6-35B-A3B — Open Source holt auf, lokal\u003C\u002Fh2>\n\u003Cp>Am selben Tag hat Alibaba \u003Ca href=\"https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen3-next\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Qwen 3.6-35B-A3B\u003C\u002Fa> veröffentlicht — ein Mixture-of-Experts-Modell mit 35 Milliarden Gesamtparametern und nur 3 Milliarden aktiven Parametern pro Token. Apache-2.0-Lizenz, keine Nutzungsbeschränkungen, läuft auf Consumer-Hardware. Die Benchmark-Zahl: 73,4 Prozent auf SWE-bench Verified.\u003C\u002Fp>\n\u003Cp>Das ist noch nicht Opus-4.7-Niveau, aber es ist das erste offene Modell in diesem Leistungsbereich, das man realistisch lokal betreiben kann. \u003Ca href=\"https:\u002F\u002Fsimonwillison.net\u002F2026\u002FApr\u002F16\u002Fqwen-3-6-pelican\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Simon Willison hat Qwen 3.6 gegen Opus 4.7 im Pelikan-Benchmark getestet\u003C\u002Fa> — und das lokal laufende Qwen hat das bessere Pelikan-auf-einem-Fahrrad gezeichnet. Der Test ist natürlich nur eine Anekdote, aber das Signal ist eindeutig: Die Lücke zwischen SOTA-Closed und SOTA-Open beim Coding schrumpft schneller, als die meisten Analysten vor sechs Monaten angenommen hatten.\u003C\u002Fp>\n\u003Cp>Für Teams, die ihre KI-Infrastruktur im Griff haben wollen, ist Qwen 3.6 genau das, was man sich wünscht: klein genug für einen einzelnen Server mit vernünftiger GPU, offen genug für regelkonformes Deployment, stark genug für Produktiv-Workloads. Auf r\u002FLocalLLaMA wurden die ersten \u003Ca href=\"https:\u002F\u002Fwww.reddit.com\u002Fr\u002FLocalLLaMA\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Performance-Zahlen mit Ollama v0.21\u003C\u002Fa> bereits rege diskutiert.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quelle:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen3-next\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Qwen Blog\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fsimonwillison.net\u002F2026\u002FApr\u002F16\u002Fqwen-3-6-pelican\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Simon Willison Pelikan-Test\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fwww.reddit.com\u002Fr\u002FLocalLLaMA\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Reddit r\u002FLocalLLaMA\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch2>Claude Design startet — Figma verliert 6,8 Prozent\u003C\u002Fh2>\n\u003Cp>Einen Tag nach Opus 4.7 hat Anthropic \u003Ca href=\"https:\u002F\u002Fwww.anthropic.com\u002Fnews\u002Fclaude-design\" target=\"_blank\" rel=\"noopener noreferrer\">Claude Design vorgestellt\u003C\u002Fa> — ein Prototyping- und Webseiten-Tool, das direkt auf Opus 4.7 sitzt. Man beschreibt in natürlicher Sprache, was gebaut werden soll, und Claude Design generiert Layouts, Komponenten und funktionierenden Frontend-Code. Heise hat \u003Ca href=\"https:\u002F\u002Fwww.heise.de\u002Fnews\u002FAnthropic-stellt-Claude-Design-vor-KI-Werkzeug-fuer-Prototypen-und-Webseiten\" target=\"_blank\" rel=\"noopener noreferrer\">die strategische Einordnung\u003C\u002Fa> geliefert: Das ist kein Figma-Konkurrent nach dem alten Modell, sondern eine grundsätzlich andere Art, Design und Frontend-Engineering zu verbinden.\u003C\u002Fp>\n\u003Cp>Der Markt hat schnell reagiert: Figma-Aktie am Tag des Launches 6,8 Prozent im Minus. Nicht, weil Claude Design morgen Figma ersetzt — sondern weil die Story \"AI-featured Design Tool\" (Figma mit KI-Features) ins Narrativ \"AI-native Design Tool\" (Claude Design als First-Principles-KI) kippt. Thoughtworks hat im \u003Ca href=\"https:\u002F\u002Fwww.thoughtworks.com\u002Fradar\" target=\"_blank\" rel=\"noopener noreferrer\">Technology Radar Vol. 34\u003C\u002Fa> in der gleichen Woche davor gewarnt, dass KI-Code schneller wächst als das Verständnis dafür — eine Warnung, die für AI-native Design genauso gilt.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quelle:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Fwww.anthropic.com\u002Fnews\u002Fclaude-design\" target=\"_blank\" rel=\"noopener noreferrer\">Anthropic Claude Design\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fwww.heise.de\u002Fnews\u002FAnthropic-stellt-Claude-Design-vor-KI-Werkzeug-fuer-Prototypen-und-Webseiten\" target=\"_blank\" rel=\"noopener noreferrer\">Heise Developer\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fwww.thoughtworks.com\u002Fradar\" target=\"_blank\" rel=\"noopener noreferrer\">Thoughtworks Technology Radar Vol. 34\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch2>Tooling-Update: Ollama v0.21 + LiteLLM v1.83.10\u003C\u002Fh2>\n\u003Cp>Wer lokal Modelle betreibt, bekommt diese Woche zwei relevante Releases. \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Follama\u002Follama\u002Freleases\" target=\"_blank\" rel=\"noopener noreferrer\">Ollama v0.21 (16. April)\u003C\u002Fa> bringt Gemma-4-MLX-Support für Apple Silicon, Mixed-Precision-Quantization, und — das ist der eigentliche Hebel — \u003Cstrong>Hermes-Agent und GitHub-Copilot-CLI direkt in \u003Ccode>ollama launch\u003C\u002Fcode>\u003C\u002Fstrong> integriert. Ein lokaler Coding-Agent wird damit zum Einzeiler. Für Teams, die ihre Entwicklungsumgebung ohne Tokens an Drittparteien aufsetzen wollen, ist das ein relevanter Schritt.\u003C\u002Fp>\n\u003Cp>Parallel hat BerriAI \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FBerriAI\u002Flitellm\u002Freleases\" target=\"_blank\" rel=\"noopener noreferrer\">LiteLLM v1.83.10-nightly (19. April)\u003C\u002Fa> ausgeliefert. Headliner: \u003Cstrong>Python 3.9 ist EOL\u003C\u002Fstrong>, ab sofort Minimum Python 3.10. Dazu kommen \u003Cstrong>Multi-Budget-Windows pro API-Key und Team\u003C\u002Fstrong> (also gleichzeitig z.B. ein Tages- und ein Monats-Budget), Per-Member-Model-Scope, Team-Default-Models, Security-Hardening (Blockieren von \u003Ccode>x-pass-\u003C\u002Fcode> Header-Forwarding) und die UI-Migration von Tremor auf Ant Design. In v1.83.7-stable aus derselben Woche sitzt außerdem \u003Cstrong>MCP-Per-User-OAuth-Token-Storage\u003C\u002Fstrong> für interaktive Flows — direkt relevant für alle, die gerade an MCP-Integrationen für Endnutzer arbeiten.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quelle:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Follama\u002Follama\u002Freleases\" target=\"_blank\" rel=\"noopener noreferrer\">Ollama Releases\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FBerriAI\u002Flitellm\u002Freleases\" target=\"_blank\" rel=\"noopener noreferrer\">LiteLLM Releases\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch2>GitLab 18.11 — drei Agenten in einem Release\u003C\u002Fh2>\n\u003Cp>GitLab hat am 16. April \u003Ca href=\"https:\u002F\u002Fdocs.gitlab.com\u002Freleases\u002F18\u002Fgitlab-18-11-released\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Version 18.11 ausgeliefert\u003C\u002Fa>. Das ist das bisher KI-lastigste Release der 18er-Serie und verdient drei eigene Punkte:\u003C\u002Fp>\n\u003Cp>Erstens: \u003Cstrong>Agentic SAST Vulnerability Resolution ist GA\u003C\u002Fstrong>. Der Agent läuft nach jedem SAST-Scan, erkennt False Positives und schlägt konkrete Fix-Commits vor. Für Teams mit hohem Security-Scan-Lärm ein spürbarer Produktivitätsgewinn.\u003C\u002Fp>\n\u003Cp>Zweitens: Der \u003Cstrong>Data Analyst Agent\u003C\u002Fstrong> beantwortet natürlichsprachliche Anfragen über GLQL (GitLab Query Language) und rendert Visualisierungen direkt im Dashboard. Klingt nach Spielerei, ist in der Praxis aber ein solider Ersatz für den „schnell mal jemand im Team fragen, der die Zahlen kennt\"-Workflow.\u003C\u002Fp>\n\u003Cp>Drittens: \u003Cstrong>CI Expert Agent (Beta)\u003C\u002Fstrong> generiert \u003Ccode>.gitlab-ci.yml\u003C\u002Fcode>-Dateien direkt aus dem Repository-Kontext. Wer schon einmal eine Pipeline from scratch geschrieben hat, weiß, warum das hilfreich ist. Und: Das Default-Modell für Agentic Chat wurde von Claude Haiku 4.5 auf Claude Sonnet 4.6 (via Vertex AI) hochgezogen.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quelle:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Fdocs.gitlab.com\u002Freleases\u002F18\u002Fgitlab-18-11-released\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">GitLab 18.11 Release Notes\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch2>Meta pivotiert weg von Open Weights\u003C\u002Fh2>\n\u003Cp>Die nüchternste Einordnung der Woche kam aus \u003Ca href=\"https:\u002F\u002Fwww.deeplearning.ai\u002Fthe-batch\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">The Batch\u003C\u002Fa> vom 17. April: \u003Cstrong>\"Meta Pivots From Open Weights, Big Pharma Bets On AI, Regulatory Patchwork, Simulating Human Cohorts\"\u003C\u002Fstrong>. Die Hauptstory: Meta zieht sich strategisch aus dem Open-Weights-Release zurück. Muse Spark — das erste Modell der Meta Superintelligence Labs unter Alexandr Wang — ist proprietär, Llama 4 bleibt unter der Llama Community License, und die Signale aus Menlo Park deuten darauf hin, dass kommende Flagship-Modelle eher hinter API-Gates als auf Hugging Face landen werden.\u003C\u002Fp>\n\u003Cp>Das ist ein Einschnitt. Meta war mit Llama der Hauptgrund dafür, dass offene Frontier-Modelle überhaupt in Reichweite waren. Wenn Meta sich zurückzieht, verschiebt sich die Open-Source-Frontier-Rolle auf Alibaba (Qwen), Z.ai (GLM), Mistral und die einschlägigen EU\u002FAsien-Labs. Paradoxerweise macht das Open Source nicht schwächer, sondern verteilter — und für Unternehmen, die auf Lizenzstabilität angewiesen sind, sicherheitstechnisch interessanter.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quelle:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Fwww.deeplearning.ai\u002Fthe-batch\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">The Batch — 17. April\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen3-next\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Qwen Blog\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch2>Vercel-Breach: MCP-Supply-Chain wird ernst\u003C\u002Fh2>\n\u003Cp>Der Hacker-News-Thread mit 694 Punkten: \u003Ca href=\"https:\u002F\u002Fvercel.com\u002Fblog\u002Fsecurity-incident-april-2026\" target=\"_blank\" rel=\"noopener noreferrer\">Vercel April 2026 Security Incident\u003C\u002Fa>. Kompromittiert wurde nicht Vercel selbst, sondern eine OAuth-App eines Drittanbieters — \u003Cstrong>Context.ai\u003C\u002Fstrong>. Über die kompromittierte OAuth-App konnten Angreifer auf Vercel-Workspaces und darüber auf verknüpfte Linear- und GitHub-Tokens zugreifen.\u003C\u002Fp>\n\u003Cp>Das Muster ist exemplarisch für das neue Supply-Chain-Risiko durch agentische Tool-Ökosysteme: Eine KI-Integration wird zum Schwachpunkt für die darunter liegende Plattform. MCP-Governance — also wer darf welche Tokens speichern, wie werden OAuth-Flows abgesichert, wann läuft ein Token ab — verschiebt sich damit vom \"Nice-to-have\" zum regulatorisch relevanten Thema. Genau in diese Lücke stößt übrigens der neue \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FBerriAI\u002Flitellm\u002Freleases\" target=\"_blank\" rel=\"noopener noreferrer\">MCP-Per-User-OAuth-Token-Storage in LiteLLM v1.83.7\u003C\u002Fa>. Und die \u003Ca href=\"https:\u002F\u002Fwww.linuxfoundation.org\u002Fpress\u002Flinux-foundation-launches-agentic-ai-foundation\" target=\"_blank\" rel=\"noopener noreferrer\">Linux Foundation hat mit der Agentic AI Foundation (AAIF)\u003C\u002Fa> ein Dach gegründet, das MCP, goose und AGENTS.md formal standardisieren soll.\u003C\u002Fp>\n\u003Cp>Wer agentische Workflows in Enterprise-Umgebungen baut, sollte den Vercel-Post-Mortem sehr genau lesen. Das wird nicht der letzte Breach dieser Art gewesen sein.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quelle:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Fvercel.com\u002Fblog\u002Fsecurity-incident-april-2026\" target=\"_blank\" rel=\"noopener noreferrer\">Vercel Security Incident\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fnews.ycombinator.com\u002Fbest\" target=\"_blank\" rel=\"noopener noreferrer\">Hacker News Diskussion\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fwww.linuxfoundation.org\u002Fpress\u002Flinux-foundation-launches-agentic-ai-foundation\" target=\"_blank\" rel=\"noopener noreferrer\">Linux Foundation AAIF\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FBerriAI\u002Flitellm\u002Freleases\" target=\"_blank\" rel=\"noopener noreferrer\">LiteLLM Releases\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Cfigure>\n\u003Cimg src=\"\u002Fimages\u002Fblog\u002Fweekly-ai-news-kw17-mcp-chain.webp\" alt=\"OAuth-Kette mit gebrochenem Glied — Sinnbild für den Vercel\u002FContext.ai Supply-Chain-Vorfall\" loading=\"lazy\">\n\u003C\u002Ffigure>\n\n\u003Ch2>Kurz notiert\u003C\u002Fh2>\n\u003Cul>\n\u003Cli>\u003Cstrong>NextDC (Australien)\u003C\u002Fstrong> investiert 1,5 Milliarden australische Dollar in eine 350-MW-Erweiterung in Sydney — der Rechenzentrumsbau in Asia-Pacific bleibt auf Rekordkurs. Quelle: \u003Ca href=\"https:\u002F\u002Fllm-stats.com\u002Fai-news\" target=\"_blank\" rel=\"noopener noreferrer\">LLM-Stats\u003C\u002Fa>.\u003C\u002Fli>\n\u003Cli>\u003Cstrong>Bundeskanzler Merz\u003C\u002Fstrong> kündigt mögliche Entlastungen bei EU-KI-Regulierung an, Stichwort: industrielle KI-Anwendungen. Konkret wird es erst mit dem AI-Act-Digital-Omnibus-Trilogue am 28. April. Quelle: \u003Ca href=\"https:\u002F\u002Fllm-stats.com\u002Fai-news\" target=\"_blank\" rel=\"noopener noreferrer\">LLM-Stats\u003C\u002Fa>.\u003C\u002Fli>\n\u003Cli>\u003Cstrong>BMDS\u003C\u002Fstrong> (Bundesministerium für Digitale Services) stellt im Rahmen des SPARK-Projekts erste KI-Module als Open Source zur Verfügung. Für deutsche Behörden-Projekte ein direkt nutzbarer Baustein. Quelle: \u003Ca href=\"https:\u002F\u002Fwww.egovernment.de\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">eGovernment\u003C\u002Fa>.\u003C\u002Fli>\n\u003C\u002Ful>\n\n\u003Ch2>Fazit\u003C\u002Fh2>\n\u003Cp>Vier Major-Releases an einem Tag, ein Figma-Schock am nächsten, und ein Breach, der die MCP-Supply-Chain endgültig ins Bewusstsein schiebt — KW 17 war das bisher dichteste Nachrichtenpaket 2026. Zwei Muster zeichnen sich ab: Erstens, die SOTA-Lücke zwischen proprietären und offenen Modellen schließt sich weiter, besonders im Coding. Zweitens, die Betriebsverantwortung für KI-Systeme wandert spürbar in Richtung Plattform-Governance — wer heute Agenten in Produktion schickt, muss morgen OAuth-Ketten, Token-Lebenszyklen und Abhängigkeits-Risiken sauber aufstellen. Nächste Woche wird spannend: Am 28. April entscheidet der Trilogue über den AI-Act-Digital-Omnibus.\u003C\u002Fp>\n\n\u003Cp>Wenn du einen souveränen, DSGVO-konformen KI-Stack für dein Team aufbauen willst — \u003Ca href=\"\u002Fde-at\u002Fcontact\">wir helfen gerne\u003C\u002Fa>. Mehr Details zu unserer Referenz-Architektur findest du im neuen Pillar-Post zu \u003Ca href=\"\u002Fde-at\u002Fblog\u002Fagentic-engineering-dsgvo-konform-on-premise-stack\">Agentic Engineering auf DSGVO-konformer Infrastruktur\u003C\u002Fa>.\u003C\u002Fp>\n\n\u003Cp>\u003Cem>Kuratiert von SEADEV Studios — jede Woche die wichtigsten AI-News, eingeordnet für Entwickler und Entscheider.\u003C\u002Fem>\u003C\u002Fp>\n"]