Zum Hauptinhalt springen
21. April 20268 Min. LesezeitAI News

AI News KW 17: Claude Opus 4.7, Qwen 3.6 & Vercel-Breach

Lukas Obermann

Lukas Obermann

AI News KW 17: Claude Opus 4.7, Qwen 3.6 & Vercel-Breach

Es gibt Wochen, da passiert nichts. Und dann gibt es den 16. April 2026. An einem einzigen Tag sind uns vier ernst zu nehmende Releases begegnet: Anthropic hat Claude Opus 4.7 ausgerollt, Alibaba hat Qwen 3.6-35B-A3B unter Apache 2.0 veröffentlicht, GitLab hat 18.11 mit Agentic SAST GA ausgeliefert, und Ollama hat v0.21 mit Hermes- und Copilot-CLI-Integration nachgelegt. Einen Tag später startet Anthropic Claude Design — und die Figma-Aktie verliert 6,8 Prozent. Hier ist, was du in dieser Woche tatsächlich im Kopf behalten solltest.

Top-Story: Claude Opus 4.7 — besser in jeder Dimension

Anthropic hat am 16. April Claude Opus 4.7 veröffentlicht. Die Zahlen: 87,6 Prozent auf SWE-bench Verified, 94,2 Prozent auf GPQA, 1 Million Token Context Window und identische Preise zum Vorgänger (5 US-Dollar pro Million Input-Tokens, 25 US-Dollar pro Million Output-Tokens). Latent Space hat den Release nüchtern zusammengefasst: "literally one step better than 4.6 in every dimension".

Das Entscheidende sind dabei die Cyber-Safeguards aus Project Glasswing — die defensive Sicherheits-Zusammenarbeit, die Anthropic im Zuge von Claude Mythos Preview letzten Monat vorgestellt hatte. Opus 4.7 ist das erste öffentliche Modell, in das diese Safeguards direkt eingebaut sind. Und bevor Zahlenspiele losgehen: Simon Willison hat herausgefunden, dass der Opus-4.7-Tokenizer rund 1,46× mehr Tokens als 4.6 pro Prompt zählt. Das heißt: Gleicher Preis pro Token, aber mehr Tokens pro Aufgabe. In der Praxis landet man damit nicht exakt bei den beworbenen Listenpreisen.

Unser Take: Für Coding-Teams, die schon auf Claude setzen, ist der Upgrade-Pfad trivial — es ist ein Drop-in. Für alle anderen bleibt die Frage: Lohnt sich ein proprietäres Frontier-Modell noch, wenn Open-Weight-Alternativen in derselben Woche ähnliche Benchmarks erreichen? Dazu gleich mehr.

Quelle: Anthropic · Latent Space AINews · Simon Willison zum Tokenizer

Qwen 3.6-35B-A3B — Open Source holt auf, lokal

Am selben Tag hat Alibaba Qwen 3.6-35B-A3B veröffentlicht — ein Mixture-of-Experts-Modell mit 35 Milliarden Gesamtparametern und nur 3 Milliarden aktiven Parametern pro Token. Apache-2.0-Lizenz, keine Nutzungsbeschränkungen, läuft auf Consumer-Hardware. Die Benchmark-Zahl: 73,4 Prozent auf SWE-bench Verified.

Das ist noch nicht Opus-4.7-Niveau, aber es ist das erste offene Modell in diesem Leistungsbereich, das man realistisch lokal betreiben kann. Simon Willison hat Qwen 3.6 gegen Opus 4.7 im Pelikan-Benchmark getestet — und das lokal laufende Qwen hat das bessere Pelikan-auf-einem-Fahrrad gezeichnet. Der Test ist natürlich nur eine Anekdote, aber das Signal ist eindeutig: Die Lücke zwischen SOTA-Closed und SOTA-Open beim Coding schrumpft schneller, als die meisten Analysten vor sechs Monaten angenommen hatten.

Für Teams, die ihre KI-Infrastruktur im Griff haben wollen, ist Qwen 3.6 genau das, was man sich wünscht: klein genug für einen einzelnen Server mit vernünftiger GPU, offen genug für regelkonformes Deployment, stark genug für Produktiv-Workloads. Auf r/LocalLLaMA wurden die ersten Performance-Zahlen mit Ollama v0.21 bereits rege diskutiert.

Quelle: Qwen Blog · Simon Willison Pelikan-Test · Reddit r/LocalLLaMA

Claude Design startet — Figma verliert 6,8 Prozent

Einen Tag nach Opus 4.7 hat Anthropic Claude Design vorgestellt — ein Prototyping- und Webseiten-Tool, das direkt auf Opus 4.7 sitzt. Man beschreibt in natürlicher Sprache, was gebaut werden soll, und Claude Design generiert Layouts, Komponenten und funktionierenden Frontend-Code. Heise hat die strategische Einordnung geliefert: Das ist kein Figma-Konkurrent nach dem alten Modell, sondern eine grundsätzlich andere Art, Design und Frontend-Engineering zu verbinden.

Der Markt hat schnell reagiert: Figma-Aktie am Tag des Launches 6,8 Prozent im Minus. Nicht, weil Claude Design morgen Figma ersetzt — sondern weil die Story "AI-featured Design Tool" (Figma mit KI-Features) ins Narrativ "AI-native Design Tool" (Claude Design als First-Principles-KI) kippt. Thoughtworks hat im Technology Radar Vol. 34 in der gleichen Woche davor gewarnt, dass KI-Code schneller wächst als das Verständnis dafür — eine Warnung, die für AI-native Design genauso gilt.

Quelle: Anthropic Claude Design · Heise Developer · Thoughtworks Technology Radar Vol. 34

Tooling-Update: Ollama v0.21 + LiteLLM v1.83.10

Wer lokal Modelle betreibt, bekommt diese Woche zwei relevante Releases. Ollama v0.21 (16. April) bringt Gemma-4-MLX-Support für Apple Silicon, Mixed-Precision-Quantization, und — das ist der eigentliche Hebel — Hermes-Agent und GitHub-Copilot-CLI direkt in ollama launch integriert. Ein lokaler Coding-Agent wird damit zum Einzeiler. Für Teams, die ihre Entwicklungsumgebung ohne Tokens an Drittparteien aufsetzen wollen, ist das ein relevanter Schritt.

Parallel hat BerriAI LiteLLM v1.83.10-nightly (19. April) ausgeliefert. Headliner: Python 3.9 ist EOL, ab sofort Minimum Python 3.10. Dazu kommen Multi-Budget-Windows pro API-Key und Team (also gleichzeitig z.B. ein Tages- und ein Monats-Budget), Per-Member-Model-Scope, Team-Default-Models, Security-Hardening (Blockieren von x-pass- Header-Forwarding) und die UI-Migration von Tremor auf Ant Design. In v1.83.7-stable aus derselben Woche sitzt außerdem MCP-Per-User-OAuth-Token-Storage für interaktive Flows — direkt relevant für alle, die gerade an MCP-Integrationen für Endnutzer arbeiten.

Quelle: Ollama Releases · LiteLLM Releases

GitLab 18.11 — drei Agenten in einem Release

GitLab hat am 16. April Version 18.11 ausgeliefert. Das ist das bisher KI-lastigste Release der 18er-Serie und verdient drei eigene Punkte:

Erstens: Agentic SAST Vulnerability Resolution ist GA. Der Agent läuft nach jedem SAST-Scan, erkennt False Positives und schlägt konkrete Fix-Commits vor. Für Teams mit hohem Security-Scan-Lärm ein spürbarer Produktivitätsgewinn.

Zweitens: Der Data Analyst Agent beantwortet natürlichsprachliche Anfragen über GLQL (GitLab Query Language) und rendert Visualisierungen direkt im Dashboard. Klingt nach Spielerei, ist in der Praxis aber ein solider Ersatz für den „schnell mal jemand im Team fragen, der die Zahlen kennt"-Workflow.

Drittens: CI Expert Agent (Beta) generiert .gitlab-ci.yml-Dateien direkt aus dem Repository-Kontext. Wer schon einmal eine Pipeline from scratch geschrieben hat, weiß, warum das hilfreich ist. Und: Das Default-Modell für Agentic Chat wurde von Claude Haiku 4.5 auf Claude Sonnet 4.6 (via Vertex AI) hochgezogen.

Quelle: GitLab 18.11 Release Notes

Meta pivotiert weg von Open Weights

Die nüchternste Einordnung der Woche kam aus The Batch vom 17. April: "Meta Pivots From Open Weights, Big Pharma Bets On AI, Regulatory Patchwork, Simulating Human Cohorts". Die Hauptstory: Meta zieht sich strategisch aus dem Open-Weights-Release zurück. Muse Spark — das erste Modell der Meta Superintelligence Labs unter Alexandr Wang — ist proprietär, Llama 4 bleibt unter der Llama Community License, und die Signale aus Menlo Park deuten darauf hin, dass kommende Flagship-Modelle eher hinter API-Gates als auf Hugging Face landen werden.

Das ist ein Einschnitt. Meta war mit Llama der Hauptgrund dafür, dass offene Frontier-Modelle überhaupt in Reichweite waren. Wenn Meta sich zurückzieht, verschiebt sich die Open-Source-Frontier-Rolle auf Alibaba (Qwen), Z.ai (GLM), Mistral und die einschlägigen EU/Asien-Labs. Paradoxerweise macht das Open Source nicht schwächer, sondern verteilter — und für Unternehmen, die auf Lizenzstabilität angewiesen sind, sicherheitstechnisch interessanter.

Quelle: The Batch — 17. April · Qwen Blog

Vercel-Breach: MCP-Supply-Chain wird ernst

Der Hacker-News-Thread mit 694 Punkten: Vercel April 2026 Security Incident. Kompromittiert wurde nicht Vercel selbst, sondern eine OAuth-App eines Drittanbieters — Context.ai. Über die kompromittierte OAuth-App konnten Angreifer auf Vercel-Workspaces und darüber auf verknüpfte Linear- und GitHub-Tokens zugreifen.

Das Muster ist exemplarisch für das neue Supply-Chain-Risiko durch agentische Tool-Ökosysteme: Eine KI-Integration wird zum Schwachpunkt für die darunter liegende Plattform. MCP-Governance — also wer darf welche Tokens speichern, wie werden OAuth-Flows abgesichert, wann läuft ein Token ab — verschiebt sich damit vom "Nice-to-have" zum regulatorisch relevanten Thema. Genau in diese Lücke stößt übrigens der neue MCP-Per-User-OAuth-Token-Storage in LiteLLM v1.83.7. Und die Linux Foundation hat mit der Agentic AI Foundation (AAIF) ein Dach gegründet, das MCP, goose und AGENTS.md formal standardisieren soll.

Wer agentische Workflows in Enterprise-Umgebungen baut, sollte den Vercel-Post-Mortem sehr genau lesen. Das wird nicht der letzte Breach dieser Art gewesen sein.

Quelle: Vercel Security Incident · Hacker News Diskussion · Linux Foundation AAIF · LiteLLM Releases

OAuth-Kette mit gebrochenem Glied — Sinnbild für den Vercel/Context.ai Supply-Chain-Vorfall

Kurz notiert

  • NextDC (Australien) investiert 1,5 Milliarden australische Dollar in eine 350-MW-Erweiterung in Sydney — der Rechenzentrumsbau in Asia-Pacific bleibt auf Rekordkurs. Quelle: LLM-Stats.
  • Bundeskanzler Merz kündigt mögliche Entlastungen bei EU-KI-Regulierung an, Stichwort: industrielle KI-Anwendungen. Konkret wird es erst mit dem AI-Act-Digital-Omnibus-Trilogue am 28. April. Quelle: LLM-Stats.
  • BMDS (Bundesministerium für Digitale Services) stellt im Rahmen des SPARK-Projekts erste KI-Module als Open Source zur Verfügung. Für deutsche Behörden-Projekte ein direkt nutzbarer Baustein. Quelle: eGovernment.

Fazit

Vier Major-Releases an einem Tag, ein Figma-Schock am nächsten, und ein Breach, der die MCP-Supply-Chain endgültig ins Bewusstsein schiebt — KW 17 war das bisher dichteste Nachrichtenpaket 2026. Zwei Muster zeichnen sich ab: Erstens, die SOTA-Lücke zwischen proprietären und offenen Modellen schließt sich weiter, besonders im Coding. Zweitens, die Betriebsverantwortung für KI-Systeme wandert spürbar in Richtung Plattform-Governance — wer heute Agenten in Produktion schickt, muss morgen OAuth-Ketten, Token-Lebenszyklen und Abhängigkeits-Risiken sauber aufstellen. Nächste Woche wird spannend: Am 28. April entscheidet der Trilogue über den AI-Act-Digital-Omnibus.

Wenn du einen souveränen, DSGVO-konformen KI-Stack für dein Team aufbauen willst — wir helfen gerne. Mehr Details zu unserer Referenz-Architektur findest du im neuen Pillar-Post zu Agentic Engineering auf DSGVO-konformer Infrastruktur.

Kuratiert von SEADEV Studios — jede Woche die wichtigsten AI-News, eingeordnet für Entwickler und Entscheider.

Tags

AI NewsWeekly RoundupClaude Opus 4.7QwenGitLabLiteLLMOllamaMCPVercel Breach

Teilen

Weitere Artikel