Zum Hauptinhalt springen
1. April 20267 Min. LesezeitAI News

AI News KW 14: LiteLLM-Backdoor, Sora-Ende & Capybara

Lukas Obermann

Lukas Obermann

AI News KW 14: LiteLLM-Backdoor, Sora-Ende & Capybara

Ein Supply-Chain-Angriff trifft LiteLLM und erschüttert das AI-Infrastruktur-Ökosystem. OpenAI stellt Sora ein — $1 Million pro Tag für unter 500.000 Nutzer war dann doch zu viel. Und Anthropic hat versehentlich ein neues Modell geleakt, das angeblich alles Bisherige in den Schatten stellt. Willkommen in KW 14.

🔥 Top-Story: Supply-Chain-Angriff auf LiteLLM — Backdoor in AI-Infrastruktur

Supply-Chain-Angriff auf LiteLLM: Backdoor in AI-Infrastruktur

Die wohl alarmierendste Nachricht der Woche: Am 24. März hat die Hackergruppe TeamPCP die Python-Pakete LiteLLM v1.82.7 und v1.82.8 auf PyPI kompromittiert. Die manipulierten Versionen enthielten einen mehrstufigen Payload — Credential-Stealer für SSH-Keys, Cloud-Tokens und Kubernetes-Secrets, Lateral-Movement über privilegierte Pods, und eine persistente Backdoor via systemd.

Der Angriff war Teil einer größeren Kampagne: TeamPCP hatte zuvor bereits Trivy (den populären Vulnerability-Scanner) und Checkmarx kompromittiert. Über eine ungepinnte Trivy-Dependency in LiteLLMs CI/CD-Pipeline gelangten die Angreifer an den PyPI-Publishing-Token und konnten die manipulierten Pakete hochladen.

Die betroffenen Versionen waren nur rund drei Stunden online, bevor PyPI sie entfernte. Aber bei 95 Millionen Downloads pro Monat ist der Blast Radius nicht zu unterschätzen. Der Vorfall wurde als CVE-2026-33634 mit CVSS 9.4 eingestuft.

Wer ist betroffen? Laut LiteLLMs eigenem Security-Update sind Nutzer des offiziellen Docker-Images nicht betroffen — dort werden Dependencies in requirements.txt gepinnt. Gefährdet sind Entwickler, die am 24. März via pip install ohne Version-Pinning installiert oder aktualisiert haben.

Was das für uns bedeutet: LiteLLM ist eine Kernkomponente in vielen AI-Stacks — auch in unserer AI OpenStack Lösung. Wir haben unsere Deployments sofort überprüft: Unsere Kunden waren durch gepinnte Versionen und Container-basierte Deployments nicht betroffen. Aber der Vorfall zeigt, wie fragil die Supply-Chain im AI-Ökosystem ist. Wer AI-Infrastruktur betreibt, sollte jetzt seine Dependency-Pinning-Strategie und CI/CD-Absicherung überprüfen.

Quellen: Datadog Security Labs: LiteLLM kompromittiert | Kaspersky: Trivy/LiteLLM/Checkmarx | Endor Labs: TeamPCP Analyse | LiteLLM Security Update | The Hacker News: CVE-2026-33634

OpenAI stellt Sora ein — $1M pro Tag war zu teuer

Die symbolische Nachricht der Woche: OpenAI stellt Sora ein. Das Videogeneration-Tool, das Ende 2024 noch als revolutionär gefeiert wurde, verbrennt laut TechCrunch rund $1 Million pro Tag — bei weniger als 500.000 aktiven Nutzern.

Die Hintergründe sind ernüchternd: Die Nutzerzahlen kollabierten nach dem Launch-Hype. Disney hatte einen $1-Milliarden-Deal unterschrieben und erfuhr von der Einstellung weniger als eine Stunde vor der Öffentlichkeit. Und intern hat OpenAIs neue App-Chefin Fidji Simo den "Side Quests" den Kampf angesagt — alles, was nicht direkt Produktivität und Enterprise bedient, wird gestrichen.

Was bleibt: Sora 2 lebt als Modell hinter der ChatGPT-Paywall weiter. Aber als eigenständiges Produkt ist AI-Videogeneration vorerst tot — zumindest bei OpenAI. Open-Source-Alternativen wie ByteDances Helios oder Lightricks' LTX 2.3 füllen die Lücke von unten.

Quellen: CNN: OpenAI shutting down Sora | TechCrunch: Why OpenAI really shut down Sora | Variety: Disney drops $1B plans

Neue Modelle & Releases

Anthropics "Capybara"-Leak: Geheimes Mega-Modell enthüllt

Peinlich, aber aufschlussreich: Anthropic hat durch einen CMS-Konfigurationsfehler einen internen Blogpost-Entwurf öffentlich gemacht. Darin beschrieben: Ein neues Modell namens "Capybara" (interner Codename "Mythos"), das als neue Tier über Opus positioniert wird — "larger and more intelligent" als Claude Opus 4.6.

Laut dem geleakten Entwurf erzielt Capybara "dramatically higher scores" bei Coding, Academic Reasoning und Cybersecurity. Anthropic bestätigte die Existenz und nannte es einen "step change". Gleichzeitig warnt der Entwurf vor "unprecedented cybersecurity risks" — stark genug, dass Cybersecurity-Aktien nach dem Leak einbrachen.

Kein Release-Datum bekannt. Anthropic will das Modell "much more efficient" machen, bevor es öffentlich verfügbar wird.

Quellen: Fortune: Anthropic Mythos Leak | The Decoder: Dramatically higher scores | Futurism: Unprecedented cybersecurity risks

Frontier-Modell-Monat März: GPT-5.4, Gemini 3.1, Grok 4.20

Drei Frontier-Modelle in einem Monat — das gab's noch nie.

GPT-5.4 ist seit 5. März verfügbar und bringt ein vereinheitlichtes Modell für Coding, Reasoning und Computer Use in drei Varianten (Standard, Thinking, Pro). Die Highlights: 75% auf OSWorld (Computer Use — über der menschlichen Expert-Baseline von 72,4%), 1,1 Millionen Token Kontextfenster, und ein neues "Tool Search"-System für effizientes Function Calling. Preislich bei $2,50/MTok Input, $15/MTok Output.

Gemini 3.1 Pro von Google folgte mit 77,1% auf ARC-AGI-2 — dem Benchmark für neuartige Logik-Muster. Dazu kommt Gemini 3.1 Flash-Lite mit $0,25/MTok, das in sechs von zehn Benchmarks GPT-5 mini und Claude 4.5 Haiku schlägt.

Grok 4.20 von xAI ist seit dem 24. März offiziell verfügbar und bringt ein eingebautes Multi-Agenten-System mit vier spezialisierten Sub-Agenten. Der Clou: 78% Non-Hallucination-Rate — Rekord im Artificial Analysis Omniscience Test. Allerdings liegt Grok auf dem Intelligence Index mit Score 48 deutlich hinter Gemini 3.1 Pro und GPT-5.4 (beide 57).

Quellen: TechCrunch: GPT-5.4 | Google: Gemini 3.1 Pro | Artificial Analysis: Grok 4.20 | WinBuzzer: Grok Honesty Record

Open Source & Infrastructure

Cursor Composer 2: Frontier-Level? Eher Kimi K2.5 mit RL-Feintuning

Cursor hat letzte Woche Composer 2 gelauncht und als "frontier-level coding intelligence" vermarktet. Was sie nicht erwähnten: Das Modell basiert auf Kimi K2.5 von Moonshot AI, einem chinesischen Open-Source-Modell backed by Alibaba und Tencent.

Ein Entwickler fand den Model-Identifier kimi-k2p5-rl-0317-s515-fast in der API-Response. Elon Musk kommentierte trocken: "Yeah, it's Kimi 2.5." Cursor bestätigte innerhalb von Stunden und erklärte, nur ~25% des Compute käme vom Base-Modell.

Pikant: Kimis Modified MIT License verlangt prominente Attribution bei Produkten mit über $20M Monatsumsatz — Cursors Umsatz liegt laut Schätzungen beim 8-fachen dieser Schwelle. Die Kontroverse zeigt ein breiteres Problem: Westliche AI-Unternehmen sind zunehmend auf chinesische Open-Weight-Modelle angewiesen, weil Metas Llama 4 enttäuschte und Behemoth auf unbestimmte Zeit verschoben wurde.

Quellen: TechCrunch: Cursor admits Kimi base | VentureBeat: Chinese AI reliance | Data Studios: Full breakdown

KubeCon EU 2026: CNCF wird zur AI-Infrastruktur-Organisation

Die KubeCon Europe 2026 in Amsterdam war mit 13.500+ Teilnehmern die größte aller Zeiten. Der Tenor: Cloud Native ist jetzt AI Native. Die wichtigsten Neuzugänge im CNCF-Ökosystem:

llm-d kommt als Sandbox-Projekt und standardisiert LLM-Inference auf Kubernetes. Tekton erreicht Incubating-Status als Kubernetes-native CI/CD-Engine. Higress tritt als AI Gateway der nächsten Generation bei — praktisch als direkter Nachfolger von Ingress-NGINX, das ab März 2026 offiziell eingestellt wird.

NVIDIA wurde Platinum-Mitglied der CNCF, doniert seinen GPU-Treiber als Referenz-Implementierung für die DRA-API und investiert $4 Millionen über drei Jahre in GPU-Zugang für CNCF-Projekte. Sovereign AI war das Buzzword der Konferenz — direkt in unserem Wheelhouse mit unserer AI OpenStack Lösung.

Quellen: KubeCon EU 2026 | CNCF: Tekton Incubating | CNCF: Higress joins

Community-Highlight

deer-flow: ByteDances Open-Source-Agent-Framework explodiert auf GitHub

deer-flow von ByteDance hat diese Woche 53.198 GitHub-Stars erreicht (+18.158 in einer Woche) und ist damit das am schnellsten wachsende Projekt der Woche. Das "Extended-Duration Intelligent Assistant Framework" verspricht langlebige, autonome Agent-Workflows — ein Zeichen dafür, dass auch die großen Tech-Konzerne massiv in Open-Source-Agenten investieren.

Ebenfalls bemerkenswert: TradingAgents (44.148★, +7.622) für LLM-basierte Finanz-Trading-Agents und project-nomad (19.894★, +11.503) als Offline-Survival-Computer mit KI — eine Art Raspberry Pi trifft auf lokale LLMs für Extremsituationen.

Quelle: GitHub Trending Weekly

Unser Take

Diese Woche hat gezeigt, dass die AI-Branche gleichzeitig wächst und verwundbar ist. Der LiteLLM-Angriff ist ein Weckruf: Wer AI-Infrastruktur produktiv betreibt, muss Supply-Chain-Security genauso ernst nehmen wie Model-Performance. Dependency-Pinning, isolierte Build-Pipelines, regelmäßige Audits — das sind keine Nice-to-haves mehr.

Soras Ende zeigt, dass nicht jedes AI-Produkt einen nachhaltigen Markt findet. Die Technologie ist beeindruckend, aber $1M/Tag für ein halbes Million Nutzer rechnet sich schlicht nicht. OpenAI fokussiert sich jetzt auf Enterprise und Produktivität — und da liegt auch die Zukunft für die meisten AI-Anwendungen.

Und Anthropics Capybara-Leak? Spannend, aber auch bezeichnend: Wenn selbst die Firma, die als erste vor AI-Risiken warnt, ihre eigenen Systeme nicht absichern kann, sagt das viel über den Zustand der Branche. Wir sind gespannt, was Capybara/Mythos bringt — und ob Anthropic die eigenen Cybersecurity-Bedenken ernst genug nimmt, um das Modell verantwortungsvoll zu releasen.

Kuratiert von SEADEV Studios — jede Woche die wichtigsten AI-News, eingeordnet für Entwickler und Entscheider.

Tags

AI NewsAIOpen SourceLLMSupply Chain SecurityTechnology

Teilen

Weitere Artikel