[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"blog-content-ai-news-der-woche-kw-13":3},"\u003Cp>97 Millionen SDK-Downloads pro Monat. Autonome Zahlungen durch KI-Agenten. 397-Milliarden-Parameter-Modelle auf einem MacBook. Diese Woche hat sich einiges getan — und das meiste davon verändert, wie wir über KI-Infrastruktur nachdenken. Hier ist unser Überblick.\u003C\u002Fp>\n\n\u003Ch2>🔥 Top-Story: MCP-Protokoll bekommt Roadmap 2026 — und Stripe macht Agenten zahlungsfähig\u003C\u002Fh2>\n\u003Cp>Zwei Entwicklungen, die zusammengehören: Das \u003Ca href=\"https:\u002F\u002Fmodelcontextprotocol.io\u002Fdevelopment\u002Froadmap\" target=\"_blank\" rel=\"noopener noreferrer\">Model Context Protocol (MCP)\u003C\u002Fa> hat im Februar die 97-Millionen-Marke bei monatlichen SDK-Downloads überschritten. Was als internes Anthropic-Experiment startete, ist zum De-facto-Standard für die Kommunikation zwischen KI-Modellen und externen Tools geworden.\u003C\u002Fp>\n\u003Cp>Die \u003Ca href=\"https:\u002F\u002Fblog.modelcontextprotocol.io\u002Fposts\u002F2026-mcp-roadmap\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">frisch veröffentlichte Roadmap 2026\u003C\u002Fa> definiert vier Schwerpunkte: Transport-Skalierbarkeit (Streamable HTTP, Session-Management), Agent-Kommunikation (Tasks-Primitive für asynchrone Workflows), Governance-Reife (Contributor Ladder, Working-Group-Delegation) und Enterprise-Readiness (Audit Trails, SSO-Integration, Gateway-Verhalten).\u003C\u002Fp>\n\u003Cp>Parallel dazu hat \u003Ca href=\"https:\u002F\u002Fwww.prnewswire.com\u002Fnews-releases\u002Fsurepath-ai-advances-real-time-model-context-protocol-mcp-policy-controls-to-govern-ai-actions-302709875.html\" target=\"_blank\" rel=\"noopener noreferrer\">SurePath AI MCP Policy Controls\u003C\u002Fa> vorgestellt — Echtzeit-Governance für MCP-Server und Tools. Die Idee: Bevor ein Agent ein Tool aufruft, prüft SurePath, ob das laut Unternehmens-Policy erlaubt ist. Das klingt nach Enterprise-Bürokratie, ist aber genau das, was für produktive MCP-Deployments fehlt.\u003C\u002Fp>\n\u003Cp>Und dann Stripe: Mit dem \u003Ca href=\"https:\u002F\u002Fstripe.com\u002Fblog\u002Fmachine-payments-protocol\" target=\"_blank\" rel=\"noopener noreferrer\">Machine Payments Protocol (MPP)\u003C\u002Fa> gibt es jetzt einen offenen Standard für autonome Agenten-Zahlungen. Ein Agent autorisiert sich einmal, füllt ein Konto auf, und danach läuft jeder API-Call oder Datenverbrauch als automatische Echtzeit-Abrechnung — Mikrotransaktionen, Recurring, Pay-as-you-go. \u003Ca href=\"https:\u002F\u002Fwww.pymnts.com\u002Fnews\u002Fpayment-methods\u002F2026\u002Fstripe-backed-protocol-lets-ai-agents-transact-autonomously\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Visa, Anthropic, OpenAI, Mastercard und Shopify\u003C\u002Fa> sind bereits an Bord.\u003C\u002Fp>\n\u003Cp>Warum das zusammengehört: MCP definiert, was Agenten \u003Cem>tun\u003C\u002Fem> können. MPP definiert, wie sie dafür \u003Cem>bezahlen\u003C\u002Fem>. Zusammen entsteht gerade die Infrastruktur für eine echte Agenten-Ökonomie.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quellen:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Fblog.modelcontextprotocol.io\u002Fposts\u002F2026-mcp-roadmap\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">MCP Roadmap 2026\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fthenewstack.io\u002Fmodel-context-protocol-roadmap-2026\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">The New Stack: MCP Production Growing Pains\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fstripe.com\u002Fblog\u002Fmachine-payments-protocol\" target=\"_blank\" rel=\"noopener noreferrer\">Stripe MPP\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fwww.pymnts.com\u002Fnews\u002Fpayment-methods\u002F2026\u002Fstripe-backed-protocol-lets-ai-agents-transact-autonomously\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">PYMNTS: Stripe-Backed Protocol\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fwww.prnewswire.com\u002Fnews-releases\u002Fsurepath-ai-advances-real-time-model-context-protocol-mcp-policy-controls-to-govern-ai-actions-302709875.html\" target=\"_blank\" rel=\"noopener noreferrer\">SurePath AI MCP Controls\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch2>Neue Modelle &amp; Releases\u003C\u002Fh2>\n\u003Cp>\u003Cimg src=\"\u002Fimages\u002Fblog\u002Fweekly-ai-news-kw13-flash-moe.webp\" alt=\"Flash-MoE: 397B-Parameter auf dem Laptop\" loading=\"lazy\">\u003C\u002Fp>\n\n\u003Ch3>Flash-MoE: 397B-Parameter auf dem Laptop\u003C\u002Fh3>\n\u003Cp>Das hat diese Woche auf Hacker News eingeschlagen: \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdanveloper\u002Fflash-moe\" target=\"_blank\" rel=\"noopener noreferrer\">Flash-MoE\u003C\u002Fa> lässt Qwen3.5-397B auf einem MacBook Pro mit 48 GB RAM laufen — mit 5,5 Tokens pro Sekunde bei nur 5,5 GB Speicherverbrauch.\u003C\u002Fp>\n\u003Cp>Der Trick nutzt die Mixture-of-Experts-Architektur: Von 512 Experten pro Layer werden nur 4 pro Token aktiviert. Flash-MoE streamt genau diese vier vom SSD durch eine handoptimierte Metal-Pipeline — kein Python, kein Framework, nur C, Objective-C und Metal Shader. Das Ganze basiert auf \u003Ca href=\"https:\u002F\u002Fsimonwillison.net\u002F2026\u002FMar\u002F18\u002Fllm-in-a-flash\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">Apples \"LLM in a Flash\"-Paper von 2023\u003C\u002Fa>, ist aber die erste Open-Source-Implementation, die brauchbare Geschwindigkeiten auf Consumer-Hardware liefert.\u003C\u002Fp>\n\u003Cp>Für uns bei SEADEV ist das spannend, weil es zeigt: Die Hardware-Anforderungen für große Modelle sinken schneller als erwartet. Wer heute in eine lokale KI-Infrastruktur investiert — ob eigene Hardware oder über \u003Ca href=\"\u002Fde-at\u002Fcontact\">unser Rechenzentrum\u003C\u002Fa> — wird in wenigen Monaten deutlich mehr Leistung pro Euro bekommen.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quelle:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdanveloper\u002Fflash-moe\" target=\"_blank\" rel=\"noopener noreferrer\">GitHub: Flash-MoE\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Faiforautomation.io\u002Fnews\u002F2026-03-19-flash-moe-run-397b-ai-model-macbook-48gb-ram\" target=\"_blank\" rel=\"noopener noreferrer\">AI for Automation: Flash-MoE auf MacBook\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch3>LiteLLM v1.82.6: GPT-5.4 und bessere Anthropic-Integration\u003C\u002Fh3>\n\u003Cp>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FBerriAI\u002Flitellm\u002Freleases\" target=\"_blank\" rel=\"noopener noreferrer\">LiteLLM\u003C\u002Fa> hat in KW13 gleich mehrere Patch-Releases geschoben. Die Highlights von v1.82.6: Support für GPT-5.4 Mini und Nano, verbesserte Anthropic-Integration mit Environment-Variablen für Thinking-Blöcke, vLLM Batch + Files API Support und dynamisches Rate Limiting auf Team-Ebene.\u003C\u002Fp>\n\u003Cp>Für alle, die LiteLLM als Multi-Model-Router einsetzen — was wir in unserer AI OpenStack Lösung tun — wird das Routing zwischen lokalen und Cloud-Modellen damit nochmal flexibler. Besonders das dynamische Rate Limiting ist praktisch, wenn verschiedene Teams unterschiedliche Kontingente brauchen.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quelle:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FBerriAI\u002Flitellm\u002Freleases\" target=\"_blank\" rel=\"noopener noreferrer\">LiteLLM Releases auf GitHub\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch2>Open Source &amp; Infrastructure\u003C\u002Fh2>\n\n\u003Ch3>Windmill: Workflows as Code v2\u003C\u002Fh3>\n\u003Cp>\u003Ca href=\"https:\u002F\u002Fwww.windmill.dev\u002Fchangelog\u002Fworkflows-as-code-v2\" target=\"_blank\" rel=\"noopener noreferrer\">Windmill\u003C\u002Fa> hat mit \"Workflows as Code v2\" ein großes Update rausgehauen. Die neuen Primitiven — \u003Ccode>workflow()\u003C\u002Fcode>, \u003Ccode>task()\u003C\u002Fcode>, \u003Ccode>step()\u003C\u002Fcode>, \u003Ccode>sleep()\u003C\u002Fcode>, \u003Ccode>waitForApproval()\u003C\u002Fcode>, \u003Ccode>parallel()\u003C\u002Fcode> — ermöglichen Checkpoint-basierte Orchestrierung. Das Besondere: Der Worker suspendiert zwischen Tasks komplett und gibt seinen Slot frei. Kein Deadlock, unbegrenzte Parallelität.\u003C\u002Fp>\n\u003Cp>Für uns ist Windmill ein zentraler Baustein in unserer AI OpenStack Lösung — dort orchestriert es agentische Workflows, Daten-Pipelines und Automatisierungen. Das Checkpoint-System löst ein reales Problem: Bei langen Workflows mit Human-in-the-Loop-Approvals oder API-Wartezeiten wurden bisher Worker-Slots blockiert. Das ist jetzt Geschichte.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quelle:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Fwww.windmill.dev\u002Fchangelog\u002Fworkflows-as-code-v2\" target=\"_blank\" rel=\"noopener noreferrer\">Windmill Changelog: Workflows as Code v2\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch3>BMDS startet \"Agentic AI Hub\" mit 18 Pilotprojekten\u003C\u002Fh3>\n\u003Cp>Das \u003Ca href=\"https:\u002F\u002Fbmds.bund.de\u002Faktuelles\u002Fpressemitteilungen\u002Fdetail\u002Fagentic-ai-hub-pilotierung-in-kommunen-startet\" target=\"_blank\" rel=\"noopener noreferrer\">Bundesministerium für Digitales und Staatsmodernisierung (BMDS)\u003C\u002Fa> hat den \"Agentic AI Hub\" gestartet — 18 Pilotprojekte, bei denen KI-Agenten Verwaltungsvorgänge beschleunigen sollen. 400 Startups und knapp 200 Kommunen hatten sich beworben.\u003C\u002Fp>\n\u003Cp>Konkret sollen autonome Agenten Anträge auf Vollständigkeit prüfen, fehlende Dokumente nachfordern und Vorschläge für Behördenentscheidungen machen. Das ist ambitioniert — und \u003Ca href=\"https:\u002F\u002Fnetzpolitik.org\u002F2026\u002Fmaschinen-sollen-papierkram-erledigen-kollege-ki-steht-auf-wackeligen-beinen\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">netzpolitik.org\u003C\u002Fa> weist zurecht auf verfassungsrechtliche Bedenken hin, besonders wenn KI-Systeme Entscheidungen vorbereiten, die Grundrechte betreffen.\u003C\u002Fp>\n\u003Cp>Trotzdem: Dass Deutschland hier nicht nur redet, sondern 18 konkrete Piloten startet, ist ein gutes Signal. Und für Organisationen im DACH-Raum zeigt es, dass das Thema KI-Agenten nicht nur ein Silicon-Valley-Hype ist.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quellen:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Fbmds.bund.de\u002Faktuelles\u002Fpressemitteilungen\u002Fdetail\u002Fagentic-ai-hub-pilotierung-in-kommunen-startet\" target=\"_blank\" rel=\"noopener noreferrer\">BMDS: Agentic AI Hub\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fnetzpolitik.org\u002F2026\u002Fmaschinen-sollen-papierkram-erledigen-kollege-ki-steht-auf-wackeligen-beinen\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">netzpolitik.org: Kollege KI\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch2>DACH &amp; Regulierung\u003C\u002Fh2>\n\n\u003Ch3>EU AI Act: High-Risk-Deadlines verschoben auf 2027\u002F2028\u003C\u002Fh3>\n\u003Cp>Der \u003Ca href=\"https:\u002F\u002Fwww.consilium.europa.eu\u002Fen\u002Fpress\u002Fpress-releases\u002F2026\u002F03\u002F13\u002Fcouncil-agrees-position-to-streamline-rules-on-artificial-intelligence\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">EU-Rat hat am 13. März seine Position\u003C\u002Fa> zur Timeline-Verlängerung des AI Acts festgelegt. Die neuen Daten: \u003Cstrong>2. Dezember 2027\u003C\u002Fstrong> für eigenständige Hochrisiko-KI-Systeme (Beschäftigungs-Screening, Kreditscoring, biometrische Identifikation) und \u003Cstrong>2. August 2028\u003C\u002Fstrong> für Hochrisiko-KI in Produkten (Medizingeräte, Maschinen, Aufzüge).\u003C\u002Fp>\n\u003Cp>Am 19. März hat das \u003Ca href=\"https:\u002F\u002Fppc.land\u002Feu-parliament-committee-backs-ai-act-delay-with-fixed-2027-deadline\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">EU-Parlament mit 101 zu 9 Stimmen\u003C\u002Fa> diese Richtung bestätigt. Der Grund: Die ursprüngliche Regelung, bei der Verpflichtungen erst nach einer Kommissionsentscheidung über Standardbereitschaft aktiv werden, bot zu wenig Planungssicherheit.\u003C\u002Fp>\n\u003Cp>Für Unternehmen im DACH-Raum bedeutet das: Mehr Vorbereitungszeit, ja — aber auch die Gefahr, dass Compliance-Investments aufgeschoben werden. Wer jetzt schon KI einsetzt, sollte trotzdem nicht warten. Die Grundanforderungen (Transparenz, Dokumentation, Risikomanagement) gelten unabhängig von den Deadlines.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quellen:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Fwww.consilium.europa.eu\u002Fen\u002Fpress\u002Fpress-releases\u002F2026\u002F03\u002F13\u002Fcouncil-agrees-position-to-streamline-rules-on-artificial-intelligence\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">EU-Rat: Council Position\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fppc.land\u002Feu-parliament-committee-backs-ai-act-delay-with-fixed-2027-deadline\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">PPC Land: Parliament Committee\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch2>Community-Highlight\u003C\u002Fh2>\n\n\u003Ch3>MinIO: Vom Wartungsmodus zum Archiv\u003C\u002Fh3>\n\u003Cp>Was als \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fminio\u002Fminio\u002Fissues\u002F21714\" target=\"_blank\" rel=\"noopener noreferrer\">leiser Wechsel in den Maintenance Mode\u003C\u002Fa> im Dezember 2025 begann, ist jetzt endgültig: MinIO hat sein Open-Source-Repository \u003Ca href=\"https:\u002F\u002Fnews.ycombinator.com\u002Fitem?id=46136023\" target=\"_blank\" rel=\"noopener noreferrer\">am 13. Februar 2026 archiviert\u003C\u002Fa>. Keine neuen Features, keine Community-Beiträge, nur noch Case-by-Case Security Fixes.\u003C\u002Fp>\n\u003Cp>Die Alternative? MinIO AIStor — die kommerzielle Version. Für Self-Hosted-Setups, die auf MinIO als Object Storage gesetzt haben, heißt das: Migrationsplanung starten. Alternativen wie SeaweedFS, Garage oder Ceph-RGW sind einen Blick wert. Es ist ein weiteres Beispiel dafür, wie Open-Source-Projekte unter dem Druck stehen, ein tragfähiges Geschäftsmodell zu finden — und Nutzer im Regen stehen lassen, wenn das nicht klappt.\u003C\u002Fp>\n\u003Cp>\u003Cstrong>Quellen:\u003C\u002Fstrong> \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fminio\u002Fminio\u002Fissues\u002F21714\" target=\"_blank\" rel=\"noopener noreferrer\">GitHub Issue: MinIO Maintenance Mode\u003C\u002Fa> | \u003Ca href=\"https:\u002F\u002Fwww.infoq.com\u002Fnews\u002F2025\u002F12\u002Fminio-s3-api-alternatives\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">InfoQ: MinIO Alternatives\u003C\u002Fa>\u003C\u002Fp>\n\n\u003Ch2>Unser Take\u003C\u002Fh2>\n\u003Cp>Diese Woche zeigt, wie schnell sich das Agenten-Ökosystem professionalisiert. MCP ist nicht mehr \"das neue Ding\" — mit 97 Millionen Downloads und einer strukturierten Roadmap ist es Infrastruktur. Stripe MPP macht Agenten wirtschaftlich handlungsfähig. SurePath bringt Governance. Und die KubeCon EU — die \u003Ca href=\"https:\u002F\u002Fevents.linuxfoundation.org\u002Fkubecon-cloudnativecon-europe\u002F\" target=\"_blank\" rel=\"noopener noreferrer\">diese Woche in Amsterdam\u003C\u002Fa> startet — hat erstmals einen eigenen \"Agentics Day\".\u003C\u002Fp>\n\u003Cp>Gleichzeitig passiert viel an der Basis: Flash-MoE zeigt, dass die Hardware-Anforderungen für große Modelle sinken. Windmills Checkpoint-Orchestrierung löst reale Probleme bei agentischen Workflows. Und der BMDS Agentic AI Hub beweist, dass selbst die deutsche Verwaltung an KI-Agenten glaubt — auch wenn der Weg von 18 Pilotprojekten zu flächendeckendem Einsatz noch lang ist.\u003C\u002Fp>\n\u003Cp>Für uns bei SEADEV bestätigt das den Ansatz, den wir mit unserer AI OpenStack Lösung verfolgen: Offene Standards (MCP, vLLM, LiteLLM, Windmill), eigene Infrastruktur, keine Vendor-Lock-ins. Wenn du überlegst, wie KI-Agenten in deiner Organisation aussehen könnten — \u003Ca href=\"\u002Fde-at\u002Fcontact\">lass uns reden\u003C\u002Fa>.\u003C\u002Fp>\n\u003Cp>\u003Cem>Kuratiert von SEADEV Studios — jede Woche die wichtigsten AI-News, eingeordnet für Entwickler und Entscheider.\u003C\u002Fem>\u003C\u002Fp>\n"]