
Agentisches Alles
OpenClaw schärft die Laufzeit und Chrome verwandelt Prompts in wiederverwendbare Ein‑Klick‑Tools. DeepMind verbessert die verkörperte Argumentation von Robotern, während NVIDIA eine Quanten‑KI‑Modellfamilie einführt. IBM drängt auf autonome Cybersicherheitsabwehr, und Meta sowie Broadcom intensivieren den Siliziumwettbewerb. Episodennotizen: https://tobyonfitnesstech.com/de/podcasts/episode-31/ Show notes: https://tobyonfitnesstech.com/de/podcasts/episode-31/
🎧 Listen to EpisodeOPENCLAW DAILY — EPISODE 031 — 15. April 2026
[00:00] EINFÜHRUNG / HOOK OpenClaw schärft die Runtime. Chrome verwandelt Prompts in wiederverwendbare Tools. DeepMind stattet Roboter mit besserer verkörperter Argumentation aus. NVIDIA eröffnet eine Familie von Quanten-KI-Modellen. IBM sagt, Cyberverteidigung muss autonom werden. Meta und Broadcom vertiefen den Siliziumkrieg.
[02:00] STORY 1 — OpenClaw v2026.4.14: Forward-Compat und Plattform-Härtung OpenClaw 2026.4.14 ist die Art von Release, die eine Agentenplattform auf Weise zuverlässiger macht, die Nutzer später spüren, nicht immer sofort.
Die wichtigste Plattformänderung ist die Forward-Compat-Unterstützung für die GPT-5.4-Familie, einschließlich gpt-5.4-pro, bevor die Upstream-Kataloge vollständig aufholen. Das ist wichtig, weil Modeloberflächen sich jetzt schneller bewegen als die meisten Tooling-Schichten. Wenn Ihre Runtime die Modelfamilie nicht frühzeitig erkennt, landen Sie bei unsichtbaren Brüchen: fehlende Listungen, falsche Limits oder falsch zugeordnete Reasoning-Einstellungen.
Es gibt auch eine starke Channel- und Sicherheitskomponente in diesem Release. Telegram-Topic-Namen können jetzt erlernt und als menschenlesbarer Kontext anstatt kryptischer Thread-IDs bereitgestellt werden. Discord-native /status-Aufrufe geben jetzt die echte Statuskarte zurück, anstatt auf eine Fake-Success-Bestätigung durchzufallen. Und das Gateway-Tool lehnt jetzt model-facing config.patch- und config.apply-Aufrufe ab, die neu Flags aktivieren würden, die vom Sicherheitsaudit als gefährlich eingestuft wurden.
Die Fix-Liste ist umfangreich und verdient Respekt. Ollama Embedded-Run-Timeouts werden jetzt korrekt propagiert. Bild- und PDF-Tools normalisieren Modellreferenzen, sodass gültige Ollama-Vision-Modelle nicht mehr abgelehnt werden. Attachment-Handling schließt jetzt fehlerhaft, wenn die realpath-Auflösung fehlschlägt, anstatt Allowlist-Checks stillschweigend zu schwächen. Browser-SSRF-Verhalten wurde verschärft, ohne die lokale Control-Plane zu brechen. Cron-Repair-Logik erfindet keine bogus Retry-Loops mehr. Und die UI hat marked.js durch markdown-it ersetzt, sodass bösartiges Markdown das Control-UI nicht mehr durch ReDoS einfrieren kann.
So sieht eine reife Runtime aus: weniger glamouröse Features, mehr Weigerung, auf dumme Weise zu scheitern. → https://github.com/openclaw/openclaw/releases/tag/v2026.4.14
[09:00] STORY 2 — Skills in Chrome: Vom Prompting zur persönlichen Automatisierung Googles neues Feature „Skills in Chrome" klingt zunächst bescheiden: einen guten Prompt speichern und später erneut ausführen. Aber die Produktrichtung ist größer als das.
Nutzer können jetzt einen Prompt, den sie bereits erfolgreich in Gemini in Chrome verwendet haben, als Skill speichern und auf der aktuellen Seite plus anderen ausgewählten Tabs erneut ausführen. Google bietet auch eine Starter-Bibliothek mit fertigen Skills für Aufgaben wie Produktvergleiche, Zutatenaufschlüsselungen und Einkaufsworkflows.
Der eigentliche Wandel ist konzeptionell. KI im Browser bewegt sich von „nochmal von Grund auf fragen" hin zu „einen wiederverwendbaren Workflow aufbauen". Das macht den Browser ein bisschen weniger wie ein Chat-Fenster und ein bisschen mehr wie eine leichtgewichtige Automatisierungsoberfläche. Google sagt, dass Skills die bestehenden Chrome-Sicherheits- und Datenschutzgarantien erben, einschließlich Bestätigungen vor sensiblen Aktionen wie E-Mail-Versand oder Kalenderereignissen.
Wenn sich das durchsetzt, wird Prompting weniger zur einmaligen Darbietung und mehr zu einem dauerhaften persönlichen Toolkit. → https://blog.google/products-and-platforms/products/chrome/skills-in-chrome/
[14:30] STORY 3 — Gemini Robotics-ER 1.6: Bessere verkörperte Argumentation für echte Roboter DeepMinds Gemini Robotics-ER 1.6 ist ein direkter Versuch, den Teil der Robotik zu verbessern, der am häufigsten heruntergespielt wird: Argumentation über die physische Welt, bevor inside gehandelt wird.
Laut DeepMind verbessert das neue Modell räumliches Reasoning, Multi-View-Verständnis, Aufgabenplanung, Zeigen, Zählen und Erfolgserkennung. Die interessanteste Ergänzung ist das Instrumentenablesen. Das Modell kann jetzt Robotern helfen, Anzeigen und Schaugläser zu interpretieren – eine Fähigkeit, die aus der Zusammenarbeit mit Boston Dynamics hervorging.
Das ist wichtig, weil es weg von Spielzeug-Demos und hin zu industriellen Umgebungen zeigt, wo Roboter Gerätezustände lesen müssen, nicht nur eine Banane auf einem Tisch erkennen. DeepMind macht das Modell auch über die Gemini API und AI Studio zugänglich, was bedeutet, dass dies kein reines Forschungstheater ist. Es ist eine Entwickler-Oberfläche.
Das breitere Signal: Der nächste Schritt bei Agenten-KI ist nicht nur besseres Code und besseres Chatten. Es ist besseres Urteilsvermögen über die physische Umgebung. → https://deepmind.google/blog/gemini-robotics-er-1-6/
[20:00] STORY 4 — NVIDIA Ising: KI wird Teil der Quanten-Kontrollschicht NVIDIA kündigte Ising an, eine Familie von Open-Source-Modellen für Quantenprozessor-Kalibrierung und Quantenfehlerkorrektur-Dekodierung. Dieser Satz klingt nach einer Nische, aber die strategische Idee ist groß.
Quantencomputing hat ein Hardwareproblem und ein Kontrollproblem. Die Hardware ist fragil, rauschbehaftet und schwierig zu skalieren. NVIDIAs Ansatz ist, dass KI helfen kann, einen Teil dieses Kontrollproblems zu lösen, indem sie Messungen ausliest, Kalibrierung anleitet und die Geschwindigkeit und Genauigkeit der Dekodierung während der Fehlerkorrektur verbessert.
NVIDIA claims up to 2.5x faster performance and 3x higher accuracy versus traditional decoding approaches, and it says labs including Harvard, Fermilab, Berkeley's Advanced Quantum Testbed, and several commercial players are already adopting parts of the stack.
NVIDIA beansprucht bis zu 2,5x schnellere Leistung und 3x höhere Genauigkeit gegenüber traditionellen Dekodierungsansätzen und sagt, dass Labore einschließlich Harvard, Fermilab, Berkeley's Advanced Quantum Testbed und mehrere kommerzielle Akteure bereits Teile des Stacks übernehmen.
Unabhängig davon, ob Quanten-Zeitpläne überhypt bleiben, ist diese Geschichte wichtig, weil sie zeigt, wie KI tiefer in die Betriebsschicht komplexer Systeme eingebettet wird. → https://nvidianews.nvidia.com/news/nvidia-launches-ising-the-worlds-first-open-ai-models-to-accelerate-the-path-to-useful-quantum-computers
[25:00] STORY 5 — IBMs Cyber-Pitch: Agentische Angriffe erfordern autonome Verteidigung IBM's neuer Cybersicherheits-Vorstoß beginnt mit einer Prämisse, die schwer zu widerlegen ist: Frontier-KI-Modelle verkleinern die Zeit, Expertise und Kosten, die für die Durchführung raffinierter Angriffe benötigt werden.
IBM reagiert mit zwei Elementen. Erstens ein neues Assessment-Angebot, das Unternehmen helfen soll, Frontier-Modell-Bedrohungsbelichtung, Sicherheitsschwächen und wahrscheinliche Exploit-Pfade zu identifizieren. Zweitens IBM Autonomous Security, ein Multi-Agenten-Service, der auf die Automatisierung von Schwachstellenbehebung, Sicherheitsrichtlinien-Durchsetzung, Anomalieerkennung und Bedrohungseindämmung ausgelegt ist.
Der wichtige Teil hier ist nicht das Branding. Es ist der architektonische Anspruch: Sicherheitsprogramme, die als loses Sammelsurium von Dashboards und manuellen Prozessen aufgebaut sind, können nicht mithalten, wenn die Angriffs Capabilities auf Maschinengeschwindigkeit beschleunigen. In dieser Welt wird „KI-gestützte Verteidigung" aufhört, ein Slogan zu sein und zur Grundvoraussetzung. → https://newsroom.ibm.com/2026-04-15-IBM-Announces-New-Cybersecurity-Measures-to-Help-Enterprises-Confront-Agentic-Attacks
[30:00] STORY 6 — Meta und Broadcom: Das KI-Rennen kollabiert weiter in Hardware Meta kündigte eine erweiterte Partnerschaft mit Broadcom zur gemeinsamen Entwicklung mehrerer Generationen von Next-Generation-MTIA-Chips an, seinen benutzerdefinierten Trainings- und Inferenzbeschleunigern.
Meta sagt, dass der Deal ein erstes Engagement von mehr als einem Gigawatt als erste Phase eines Multi-Gigawatt-Rollouts beinhaltet. Broadcom wird in Chipdesign, Advanced Packaging und Networking beitragen, während Meta MTIA weiterhin als zentralen Teil seiner Infrastrukturstrategie für Ranking, Empfehlungen und generative KI-Workloads positioniert.
Der Subtext ist die eigentliche Geschichte. Der Frontier-KI-Wettbewerb kollabiert vertikal. Es reicht nicht mehr aus, ein gutes Modell zu haben, oder sogar einen guten Cluster. Die Gewinner wollen zunehmend Kontrolle über kundenspezifisches Silizium, Networking-Fabric, Packaging und Deployment-Ökonomie. Das ist der Modellkrieg, der zu einem Infrastruktur-Souveränitätskrieg wird. → https://about.fb.com/news/2026/04/meta-partners-with-broadcom-to-co-develop-custom-ai-silicon/
[34:00] OUTRO / ABSCHLUSS Das ist die Landkarte heute: eine straffere Runtime, wiederverwendbare Browser-KI, smartere Roboter, Quanten-Kontrollmodelle, autonome Cyberverteidigung und ein tieferer Hardware-Landgrab darunter.
→ Antworten Sie hier, um die Transkriptgenerierung zu genehmigen.