OpenClaw v2026.4.26 y la Pila de Inferencia de IA — Episode 42 cover art
Episode 42·28 de abril de 2026·40:23

OpenClaw v2026.4.26 y la Pila de Inferencia de IA

EP042 comienza con OpenClaw v2026.4.26: contratos de transporte realtime del navegador, tokens limitados de Google Live, sesiones de relay de Gateway, soporte de proveedor Cerebras incluido, metadatos de enrutamiento de proveedor propiedad del manifest, tipos de input de embedding asimétricos, prefijos de recuperación para modelos de embedding locales, mutación de plugins más segura, configuración de encriptación Matrix, compactación de transcripción y herramientas de migración. Luego profundizamos más que en episodios anteriores en la infraestructura de inferencia: la inferencia alojada respaldada por LPU de Groq, waf de Cerebras y servidores de modelos locales. Show notes: https://tobyonfitnesstech.com/es/podcasts/episode-42/

🎧 Listen to Episode

OPENCLAW DAILY — EPISODE 042 — April 28, 2026

[00:00] INTRO / HOOK OpenClaw v2026.4.26 lidera el episodio, pero esto no es solo un resumen de lanzamiento. El trabajo del proveedor Cerebras en esta versión, los metadatos de enrutamiento propios del manifiesto, los transportes de voz en tiempo real, los controles de búsqueda de memoria y las correcciones de modelos locales son el punto de partida para una revisión técnica más profunda de la pila de inferencia.

[02:00] STORY 1 — OpenClaw v2026.4.26 Hace que Realtime, Provider Routing, Memory, Plugins, Security y Migration Sean Más Operables Enfocarse en superficies concretas de runtime. Realtime voice obtiene un contrato de transporte genérico para navegador, las sesiones de Google Live browser Talk usan tokens efímeros restringidos, y los proveedores de realtime solo de backend pueden pasar por un relay de Gateway en lugar de filtrar credenciales de proveedor de larga duración al navegador. El enrutamiento de proveedores se vuelve más explícito: Cerebras se incluye como plugin de proveedor, los catálogos de modelos y los metadatos de endpoints se mueven hacia manifiestos, y las pistas de familia de solicitudes compatibles con OpenAI viven más cerca del proveedor que los posee. La búsqueda de memoria obtiene controles de embedding asimétricos para que las consultas y las entradas de documentos se puedan manejar de manera diferente, además de prefijos de recuperación para modelos de embedding locales como nomic-embed-text, qwen3-embedding y mxbai-embed-large. La operación de plugins se vuelve más segura a través de ayudantes de mutación transaccional, política de seguimiento de reinicio, invalidación de caché basada en revisiones, raíces de dependencia en capas, destinos de instalación conscientes del perfil, manejo más seguro de enlaces simbólicos y escaneos de instalación que omiten archivos de prueba sin perder puntos de entrada de runtime. Las superficies de seguridad y administración incluyen configuración de cifrado Matrix, diffs de configuración sin procesar redactados, comportamiento de rotación de tokens más seguro y aplicación más estricta de lista de permitidos de subagentes. El trabajo de migración y resiliencia incluye disparadores de compactación de transcripciones, herramientas de importación de Claude y Hermes, verificación de actualizaciones, correcciones de control del navegador, certificados CA de Docker, comportamiento de proxy y refuerzo de gateway. El audio debe explicar por qué estos son cambios de runtime de producción en lugar de características aisladas: la voz necesita límites de confianza entre navegador/backend, el crecimiento de proveedores necesita metadatos en lugar de tablas de enrutamiento codificadas, la calidad de recuperación depende de convenciones de embedding específicas del modelo, los plugins necesitan mutación de configuración segura y raíces de dependencia predecibles, y las herramientas de migración importan cuando los usuarios traen configuraciones, memoria, proveedores, skills y credenciales de otros entornos de asistente. Tratar esto como la configuración técnica para la inmersión profunda del proveedor que sigue, con ejemplos explícitos en lugar de redacción solo de resumen.

[14:00] STORY 2 — Inmersión Técnica y Revisión: Groq, Cerebras, LM Studio, Ollama, OpenRouter, LiteLLM y Gateways Locales Explicar las capas primero: modelo, runtime, proveedor, enrutador y gateway. Luego revisar Groq como inferencia alojada respaldada por LPU, Cerebras como inferencia alojada a escala de oblea, LM Studio como gestor de modelos de escritorio/local/SDK/servidor compatible con OpenAI, Ollama como runner local más acceso por suscripción en la nube, OpenRouter como marketplace de modelos y capa de enrutamiento, LiteLLM como gateway de proveedor autoalojable, y endpoints locales o alojados directos como rutas optimizadas de propósito único. Incluir calificaciones editoriales de costo por valor y para qué es mejor cada uno.

[42:00] STORY 3 — El Filtro de Privacidad de OpenAI Convierte la Redacción de PII en un Paso de Modelo Local y Ajustable Explicar la clasificación de tokens local, detección de spans de contexto largo, decodificación restringida, redacción específica por categoría y despliegue antes del ensamblaje del prompt, indexación de recuperación, exportación de logs, flujos de trabajo de soporte y compartición de documentos.

[48:00] STORY 4 — Las Zonas de IA de Google Cloud Hacen de la Localidad del Acelerador una Restricción de Despliegue de Primera Clase Explicar zonas intensivas en aceleradores, relaciones de zonas padre, cuota/acceso, localidad de almacenamiento, buckets regionales duraderos, capas de caché y scratch zonales, Rapid Cache, programación GKE y por qué el placement de IA ahora tiene que diseñarse con la ruta de datos.

[55:00] OUTRO Resumir la conclusión técnica: el mundo de la inferencia no es un simple dropdown de modelos. Es hardware personalizado, runtimes locales, marketplaces, gateways, filtros de privacidad y zonas de aceleradores. La elección correcta depende de latencia, previsibilidad de costos, elección de modelos, privacidad y control operacional.

🎙 Never miss an episode — subscribe now

🎙 Subscribe to AgentStack Daily