
OpenClaw v2026.4.25, Codex App-Server, Energía Solar Espacial y Automóviles Diseñados por IA
EP041 comienza con OpenClaw v2026.4.25: una importante actualización operativa que mejora la síntesis de voz y las respuestas de voz, mueve el inicio de plugins a un registro frío persistente, expande los diagnósticos de OpenTelemetry, mejora la automatización del navegador, añade soporte PWA/Web Push en la UI de Control, fortalece los instaladores y las actualizaciones, y estrecha la integración con Codex app-server. Luego conectamos esto con OpenAI Codex CLI 0.125.0 y la dirección más amplia de la app Codex: worktrees, transportes app-server, entornos persistentes, perfiles de permisos, entre otros. Además, hablamos de la reserva de Meta de energía solar enviada por haz espacial y de cómo los fabricantes de automóviles utilizan la IA dentro del bucle de diseño, más allá de la simple generación de arte conceptual. Show notes: https://tobyonfitnesstech.com/es/podcasts/episode-41/
🎧 Listen to EpisodeABRIENDO DAILY — EPISODE 041 — 27 de abril de 2026
[00:00] INTRO / GANCHO Hoy estamos reescribiendo la pizarra porque ahora existe OpenClaw v2026.4.25, y esta es una introduccion mucho mejor que intentar forzar una historia aleatoria de M&A de IA empresarial en el primer lugar.
Este lanzamiento no es un titular limpio. Es un lanzamiento de sistemas. La voz se pone mas seria. El inicio de plugins se vuelve mas frio y rapido. La observabilidad se ampla. La automatizacion del navegador se vuelve mas segura. La configuracion se vuelve mas fluida. Los caminos de instalacion y actualizacion se vuelven mas difiiciles de romper. Y la integracion de Codex da otro paso hacia el comportamiento nativo de servidor de aplicaciones.
Luego usamos eso como puente hacia Codex en si. La aplicacion Codex ya no es solo un asistente de IDE. El conjunto de funcionalidades esta comenzando a parecerse a un espacio de trabajo de ingenieria: worktrees, hilos de servidor de aplicaciones, entornos persistentes, perfiles de permisos, automatizaciones, mercados de plugins, Git integrado, terminales y un navegador integrado para retroalimentacion visual.
Despues de eso ampliamos el enfoque: Meta esta reservando energia futura de una startup solar espacial, porque la computacion de IA se esta convirtiendo en un problema de logistica energetica. Y terminamos con automoviles usando IA en loops reales de diseno y simulacion, no solo para hacer renderizados bonitos de autos.
[02:00] HISTORIA 1 — OpenClaw v2026.4.25 Hace que el Runtime se Sienta Mas Listo para Produccion OpenClaw v2026.4.25 es un gran lanzamiento, pero el tema es sorprendentemente claro: hacer que el runtime del agente sea mas facil de operar en el mundo real.
La primera pieza obvia es la voz. Este lanzamiento mejora TTS en toda la pila. Existe /tts latest para leer en voz alta la ultima respuesta, controles con alcance de chat como /tts chat on, /tts chat off y /tts chat default, anulaciones por agente y por cuenta, y una superficie de proveedores mas grande: Azure Speech, Xiaomi, TTS de CLI local, Inworld, Volcengine o BytePlus Seed Speech, y ElevenLabs v3.
Eso importa porque la voz ya no es solo una capa de novedad. Si los agentes estan dentro de WhatsApp, Telegram, Discord, llamadas, Modo Hablar y superficies de colaboracion en vivo, la voz tiene que ser configurable por contexto. La voz que quieres para un asistente privado no necesariamente es la voz que quieres en un chat grupal, una llamada telefonica, un flujo de trabajo de Feishu o una cuenta de bot. v2026.4.25 mueve TTS hacia ese modelo mas realista: credenciales de proveedor compartidas, pero control local sobre voz, proveedor, persona, cuenta y comportamiento del canal.
La segunda pieza importante es el inicio de plugins. OpenClaw esta moviendo el inicio de plugins, descubrimiento de proveedores, metadatos de instalacion y flujos de reparacion a un registro frio persistente. En termes simples: el inicio normal no deberia necesitar rebuscar en un universo amplio de plugins e importar un monton de codigo de runtime solo para responder preguntas como que esta instalado, que proveedor posee este modelo o que opciones de configuracion estan disponibles.
Eso no es glamoroso, pero es exactamente el tipo de ingenieria que hace que un runtime se sienta rapido y predecible. El lanzamiento agrega openclaw plugins registry, cambia plugins list para leer el registro frio por defecto, actualiza el indice despues de cambios de plugins de chat y CLI, y apunta a los operadores hacia la reparacion del registro en lugar de antiguos interruptores de emergencia. El punto del producto es simple: los sistemas de plugins son poderosos solo si no convierten cada inicio, verificacion de estado o prompt de configuracion en un escaneo lento de runtime completo.
La tercera pieza es la observabilidad. La cobertura de OpenTelemetry se expande en llamadas de modelo, uso de tokens, bucles de herramientas, ejecuciones de harness, procesos exec, entrega saliente, ensamblaje de contexto y presion de memoria. El detalle importante es que el lanzamiento mantiene los atributos acotados y de baja cardinalidad. Esta intentando hacer que Grafana, Prometheus, trazas y metricas sean utiles sin filtrar prompts, respuestas, identificadores de sesion, texto de comandos, datos de destinatario o identificadores de solicitud de proveedor sin procesar.
Esa es la direccion correcta para la infraestructura de agentes. Si los agentes van a ejecutar trabajos, llamar herramientas, generar subagentes, enviar mensajes, administrar pestanas del navegador y usar modelos de multiples proveedores, los operadores necesitan responder preguntas basicas: donde fue la latencia, que agente esta quemando tokens, estan fallando las llamadas de modelo, se bloqueo un proceso exec, fallo una entrega, esta creciendo el ensamblaje de contexto, esta aumentando la presion de memoria. Pero los diagnosticos no pueden convertirse en una segunda fuga de datos.
La automatizacion del navegador tambien recibe un paso de confiabilidad significativo: URLs de pestanas mas seguras en respuestas de agentes, instantaneas de rol consciente de iframe, reserva nativa de CDP para instantaneas de rol, deteccion de clic en cursor, preparacion de adjuncion de objetivo, exploracion mas profunda de browser doctor --deep, soporte de lanzamiento de una sola vez headless y mas ajustes para hosts lentos como Raspberry Pi. Eso es una historia de constructores porque la automatizacion del navegador es uno de los lugares donde los agentes se ven magicos cuando funcionan y fragiles cuando no. Mejores referencias, mejores diagnosticos y manejo de pestanas mas seguro son las cosas aburridas que hacen que los agentes de uso de computadora sean utilizables.
La UI de Control y el flujo de configuracion tambien reciben un pulido practico: soporte de instalacion PWA, notificaciones Web Push para chat de Gateway, reparacion de primera ejecucion de Crestodian, configuracion TUI, seleccion de modo de contexto, indicadores de progreso y un saludo de inicio mas corto. Y la lista de endurecimiento de instalacion/actualizacion es enorme: comportamiento de tarea programada de Windows, rotacion de tokens de LaunchAgent de macOS, configuracion de servicio de Linux, empaquetado Docker, reinicios de servicio Node, dependencias de runtime de plugins incluidos, verificacion de gateway de versiones mixtas, advertencias de poco espacio en disco y reparaciones de doctor pos-actualizacion.
La conclusion es que v2026.4.25 no esta intentando ganar con una demo unica. Esta intentando hacer que OpenClaw sea mas confiable como sistema operativo de agente diario. La voz, los plugins, los diagnosticos, el control del navegador, la configuracion, las actualizaciones, Codex y los canales avanzaron todos.
→ https://github.com/openclaw/openclaw/releases/tag/v2026.4.25
[12:00] HISTORIA 2 — Codex Se Esta Convirtiendo en una Verdadera Plataforma de Aplicaciones La historia companion mas interesante es Codex, porque v2026.4.25 incluye algunos cambios especificos de Codex, y el changelog de Codex de OpenAI apunta en la misma direccion.
OpenClaw ahora requiere Codex app-server 0.125.0 o mas nuevo para el harness de Codex. Cubre payloads nativos de MCP PreToolUse, PostToolUse y PermissionRequest a traves del relay de hooks de OpenClaw. Ensea a los prompts y agents_list a mostrar disponibilidad nativa de Codex app-server, para que los agentes puedan preferir la ruta nativa /codex en lugar de recurrir a rutas ACP de Codex mas antiguas a menos que ACP sea explicito. Tambien corrige controles de razonamiento de Codex modernos, prepara metadatos de subagentes nativos de Codex, mejora el manejo de errores de app-server y ajusta los limites de medios y aprobacion de Codex.
Eso suena estrecho hasta que lo conectas con lo que Codex en si se esta volviendo. Codex CLI 0.125.0 de OpenAI agrega trabajo de integracion de app-server alrededor de transporte de socket Unix, reanudacion y fork amigables con paginacion, entornos persistentes, configuracion de hilo remoto y plomeria de almacenamiento de hilos, instalacion y actualizacion de mercado de plugins, y perfiles de permisos que hacen viaje redondo a traves de sesiones TUI, turnos de usuario, estado sandbox MCP, escalada de shell y APIs de app-server.
Los docs de caracteristicas de la app hacen mas clara la forma del producto. La aplicacion Codex se describe como una experiencia de escritorio para trabajar en hilos de Codex en paralelo, con proyectos, worktrees, automatizaciones, funcionalidades de Git y una terminal integrada. Puedes ejecutar tareas locales directamente en un proyecto, aislar experimentos en worktrees de Git o ejecutar trabajo en la nube remoto. El panel de diff te permite revisar cambios, comentar en linea, preparar o revertir fragmentos, hacer commits, enviar cambios y crear pull requests. La terminal esta delimitada al proyecto o worktree, y Codex puede leer la salida de la terminal, por lo que una prueba fallida o un servidor de desarrollo en ejecucion se convierte en parte del contexto del hilo.
El navegador integrado en la aplicación es otra pieza importante. Le da al usuario y a Codex una vista renderizada compartida de una página web dentro del hilo de conversación. Esto significa que una tarea de frontend puede incluir vista previa visual y comentarios visuales sin necesidad de cambiar constantemente entre el editor, la terminal, el navegador y el chat. No está diseñado para reemplazar tu navegador personal con sesión iniciada para todo, pero para servidores de desarrollo locales, vistas previas basadas en archivos y páginas públicas, cierra el ciclo entre el cambio de código, la revisión visual y las instrucciones de seguimiento.
Esta es la historia más amplia: los agentes de codificación están pasando de autocompletado y chat a superficies de trabajo. Las características que importan no son solo la calidad del modelo. Son el aislamiento, la revisión, las aprobaciones, la observabilidad, la gestión del entorno, el threading, el comportamiento de reanudar/bifurcar y la capacidad de ejecutar múltiples piezas de trabajo sin pisar el checkout actual del usuario.
Por eso el soporte de app-server de Codex importa dentro de OpenClaw. Si Codex se está convirtiendo en una plataforma de aplicaciones nativa para tareas de ingeniería, entonces OpenClaw quiere enrutar el trabajo hacia él a través del mejor arnés disponible, preservar los eventos de permisos, manejar los hooks y exponer la disponibilidad nativa a los agentes. La pregunta interesante ya no es "¿puede una IA escribir una función?" Es "¿puede un espacio de trabajo de IA mantener un trabajo de software desordenado desde la intención hasta el diff, la prueba, la revisión y el despliegue sin perder el control?"
→ https://developers.openai.com/codex/changelog → https://developers.openai.com/codex/app/features → https://developers.openai.com/codex/app/browser
[21:00] HISTORIA 3 — Meta Reserva Capacidad Solar Transmite desde el Espacio para Centros de Datos de IA
Ahora alejémonos de las operaciones de software hacia las operaciones energéticas.
Meta ha firmado una reserva de capacidad con Overview Energy, una startup que trabaja en satélites que recolectarían energía solar en órbita y transmitirían luz casi infrarroja hacia grandes granjas solares. Esas granjas solares luego convertirían la luz en electricidad usando infraestructura solar terrestre, produciendo potencialmente energía solar durante la noche para clientes de centros de datos.
El titular es extraño, pero la presión debajo es muy normal: los centros de datos de IA necesitan enormes cantidades de electricidad confiable. TechCrunch reporta que los centros de datos de Meta usaron más de 18,000 gigavatios-hora de electricidad en 2024, y que la compañía se ha comprometido a construir 30 gigavatios de fuentes de energía renovable con enfoque en solar a escala industrial. El desafío es que la computación de IA no se detiene al atardecer.
El enfoque de Overview es diferente de los conceptos clásicos de energía solar espacial por microondas. La compañía está hablando de convertir la energía solar recolectada en órbita en un amplio haz casi infrarrojo dirigido a grandes instalaciones solares, en lugar de disparar un haz denso a un receptor pequeño. La reserva de Meta es de hasta un gigavatio de energía futura. Overview planea una demostración en órbita terrestre baja en 2028 y espera comenzar a lanzar satélites para el compromiso con Meta alrededor de 2030.
El cronograma importa. Esto no es una solución a corto plazo para los cuellos de botella actuales de la red. Es una señal. Los hiperescaladores ya no solo están comprando GPUs, sitios de centros de datos y redes. Están comprando opcionalidad energética futura.
La lección para los constructores es que la estrategia de productos de IA y la estrategia energética están convergiendo. Cada agente siempre activo, generador de video, asistente en tiempo real, flujo de trabajo de largo contexto y bucle de automatización en segundo plano tiene un perfil energético. El usuario ve un botón. El operador ve una llamada al modelo. El equipo de infraestructura ve un clúster. El equipo energético ve carga, intermitencia, restricciones de red, baterías, permisos y contratos de energía a largo plazo.
Así que independientemente de si la energía solar espacial se vuelve realidad según el cronograma de Overview, el movimiento de Meta es interesante porque muestra cuán lejos está expandiéndose la búsqueda de energía para la IA. El futuro del cómputo puede depender tanto de la adquisición de energía como de los chips.
→ https://techcrunch.com/2026/04/27/meta-inks-deal-for-solar-power-at-night-beamed-from-space/
[29:00] HISTORIA 4 — Autos Diseñados con IA Pasan del Arte Conceptual a los Ciclos de Retroalimentación Industrial
La última historia es una mejor versión de una historia de IA en la industria porque no se trata solo de hacer imágenes. Se trata de acortar los ciclos de retroalimentación.
The Verge reporta sobre cómo GM, Nissan y Neural Concept están usando IA en el diseño y desarrollo de vehículos. El antiguo ciclo de desarrollo de vehículos puede tomar cinco años o más: bocetos, revisiones de diseño, modelos 3D, arcilla, simulación, ingeniería, software, restricciones de manufactura y más revisiones. Ese ciclo es doloroso cuando las regulaciones, tarifas, incentivos para VE, demanda del consumidor y requisitos de software cambian más rápido que el programa del auto.
Los diseñadores de GM están usando herramientas como Vizcom para convertir bocetos humanos en modelos y animaciones 3D más ricos más rápido. El detalle clave es que el boceto humano aún inicia el proceso. La IA está ayudando al equipo a ver posibilidades antes, comparar más direcciones y crear material visual interno sin esperar una cadena de entrega lenta.
La parte más operativa es la simulación. Neural Concept usa redes neuronales para acelerar la dinámica de fluidos computacional. The Verge reporta que Jaguar Land Rover describió trabajos aerodinámicos que solían tomar cuatro horas ahora tomando aproximadamente un minuto, y GM está desarrollando un túnel de viento virtual impulsado por IA que puede dar a los diseñadores retroalimentación casi instantánea sobre la resistencia a medida que las superficies cambian.
Ese es el cambio importante. Si la retroalimentación aerodinámica llega mientras los diseñadores aún están explorando formas, las malas direcciones pueden eliminarse antes y las prometedoras pueden refinarse antes de que el diseño se congele. La IA es valiosa no porque dibuje un auto una vez, sino porque permite al equipo probar más versiones mientras el costo del cambio aún es bajo.
El ángulo de Nissan son los vehículos definidos por software. Está usando herramientas de generación de código para tareas de software de bajo nivel como pruebas unitarias, apuntando a mejorar la velocidad y calidad del desarrollo. Eso importa porque los autos modernos son cada vez más sistemas de software, y la integración de software es donde los programas pueden retrasarse.
La precaución es que estos flujos de trabajo aún necesitan supervisión humana. La iteración más rápida puede crear mejores productos, pero también puede amplificar malas suposiciones o aumentar la presión sobre los trabajadores. El marco útil es que la IA está entrando en ciclos industriales donde la salida no es el artefacto final. La salida es una señal anterior que ayuda a los humanos a decidir qué hacer a continuación.
→ https://www.theverge.com/transportation/918411/gm-ai-car-design-nissan-neural-concept
[36:00] CIERRE Eso es todo por el episodio.
OpenClaw v2026.4.25 es el protagonista porque hace que el runtime se sienta más listo para producción en cuanto a voz, plugins, observabilidad, automatización del navegador, configuración, actualizaciones y Codex. Codex en sí se está convirtiendo en una verdadera plataforma de aplicaciones de ingeniería, con worktrees, automatizaciones, revisión de Git, hilos de app-server, perfiles de permisos y flujos de trabajo del navegador dentro de la aplicación. La apuesta solar espacial de Meta muestra lo extraño que se vuelve la planificación de infraestructura de IA cuando la energía se convierte en el cuello de botella. Y los autos diseñados por IA muestran el patrón más fuerte de IA industrial: no generación de una sola vez, sino ciclos de retroalimentación más rápidos supervisados por humanos.
→ Responde aquí para aprobar la generación de la transcripción.