
OpenClaw v2026.4.29, Dirección de Ejecución Activa, Memoria Consciente de Personas, Procedencia de Modelos y Seguridad de Cuenta
El episodio comienza con OpenClaw v2026.4.29. Esta versión añade valores predeterminados de dirección de ejecución activa, aplicación de respuestas visibles, metadatos de enrutamiento de subagentes generados, compromisos de seguimiento opcionales, metadatos wiki de memoria consciente de personas, filtros de Memoria Activa por conversación, recuperación parcial en tiempo de espera, RPC de vista previa de REM limitado, incorporación de proveedor NVIDIA y metadatos del catálogo, paridad de pensamiento Bedrock Opus 4.7, flujos de trabajo de escaneo OpenGrep, comportamiento de herramientas de perfil restrictivo más estricto, diagnósticos de inicio y modelo reutilizable. Show notes: https://tobyonfitnesstech.com/es/podcasts/episode-44/
🎧 Listen to EpisodeOPENCLAW DAILY — EPISODIO 044 — 1 de mayo de 2026
[00:00] INTRO / GANCHO OpenClaw v2026.4.29 lidera el episodio porque cambia el comportamiento operativo concreto de inmediato: dirección de ejecuciones activas, enrutamiento de respuestas visibles, compromisos respaldados por heartbeat, memoria consciente de personas, comportamiento de catálogo de modelos, perfiles de herramientas más estrictos, recuperación de inicio, y confiabilidad de canales.
Este lanzamiento cambia mucho comportamiento operativo. El encolamiento de ejecuciones activas ahora por defecto direcciona en lugar del antiguo encolamiento uno a la vez. Las respuestas visibles pueden aplicarse a través de la herramienta de mensajes. Los compromisos de seguimiento se vuelven opcionales como trabajo de heartbeat con límites de extracción y entrega. Los eventos de subagentes llevan metadatos de enrutamiento. La memoria gana metadatos wiki conscientes de personas, vistas de procedencia, filtros de Memoria Activa por conversación, recuperación parcial en timeout, y diagnósticos de vista previa de REM acotada. La cobertura de proveedores se expande a través del onboarding de NVIDIA, rutas de modelo y autenticación más rápidas respaldadas por manifest, paridad de pensamiento de Bedrock Opus 4.7, y comportamiento de replay compatible con Codex/OpenAI más seguro. Seguridad y operaciones agregan manejo de herramientas de perfil restrictivo más estricto, escaneo de OpenGrep, política de triaje GHSA más precisa, manejo de owner-scope más seguro, automatización de onboarding de Docker, y opt-in de IPv6 ULA para web-fetch en stacks de proxy confiables.
La lista de correcciones también es muy operativa: inicio de host lento, catálogos de modelos reutilizables, diagnósticos de preparación de event-loop, reparación de dependencias de runtime, recuperación de sesiones obsoletas, caches de actualización con alcance de versión, límites de Slack Block Kit, resiliencia de proxy y polling de Telegram, comportamiento de inicio/rate-limit de Discord, entrega y liveness de WhatsApp, medios y streams de receive de Signal, manejo de mensajes vacíos de Feishu, bordes de Matrix y Teams, y prevención de restart-loop de systemd.
Después de la inmersión profunda en el lanzamiento, el episodio cubre dos historias de seguridad con superficies técnicas primarias: el Kit de Procedencia de Modelos de Cisco para verificación de linaje de modelos, y Seguridad de Cuenta Avanzada de OpenAI para protección de cuentas de ChatGPT y Codex resistente a phishing.
[02:30] HISTORIA 1 — OpenClaw v2026.4.29 Hace que las Ejecuciones Activas, Memoria, Proveedores, Inicio, Seguridad y Canales Sean Más Controlables Comencemos con el comportamiento de ejecuciones activas, porque aquí es donde el lanzamiento cambia la interacción día a día con el agente.
OpenClaw ahora tiene por defecto el encolamiento de ejecuciones activas en steer, con un fallback debounce de 500ms para seguimientos. El comportamiento anterior uno a la vez permanece disponible como queue. La diferencia importa. En un turno de agente de larga duración, un usuario puede enviar instrucciones de seguimiento mientras el modelo aún está trabajando. Un modo de cola que simplemente apila mensajes puede hacer que el siguiente turno quede rezagado del estado actual. La dirección es diferente: los mensajes de dirección Pi pendientes se drenan en el siguiente límite del modelo, para que el agente pueda incorporar seguimientos aceptados en el punto donde puede cambiar de dirección de manera segura.
La pregunta operativa no es solo "¿puede un usuario enviar otro mensaje?" Es "¿cuándo se convierte ese mensaje en parte del plan del agente?" La dirección hace explícito el límite. El runtime puede aceptar seguimientos, aplicarles debounce, y aplicarlos en un límite de modelo seguro en lugar de interrumpir ejecución arbitraria de herramientas o perder el mensaje después de la limpieza del servidor de la aplicación. El lanzamiento también limpia los mensajes de dirección Codex con debounce aceptados antes de la limpieza normal del turno del servidor de la aplicación, para que un seguimiento reconocido no desaparezca si el turno se completa rápidamente.
La aplicación de respuestas visibles es otro control de mensajería importante. La nueva configuración global messages.visibleReplies permite a los operadores requerir que la salida visible pase por message(action=send) para cualquier chat de origen, mientras que messages.groupChat.visibleReplies permanece disponible como anulación para grupos o canales. Eso es un contrato de enrutamiento. Si el sistema dice que una respuesta debe ser visible a través de la herramienta de mensajes del canal, el agente no debería terminar un turno silenciosamente sin producir una respuesta visible para el usuario. La corrección relacionada para chats grupales recurre a entrega automática de origen cuando un canal precalcula respuestas solo de herramienta de mensaje pero la herramienta de mensaje no está disponible. Eso previene que turnos grupales estilo Discord o Slack se completen silenciosamente sin respuesta visible.
Los metadatos de enrutamiento de subagentes también mejoran. Los eventos de Gateway ahora exponen spawnedBy en cargas de chat de subagente y broadcast de agente. Eso da a los clientes suficiente información para enrutar eventos de sesiones hijos sin hacer una búsqueda separada de sesión. En una UI multiagente o integración de chat, esto importa porque el trabajo hijo debería permanecer adjunto a la solicitud padre, especialmente cuando las sesiones generadas están haciendo tareas de fondo, investigación delegada, o trabajo intensivo en herramientas.
Luego están los compromisos de seguimiento inferidos. El lanzamiento agrega compromisos opcionales con extracción por lotes oculta, alcance por agente y por canal, entrega por heartbeat, gestión CLI, commitments.enabled, commitments.maxPerDay, y clamp de hora de vencimiento por intervalo de heartbeat para que los recordatorios no se disparen inmediatamente de manera mágica. Esta es la forma cautelosa correcta. El seguimiento automatizado es útil, pero puede volverse intrusivo o ruidoso si cada frase vaga futura se convierte en un recordatorio. El alcance, límites de extracción, entrega a través de heartbeat, y topes diarios permiten a los operadores hacerlo deliberado.
La guía práctica es habilitar compromisos solo donde el canal y el rol del agente lo justifiquen. Un asistente personal puede beneficiarse de una capacidad acotada de "revisar más tarde". Un bot grupal público probablemente no debería inferir recordatorios de conversaciones casuales. La configuración necesita reflejar las normas del canal, rol del agente, y riesgo de entrega.
[12:00] HISTORIA 1B — La Memoria Se Vuelve Más Consciente de Personas, Más Filtrada, y Más Inspeccionable La memoria es la segunda área principal del lanzamiento. OpenClaw agrega metadatos wiki de personas orientados al agente, aliases canónicos, tarjetas de persona, grafos de relaciones, reportes de privacidad y procedencia, análisis por tipo de evidencia, y modos de búsqueda para búsqueda de personas, enrutamiento de preguntas, evidencia de fuentes, y afirmaciones crudas.
Ese es un paso significativo más allá del recuerdo genérico. La memoria de personas no es solo otro índice de documentos. Una persona puede tener aliases, relaciones, preferencias, roles, restricciones de privacidad, y evidencia con diferente confiabilidad. Si un agente recuerda "Alex dijo X", el operador necesita saber qué Alex, qué fuente, qué conversación, qué afirmación, y si la evidencia es lo suficientemente fuerte para usar. Las tarjetas de persona y los grafos de relaciones dan a los agentes una forma estructurada de razonar sobre identidad y contexto sin aplanar todo en un blob de texto.
La vista de procedencia es especialmente importante. Los sistemas de memoria fallan cuando hacen que hechos antiguos, débiles, o mal atribuidos suenen ciertos. El análisis por tipo de evidencia permite al sistema separar afirmaciones crudas, evidencia de fuentes, enlaces relacionados generados, y fragmentos legibles de cuerpo. El lanzamiento también mantiene bloques amplios de fuente compartida y enlaces relacionados generados de evitar que cada página se convierta en un resultado de búsqueda, acota los backlinks ruidosos, soporta búsquedas de todos los términos como consultas de enrutamiento de personas, y prefiere fragmentos legibles del cuerpo de la página sobre metadatos generados.
La Memoria Activa también obtiene filtros más precisos. Los allowedChatIds y deniedChatIds opcionales por conversación permiten a los operadores habilitar el recuerdo solo para conversaciones directas, grupales o de canal seleccionadas mientras mantienen sesiones amplias excluidas. Esa es una función de privacidad y relevancia. Un workspace puede querer recuerdo en un chat de operaciones privado pero no en un canal público ruidoso. Sin filtros, el recuerdo puede volverse demasiado amplio incluso cuando el sistema de memoria subyacente está técnicamente funcionando.
El comportamiento de timeout también mejora. La Memoria Activa puede devolver resúmenes de recuerdo parcial acotado cuando el subagente de memoria oculto hace timeout, incluyendo la ruta de transcripción temporal por defecto, para que el contexto útil recuperado no se descarte. Ese es el tradeoff de confiabilidad correcto: un recuerdo con timeout no debería necesariamente convertirse en recuerdo cero si un resumen parcial seguro está disponible. Los operadores necesitan salida acotada y diagnósticos claros en lugar de comportamiento de todo o nada.
También hay un RPC doctor.memory.remHarness de solo lectura para vistas previas de soñar REM acotadas sin rutas de mutación. Esto da a los clientes de operadores una forma de inspeccionar qué produciría la maquinaria de soñar de memoria sin realmente promover o cambiar la memoria. Para sistemas de memoria, la vista previa y la mutación deben estar separadas. Depurar un pipeline de memoria no debería reescribir accidentalmente el store de memoria.
[20:00] HISTORIA 1C — Proveedores, Catálogos de Modelos, Diagnósticos de Inicio, y Dependencias de Runtime Se Vuelven Más Predecibles
La cobertura de proveedores y modelos se expande con onboarding de NVIDIA y metadatos de catálogo estático. El proveedor de NVIDIA incluye onboarding de API-key, docs de configuración, filas de catálogo estático, y soporte de selector de model-ref literal para que los modelos NVIDIA hospedados puedan seleccionarse con su prefijo de proveedor intacto. El lanzamiento también persiste el marcador de proveedor NVIDIA_API_KEY y marca los modelos NVIDIA Chat Completions bundled como compatibles con contenido de string para que los modelos NIM se carguen desde models.json y las llamadas de subagente compatibles con OpenAI envíen contenido de texto plano.
El punto operativo es la identidad del proveedor. Si un model ref necesita mantener su prefijo de proveedor, el selector no debería normalizarlo a un string ambiguo. Si el proveedor tiene una clave de marcador, el comportamiento de onboarding y catálogo debería recordarlo. Si un endpoint compatible espera contenido de texto plano para llamadas de subagente, el runtime debería dar forma a la solicitud correspondientemente. Estos detalles son pequeños individualmente, pero determinan si un proveedor funciona de manera confiable en flujos de agentes reales.
El soporte de Bedrock obtiene paridad de perfiles de pensamiento para Claude Opus 4.7. El release expone los perfiles de pensamiento xhigh, adaptive y max para las referencias de modelos de Bedrock mientras mantiene Opus y Sonnet 4.6 en adaptive-by-default. También omite temperature en desuso para los IDs de modelos Bedrock de Opus 4.7, perfiles nombrados y perfiles de inferencia de aplicaciones, y clasifica las respuestas de validación anidadas para failover. Este es otro ejemplo de corrección específica del proveedor. La misma familia de modelos puede tener diferentes reglas de transporte dependiendo de si se llama directamente o a través de Bedrock.
La confiabilidad del catálogo de modelos también mejora. Los modelos de Gateway pueden servir el último catálogo de modelos exitoso mientras las recargas obsoletas se actualizan en segundo plano. Esto evita que las solicitudes del plano de control y las compatibles con OpenAI se bloqueen detrás del redescubrimiento del proveedor de modelos después de cambios en la configuración de modelos. En hosts lentos, esto es una gran mejora de usabilidad: el catálogo puede estar desactualizado por un momento, pero el Gateway no deja de responder mientras recarga todo.
Los diagnósticos de inicio se vuelven más explícitos. Los diagnósticos del Gateway pueden emitir una línea de tiempo de inicio opcional que registra las fases de ciclo de vida y carga de plugins detrás de una bandera de configuración, por lo que el diagnóstico de inicio lento ya no requiere instrumentación personalizada. Eso les da a los operadores una forma de responder: ¿a dónde fue el tiempo de arranque? ¿Fue validación de configuración, metadatos de plugins, descubrimiento de proveedores, inicio de canales, reparación de dependencias en tiempo de ejecución, o disponibilidad del bucle de eventos?
La reparación de dependencias en tiempo de ejecución recibe una revisión extensa. El release reemplaza raíces de destino de espejos simlinked obsoletos antes de escribir archivos temporales de espejo de runtime, omite reescribir hardlinks ya materializados, escribe mapas de dependencia incluso cuando los planes están vacíos, verifica archivos de entrada de paquetes staged antes de reutilizar raíces de espejo, prefiere exportaciones condicionales require para deps de plugins solo CommonJS, limita los caches de compilación de Node empaquetados por versión de OpenClaw y metadatos de instalación, y poda raíces openclaw-unknown-* obsoletas durante el inicio del Gateway mientras preserva raíces recientes o bloqueadas. La conclusión para el builder: los deps de plugins empaquetados son un sistema operativo dentro del sistema operativo. Necesitan bloqueos, alcance de versiones, reparación y semántica de reemplazo seguro.
[29:00] HISTORIA 1D — Correcciones de Seguridad y Canales Reducen los Modos de Falla Reales
Security/tools es uno de los cambios de comportamiento más importantes en v2026.4.29: las secciones configuradas de tools.exec y tools.fs ya no amplían implícitamente perfiles restrictivos como messaging y minimal. Si los usuarios necesitan esas herramientas bajo un perfil restrictivo, deben agregar entradas alsoAllow explícitas, y el inicio advierte sobre las configuraciones afectadas.
Esa es una frontera de seguridad más limpia. Un perfil restrictivo debería significar restrictivo. Si una sección de configuración para herramientas exec o de sistema de archivos ensancha silenciosamente el perfil, los operadores pueden pensar que un agente se está ejecutando con una superficie estrecha mientras que en realidad puede hacer más. Requerir alsoAllow hace que la expansión sea intencional y auditable.
Se agrega escaneo de OpenGrep con un rulepack preciso, compilador de reglas de origen, verificaciones de metadatos de procedencia y flujos de trabajo de PR/exploración completa que validan código de primera parte y cambios solo de rulepack mientras suben SARIF a GitHub Code Scanning. Esto es útil porque la automatización de seguridad debería ser reproducible. Un rulepack necesita procedencia, una ruta de compilador, validación, flujos de trabajo de CI y un formato de salida estándar como SARIF para que los hallazgos lleguen donde los mantenedores ya trian la seguridad del código.
El comportamiento de Gateway/systemd recibe una corrección operativa concreta: los conflictos de bloqueo supervisado y EADDRINUSE ahora salen con sysexits 78, por lo que RestartPreventExitStatus=78 detiene los bucles Restart=always en lugar de recargar plugins repetidamente contra un puerto ocupado. Ese es un modo de falla clásico de gestión de servicios. Si otro Gateway ya posee el puerto, reiniciar el servicio indefinidamente no arregla el conflicto; quema CPU, remueve logs, y puede cargar plugins repetidamente en un mal estado. Un código de salida determinista permite que el gestor de servicios deje de intentar.
La recuperación de sesiones obsoletas también es más conservadora. OpenClaw puede liberar carriles de sesión obsoletos mientras las ejecuciones embebidas activas, operaciones de respuesta y tareas de carril permanecen serializadas, por lo que los seguimientos en cola pueden drenar sin abortar trabajo legítimo de larga duración. Doctor y el mantenimiento de tareas pueden reconciliar subagentes huérfanos con intentos de recuperación persistidos y lápidas de sesión atascadas. El objetivo del producto es recuperarse de la contabilidad obsoleta sin tratar cada tarea larga como atascada.
Las correcciones de canales son extensas. Slack recibe una revisión grande de Block Kit: los menús de argumentos de comandos nativos se mantienen dentro de los límites de opciones, las etiquetas y valores de botones de respaldo se truncan o descartan cuando es necesario, el texto de confirmación se limita a los límites del diálogo, los metadatos de aprobación y el texto de respaldo de actualización se mantienen dentro de los límites de Slack, los bloques de mensaje-herramienta de presentación e interactivos se fusionan, y el texto de respaldo se limita para envíos y ediciones. El modo de falla práctico es simple: un valor de botón o cadena de respaldo sobredimensionada puede hacer que Slack rechace toda la carga útil del bloque. El release hace que el adaptador preserve la estructura interactiva válida mientras recorta piezas inválidas.
Las correcciones de Telegram se enfocan en comportamiento de proxy, polling, webhooks, citas y envíos seguros. Telegram honra ALL_PROXY, all_proxy y OPENCLAW_PROXY_URL a nivel de servicio para transporte de Bot API HTTP/1. Los timeouts de long-polling se fijan para que los valores bajos configurados no fuercen conexiones HTTPS frescas cada pocos segundos. Las advertencias de vida de polling aparecen en el estado del canal y doctor. El estado de runtime del webhook advierte cuando el registro no se ha completado. Las respuestas de citas reintentan sin extractos de citas obsoletas o inválidos. El reintento de envío seguro evita mensajes visibles duplicados en sobres de red ambiguos. El patrón es resiliencia acotada: mantener las fallas de red transitorias sin matar el Gateway, pero no duplicar ciegamente las respuestas visibles para el usuario.
Las correcciones de Discord cubren manejo de inicio y rate-limit, resolución de ACP ligada a hilos, chunking largo de CJK, supresión de monitores de gateway duplicados, resúmenes de salud de canales, comportamiento de inicio cerrado cuando la identidad del bot no puede resolverse, handshakes de WebSocket acotados y cooldowns para respuestas HTML 429 de Cloudflare/Error 1015 usando Retry-After cuando está disponible. Las correcciones de WhatsApp requieren IDs de mensajes salientes Baileys reales antes de marcar auto-respuestas como entregadas, exponen configuraciones de vida y timeout, recuperan listeners después de ciertos estancamientos de reconexión, y logean fallas de entrega del despachador con suficientes identificadores para depurar reportes de escribir-sin-enviar. Las correcciones de Signal incluyen coincidencia de lista de permitidos de grupos, topes de descarga del instalador, topes de respuesta de medios y comportamiento SSE de recepción de larga duración. Feishu omite mensajes de texto vacío que no llevan medios para que las intervenciones de usuario en blanco no se escriban en las sesiones.
El veredicto del release: v2026.4.29 se trata de hacer que los sistemas de agentes en vivo sean más controlables. Reduce el comportamiento ambiguo de colas, la entrega visible de respuestas, la automatización de seguimientos, la procedencia de memoria, los catálogos de proveedores, los diagnósticos de inicio, los perfiles de herramientas restrictivas, las sesiones obsoletas, los bucles de reinicio de servicios y los modos de falla del adaptador de canales.
[39:00] HISTORIA 2 — El Model Provenance Kit de Cisco Convierte la Linaje de Modelos en una Verificación de Cadena de Suministro El Model Provenance Kit de Cisco es una historia sólida de infraestructura de IA porque aborda una pregunta básica que se está volviendo más difícil de responder: ¿de dónde vino realmente este modelo?
Las tarjetas de modelo, nombres de repositorio y metadatos son útiles, pero por sí solos no son suficientes. Los modelos se ajustan fino, fusionan, cuantizan, destilan, convierten, renombran, reempaquetan y redistribuyen. Un equipo downstream puede recibir un checkpoint que afirma derivarse de una familia, pero los pesos reales, el tokenizador o la arquitectura pueden contar una historia más complicada. Eso importa para licencias, respuesta a vulnerabilidades, revisión de seguridad, interpretación de benchmarks y política de despliegue.
El kit se describe como un toolkit y CLI de Python con flujos de trabajo de comparación y escaneo. El modo de comparación toma dos modelos, incluyendo checkpoints de Hugging Face o locales, y desglosa la similitud a través de metadatos de arquitectura, estructura del tokenizador y señales a nivel de peso. El modo de escaneo comienza con un modelo y lo hace coincidir contra una base de datos de huellas conocidas para identificar los candidatos de linaje más cercanos.
El detalle técnico es que el kit no solo está mirando nombres. Analiza señales como geometría de embeddings, capas de normalización, perfiles de energía, comparaciones de peso directo, estructura del tokenizador y metadatos de arquitectura. Esas señales importan porque los metadatos pueden ser falsificados o eliminados. La evidencia a nivel de peso es más difícil de falsificar si el objetivo es ocultar el origen del modelo mientras se preserva el comportamiento del modelo.
La base de datos de huellas iniciales supuestamente cubre aproximadamente 150 modelos base en más de 45 familias de modelos y más de 20 editores. Esa base de datos es importante porque la procedencia es comparativa. Una huella es más útil cuando puede coincidir contra referencias conocidas. Sin un conjunto de referencia, una herramienta puede decir que dos modelos son similares, pero tiene menos capacidad para ubicar un modelo en un gráfico de linaje más amplio.
Cisco también publicó una Model Provenance Constitution que define relaciones de derivación como descenso directo, descenso indirecto, transformación mecánica, identidad y transitividad. Eso es útil porque el linaje necesita un vocabulario. El ajuste fino, la cuantización, la conversión de formato y la fusión no son la misma relación. Una política de despliegue puede permitir una y rechazar otra.
Para los operadores, el lugar práctico para usar una herramienta como esta es en el pipeline de incorporación de modelos. Antes de que un modelo sea aprobado para producción, escanéalo. Compáralo con la familia base declarada. Almacena el resultado de la huella con el artefacto del modelo. Víncula esa evidencia a la revisión de licencias, revisión de seguridad, resultados de benchmarks y puertas de despliegue. Si una vulnerabilidad o tema de política posteriormente afecta a una familia base, la evidencia de procedencia ayuda a identificar qué modelos desplegados podrían ser downstream.
Hay limitaciones. La huella digital es evidencia, no un certificado mágico. Una puntuación alta de similitud requiere interpretación. Los fine-tunes, fusiones, podas, cuantización y conversión de formato pueden cambiar las señales de diferentes maneras. Una base de datos de huellas puede estar incompleta. Los modelos propietarios pueden no estar disponibles como referencias. Pero la dirección es correcta: el origen del modelo debería convertirse en evidencia operativa verificable, no solo una etiqueta.
La conclusión relevante para OpenClaw es que los运行时 de agentes dependen cada vez más de las cadenas de suministro de modelos. Si un agente puede elegir modelos locales, modelos alojados, modelos fine-tuned, modelos de marketplace y checkpoints convertidos, el operador necesita una forma de preguntar no solo "¿funciona?" sino también "¿de qué está derivado, qué política aplica y qué riesgo lo acompaña?"
[47:00] HISTORIA 3 — OpenAI Advanced Account Security Refuerza ChatGPT y Codex a Medida que el Trabajo de Agentes se Vuelve Sensible El lanzamiento de Advanced Account Security de OpenAI no es un lanzamiento de modelo, pero es una historia seria de operaciones de agentes porque las cuentas de ChatGPT y Codex ahora se encuentran cerca de contextos sensibles, código, herramientas conectadas y flujos de trabajo de alto riesgo.
El modo opt-in agrupa varias protecciones. Requiere passkeys o claves de seguridad físicas y deshabilita el inicio de sesión basado en contraseña. Esto hace que la autenticación resistente a phishing sea el valor predeterminado para las cuentas inscritas. Una contraseña robada no debería ser suficiente para entrar porque no hay ruta de inicio de sesión por contraseña que usar.
Los cambios en la recuperación de cuenta son igual de importantes. Advanced Account Security deshabilita la recuperación por email y SMS y requiere métodos de recuperación más fuertes: passkeys de respaldo, claves de seguridad y claves de recuperación. Este es un compromiso deliberado. La recuperación por email y SMS es conveniente, pero si un atacante controla la cuenta de email o el número de teléfono, esas rutas de recuperación se convierten en rutas de toma de control de cuenta. Una recuperación más fuerte reduce ese riesgo, pero también significa que el Soporte de OpenAI no podrá recuperar cuentas inscritas si el usuario pierde los métodos de recuperación requeridos.
Las sesiones se vuelven más cortas para reducir la exposición si un dispositivo o sesión activa se ve comprometido. Los usuarios reciben alertas de inicio de sesión y pueden revisar y administrar sesiones activas en todos los dispositivos. Eso importa porque las sesiones de larga duración son un riesgo real cuando una cuenta contiene herramientas conectadas, trabajo de código, memoria o conversaciones sensibles. Una ventana de sesión más corta y una lista de sesiones más clara no eliminan el compromiso, pero reducen el tiempo de permanencia y mejoran la detección.
La exclusión automática del entrenamiento también está incluida. Las conversaciones de cuentas inscritas no se usan para entrenar modelos de OpenAI. Para usuarios de alto riesgo y trabajo sensible, eso elimina una decisión de privacidad a nivel de cuenta del flujo de trabajo diario del usuario. El modo de cuenta lleva la preferencia de uso de datos automáticamente.
El detalle de Codex importa para los constructores. OpenAI dice que la protección también aplica a Codex cuando se accede a través del mismo inicio de sesión. Eso significa que el ajuste de seguridad cubre no solo conversaciones de chat sino también flujos de trabajo de agentes de codificación. Codex puede tocar repositorios, diffs, salida de terminal, contexto de issues y trabajo de desarrollo conectado. Si una cuenta está comprometida, el riesgo no es solo que alguien lea chats; puede convertirse en acceso a contexto de ingeniería y flujos de trabajo agentic.
OpenAI también dice que los miembros individuales de Trusted Access for Cyber que acceden a los modelos cyber más capaces y permisivos deberán habilitar Advanced Account Security a partir del 1 de junio de 2026. Las organizaciones con acceso confiable pueden attestalternativamente que la autenticación resistente a phishing es parte de su flujo de trabajo de inicio de sesión único. Esa es una señal fuerte sobre hacia dónde va la seguridad de cuentas para el acceso a IA de alta capacidad: modelos más capaces y herramientas más permisivas requieren protección de cuenta más fuerte.
Para operadores y constructores, la lección práctica es hacer coincidir la seguridad de cuenta con la capacidad. Si una cuenta de IA puede usar Codex, conectar herramientas, mantener contexto sensible o acceder a modelos cyber avanzados, la contraseña más recuperación por email no es suficiente. Usa autenticación resistente a phishing. Mantén claves de respaldo. Almacena claves de recuperación de forma segura. Revisa sesiones activas. Acorta la exposición de sesión. Y entiende el costo de recuperación antes de habilitar protecciones más estrictas.
El mejor ajuste de seguridad es el que el usuario realmente puede sostener. Advanced Account Security eleva el piso, pero también eleva la responsabilidad por la higiene de recuperación. La recomendación de despliegue es documentar la inscripción de claves, el almacenamiento de claves de respaldo, el manejo de claves de recuperación, el reemplazo de dispositivos y el offboarding antes de requerirlo en todo un equipo.
[54:00] OUTRO El lead del lanzamiento es OpenClaw v2026.4.29 porque mueve superficies concretas de operador: direction de run activa, enrutamiento de respuestas visibles, compromisos de seguimiento, metadatos de routing de subagentes, memoria consciente de personas, filtros de recall por conversación, recall parcial, onboarding de proveedor NVIDIA, perfiles de pensamiento de Bedrock, diagnósticos de inicio, comportamiento de actualización de catálogo de modelos, límites de herramientas de perfil restrictivo, flujos de trabajo de OpenGrep, prevención de bucles de reinicio de systemd, recuperación de sesiones inactivas y fiabilidad del adaptador de canales.
El Model Provenance Kit de Cisco es la historia de la cadena de suministro de modelos: comparar modelos, escanear contra huellas conocidas, inspeccionar metadatos, tokenizador y evidencia a nivel de pesos, y convertir la linaje en una verificación de despliegue.
OpenAI Advanced Account Security es la historia del reforzamiento de cuentas: passkeys y claves de seguridad, sin inicio de sesión por contraseña, recuperación más fuerte, sesiones más cortas, alertas de inicio de sesión, revisión de sesión activa, exclusión automática de entrenamiento, cobertura de Codex y requisitos más estrictos para acceso cyber de alta capacidad.
La conclusión práctica: los sistemas de agentes en vivo necesitan límites de control explícitos. Colas, memoria, proveedores, canales, modelos y cuentas todos necesitan superficies que los operadores puedan inspeccionar, configurar y recuperar.