
OpenClaw v2026.4.29, Active-Run Steering, Memória Consciente de Pessoas, Model Provenance e Segurança de Conta
O episódio começa com o OpenClaw v2026.4.29. O release adiciona padrões de active-run steering, aplicação de respostas visíveis, metadados de roteamento de subagentes gerados, compromissos de acompanhamento opcionais, metadados wiki de memória consciente de pessoas, filtros de Memória Ativa por conversa, recall parcial em timeout, um RPC de preview REM limitado, onboarding de provedor NVIDIA e metadados de catálogo, paridade de pensamento do Bedrock Opus 4.7, fluxos de trabalho de varredura do OpenGrep, comportamento de ferramenta de perfil restritivo mais rígido, diagnósticos de inicialização e modelo reutilizável. Show notes: https://tobyonfitnesstech.com/pt/podcasts/episode-44/
🎧 Listen to EpisodeOPENCLAW DAILY — EPISODE 044 — May 1, 2026
[00:00] INTRO / HOOK OpenClaw v2026.4.29 lidera o episódio porque muda imediatamente o comportamento concreto do operador: controle de execução ativa, roteamento de respostas visíveis, compromissos via heartbeat, memória com consciência de pessoas, comportamento de catálogo de modelos, perfis de ferramentas mais rígidos, recuperação de inicialização e confiabilidade de canais.
Esta versão muda muito o comportamento operacional. O enfileiramento de execução ativa agora padroniza para steer em vez do antigo enfileiramento um-por-vez. Respostas visíveis podem ser aplicadas através da ferramenta de mensagem. Compromissos de acompanhamento se tornam trabalho via heartbeat opt-in com limites de extração e entrega. Eventos de subagentes carregam metadados de roteamento. A memória ganha metadados de wiki com consciência de pessoas, visualizações de proveniência, filtros de Memória Ativa por conversa, recuperação parcial em timeout e diagnósticos de preview REM com limites. A cobertura de provedores se expande através do onboarding da NVIDIA, caminhos de manifesto de modelo e autenticação mais rápidos, paridade de pensamento do Bedrock Opus 4.7, e comportamento de replay do Codex/OpenAI-compatível mais seguro. Segurança e operações adicionam tratamento de ferramentas de perfil restritivo mais rígido, varredura do OpenGrep, política de triagem GHSA mais precisa, tratamento de owner-scope mais seguro, automação de onboarding do Docker, e opt-in IPv6 ULA do web-fetch para pilhas de proxy confiáveis.
A lista de correções também é muito operacional: inicialização lenta, catálogos de modelos reutilizáveis, diagnósticos de prontidão do event-loop, reparo de dependência de runtime, recuperação de sessão obsoleta, caches de atualização com escopo de versão, limites do Slack Block Kit, resiliência de proxy e polling do Telegram, comportamento de inicialização/rate-limit do Discord, entrega e liveness do WhatsApp, mídia e fluxos de recebimento do Signal, tratamento de mensagens vazias do Feishu, bordas do Matrix e Teams, e prevenção de loop de reinício do systemd.
Após o mergulho profundo no lançamento, o episódio cobre duas histórias de segurança com superfícies técnicas primárias: o Model Provenance Kit da Cisco para verificações de linhagem de modelos, e o OpenAI Advanced Account Security para proteção de contas ChatGPT e Codex resistente a phishing.
[02:30] HISTÓRIA 1 — OpenClaw v2026.4.29 Torna Execuções Ativas, Memória, Provedores, Inicialização, Segurança e Canais Mais Controláveis Comece com o comportamento de execução ativa, porque é aqui que a versão muda a interação dia a dia do agente.
O OpenClaw agora padroniza o enfileiramento de execução ativa para steer, com debounce de fallback de acompanhamento de 500ms. O comportamento antigo um-por-vez permanece disponível como queue. A diferença importa. Em um turno de agente de longa duração, um usuário pode enviar instruções de acompanhamento enquanto o modelo ainda está trabalhando. Um modo de fila que simplesmente empilha mensagens pode fazer o próximo turno ficar atrás do estado atual. O controle é diferente: mensagens de steering Pi pendentes drenam no próximo limite do modelo, então o agente pode incorporar acompanhamentos aceitos no ponto onde pode mudar de curso com segurança.
A questão operacional não é apenas "um usuário pode enviar outra mensagem?". É "quando essa mensagem se torna parte do plano do agente?". O controle torna o limite explícito. O runtime pode aceitar acompanhamentos, fazer debounce, e aplicá-los em um limite de modelo seguro em vez de interromper execução arbitrária de ferramentas ou perder a mensagem após a limpeza do servidor de aplicação. A versão também limpa mensagens Codex de steering com debounce aceitas antes da limpeza normal de turno do servidor de aplicação, então um acompanhamento reconhecido não desaparece se o turno completar rapidamente.
A aplicação de resposta visível é outro controle de mensagens importante. A nova configuração global messages.visibleReplies permite que operadores exijam que saída visível passe por message(action=send) para qualquer chat de origem, enquanto messages.groupChat.visibleReplies permanece disponível como override de grupo ou canal. Isso é um contrato de roteamento. Se o sistema diz que uma resposta deve ser visível através da ferramenta de mensagem do canal, o agente não deve terminar um turno silenciosamente sem produzir uma resposta visível para o usuário. A correção relacionada para chats de grupo volta para entrega automática de origem quando um canal pré-computa respostas apenas da ferramenta de mensagem mas a ferramenta de mensagem está indisponível. Isso impede que turnos de grupo no estilo Discord ou Slack completem silenciosamente sem resposta visível.
Metadados de roteamento de subagentes também melhoram. Eventos do gateway agora expõem spawnedBy em payloads de chat de subagente e broadcast de agente. Isso dá aos clientes informação suficiente para rotear eventos de sessão filha sem fazer uma busca separada de sessão. Em uma UI multiagente ou integração de chat, isso importa porque o trabalho filho deve permanecer anexado à requisição pai, especialmente quando sessões geradas estão fazendo tarefas em segundo plano, pesquisa delegada ou trabalho pesado de ferramentas.
Depois há compromissos de acompanhamento inferidos. A versão adiciona compromissos opt-in com extração em lote oculta, escopo por agente e por canal, entrega via heartbeat, gerenciamento CLI, commitments.enabled, commitments.maxPerDay, e fixação de horário de vencimento por intervalo de heartbeat para que lembretes não disparem imediatamente de forma mágica. Essa é a forma cautelosa correta. Acompanhamento automatizado é útil, mas pode se tornar invasivo ou barulhento se cada frase vaga sobre futuro virar um lembrete. Escopo, limites de extração, entrega via heartbeat e limites diários permitem que operadores tornem isso deliberado.
A orientação prática é habilitar compromissos apenas onde o canal e o papel do agente justificam. Um assistente pessoal pode se beneficiar de uma capacidade limitada de "verificar depois". Um bot de grupo público provavelmente não deveria inferir lembretes de conversas casuais. A configuração precisa refletir normas do canal, papel do agente e risco de entrega.
[12:00] HISTÓRIA 1B — Memória se Torna Mais Consciente de Pessoas, Mais Filtrada e Mais Inspecionável Memória é a segunda área principal do lançamento. OpenClaw adiciona metadados de wiki de pessoas para agentes, aliases canônicos, cards de pessoa, grafos de relacionamento, relatórios de privacidade e proveniência, detalhamento de tipo de evidência e modos de busca para pesquisa de pessoa, roteamento de pergunta, evidência de fonte e alegações brutas.
Isso é um passo significativo além de recall genérico. Memória de pessoas não é apenas outro índice de documento. Uma pessoa pode ter aliases, relacionamentos, preferências, papéis, restrições de privacidade e evidências com diferentes confiabilidade. Se um agente recalls "Alex disse X", o operador precisa saber qual Alex, qual fonte, qual conversa, qual alegação, e se a evidência é forte o suficiente para usar. Cards de pessoa e grafos de relacionamento dão aos agentes uma forma estruturada de raciocinar sobre identidade e contexto sem achatar tudo em um único blob de texto.
A visualização de proveniência é especialmente importante. Sistemas de memória falham quando fazem fatos velhos, fracos ou mal atribuídos parecerem certos. Detalhamento de tipo de evidência permite que o sistema separe alegações brutas, evidência de fonte, links relacionados gerados e trechos legíveis de corpo. A versão também mantém blocos amplos de fonte compartilhada e links relacionados gerados de não virar hit de busca em cada página, limita backlinks barulhentos, suporta buscas de todos os termos como queries de roteamento de pessoas, e prefere trechos de corpo de página legíveis em vez de metadados gerados.
A Memória Ativa também ganha filtros mais nítidos. allowedChatIds e deniedChatIds opcionais por conversa permitem que operadores habilitem recall apenas para conversas diretas, de grupo ou de canal selecionadas enquanto mantêm sessões amplas puladas. Isso é um recurso de privacidade e relevância. Um workspace pode querer recall em um chat de operações privado mas não em um canal público barulhento. Sem filtros, recall pode se tornar amplo demais mesmo quando o sistema de memória subjacente está tecnicamente funcionando.
O comportamento de timeout também melhora. A Memória Ativa pode retornar sumários de recall parcial limitado quando o subagente de memória oculta dá timeout, incluindo o caminho padrão de transcrito temporário, para que contexto útil recuperado não seja descartado. Esse é o tradeoff de confiabilidade certo: um recall com timeout não deveria necessariamente virar recall zero se um sumário parcial seguro está disponível. Operadores precisam de saída limitada e diagnósticos claros em vez de comportamento tudo-ou-nada.
Há também um RPC doctor.memory.remHarness somente leitura para previews de sonhando REM limitados sem caminhos de mutação. Isso dá aos clientes de operador uma forma de inspecionar o que a maquinaria de sonhar da memória produziria sem realmente promover ou mudar a memória. Para sistemas de memória, preview e mutação devem ser separados. Depurar um pipeline de memória não deveria reescrever acidentalmente o store de memória.
[20:00] HISTÓRIA 1C — Provedores, Catálogos de Modelos, Diagnósticos de Inicialização e Deps de Runtime se Tornam Mais Previsíveis
A cobertura de provedores e modelos se expande com onboarding da NVIDIA e metadados de catálogo estático. O provedor NVIDIA inclui onboarding de API-key, docs de setup, linhas de catálogo estático e suporte de picker de ref de modelo literal para que modelos NVIDIA hospedados possam ser selecionados com seu prefixo de provedor intacto. A versão também persiste o marcador de provedor NVIDIA_API_KEY e marca modelos NVIDIA Chat Completions em bundle como compatíveis com conteúdo string para que modelos NIM carreguem de models.json e chamadas de subagente OpenAI-compatíveis enviem conteúdo texto simples.
O ponto operacional é identidade de provedor. Se um ref de modelo precisa manter seu prefixo de provedor, o picker não deveria normalizar para longe em uma string ambígua. Se o provedor tem uma chave de marcador, comportamento de onboarding e catálogo deveria lembrar disso. Se um endpoint compatível espera conteúdo texto simples para chamadas de subagente, o runtime deveria formatar a requisição de acordo. Esses detalhes são pequenos individualmente, mas determinam se um provedor funciona de forma confiável em fluxos de agente reais.
Suporte Bedrock obtém paridade de thinking-profile para Claude Opus 4.7. A release expõe os perfis de pensamento xhigh, adaptive e max para refs de modelo Bedrock enquanto mantém Opus e Sonnet 4.6 em adaptive-by-default. Também omite temperature descontinuado para IDs de modelo Opus 4.7 Bedrock, perfis nomeados e perfis de inferência de aplicação, e classifica respostas de validação aninhadas para failover. Isso é outro exemplo de correção específica de provider. A mesma família de modelos pode ter regras de transporte diferentes dependendo se é chamada diretamente ou através do Bedrock.
A confiabilidade do catálogo de modelos também melhora. Modelos de Gateway podem servir o último catálogo de modelos bem-sucedido enquanto recargas obsoletas atualizam em segundo plano. Isso impede que requisições do control-plane e OpenAI-compatible bloqueiem atrás de rediscoverys de model-provider após mudanças na configuração de modelo. Em hosts lentos, isso é uma grande melhoria de usabilidade: o catálogo pode estar obsoleto por um momento, mas o Gateway não para de responder enquanto recarrega tudo.
Os diagnósticos de inicialização se tornam mais explícitos. Os diagnósticos do Gateway podem emitir uma linha do tempo de inicialização opt-in que registra fases de ciclo de vida e carregamento de plugin atrás de um flag de configuração, então o diagnóstico de inicialização lenta não requer mais instrumentação customizada. Isso dá aos operadores uma forma de responder: onde foi gasto o tempo de boot? Foi validação de configuração, metadata de plugin, descoberta de provider, inicialização de canal, reparo de dependência runtime, ou prontidão do event-loop?
O reparo de dependência runtime recebe uma grande passagem. A release substitui raízes de mirror simlinked obsoletas antes de escrever arquivos temporários de runtime-mirror, pula reescrever hardlinks já materializados, escreve mapas de dependência mesmo quando planos estão vazios, verifica arquivos de entrada de pacotes staged antes de reutilizar raízes espelhadas, prefere conditional exports require para deps de plugins CommonJS-only, escopa caches de compile Node empacotados por versão OpenClaw e metadata de instalação, e podula raízes obsoletas openclaw-unknown-* durante a inicialização do Gateway enquanto preserva raízes recentes ou bloqueadas. O resumo para builders: deps de plugins empacotados são um sistema operacional dentro do sistema operacional. Eles precisam de locks, version scoping, reparo e semântica de substituição segura.
[29:00] ESTÓRIA 1D — Correções de Segurança e Canal Estreitam Modos de Falha Reais
Security/tools é uma das mudanças de comportamento mais importantes no v2026.4.29: seções tools.exec e tools.fs configuradas não ampliam mais implicitamente perfis restritivos como messaging e minimal. Se usuários precisam dessas ferramentas sob um perfil restritivo, devem adicionar entradas alsoAllow explícitas, e a inicialização avisa sobre configurações afetadas.
Esse é um limite de segurança mais limpo. Um perfil restritivo deveria significar restritivo. Se uma seção de configuração para ferramentas exec ou filesystem amplia silenciosamente o perfil, operadores podem pensar que um agent está rodando com uma superfície restrita quando na verdade pode fazer mais. Exigir alsoAllow torna a expansão intencional e auditável.
Verificação OpenGrep é adicionada com rulepack preciso, compilador source-rule, verificações de metadata de proveniência, e workflows de scan PR/full que validam código first-party e mudanças apenas de rulepack enquanto fazem upload de SARIF para GitHub Code Scanning. Isso é útil porque automação de segurança deveria ser reproduzível. Um rulepack precisa de proveniência, caminho de compilador, validação, workflows CI, e um formato de saída padrão como SARIF para que achados pousem onde mantenedores já triam segurança de código.
O comportamento Gateway/systemd recebe uma correção operacional concreta: conflitos supervised lock e EADDRINUSE agora saem com sysexits 78, então RestartPreventExitStatus=78 para loops Restart=always em vez de recarregar plugins repetidamente contra uma porta ocupada. Esse é um modo de falha clássico de gerenciamento de serviço. Se outro Gateway já possui a porta, reiniciar o serviço infinitamente não conserta o conflito; queima CPU, agita logs, e pode recarregar plugins repetidamente em um estado ruim. Um código de saída determinístico permite que o gerenciador de serviço pare de tentar.
A recuperação de sessão obsoleta também é mais conservadora. OpenClaw pode liberar lanes de sessão obsoletas enquanto runs embedded ativos, operações de reply e lane tasks permanecem serializados, então follow-ups enfileirados podem drenar sem abortar trabalho legítimo de longa execução. Doctor e manutenção de tasks podem reconciliar subagents órfãos com tentativas de recuperação persistidas e tombstones de sessão wedged. O objetivo do produto é recuperar de contabilidade obsoleta sem tratar cada task longa como travada.
Correções de canal são extensas. Slack recebe uma grande passagem de Block Kit: menus de argumento de comandos nativos ficam dentro de limites de opção, labels e valores de botão fallback são truncados ou descartados quando necessário, texto de confirmação é limitado aos limites de dialog, metadata de aprovação e texto fallback de atualização ficam dentro de limites do Slack, blocos interativos e de apresentação de message-tool são mesclados, e texto fallback é limitado para sends e edits. O modo de falha prático é simples: um valor de botão ou string fallback oversized pode fazer Slack rejeitar todo o payload de bloco. A release faz o adapter preservar estrutura interativa válida enquanto recorta peças inválidas.
Correções de Telegram focam em comportamento de proxy, polling, webhooks, quotes e sends seguros. Telegram honra ALL_PROXY, all_proxy e OPENCLAW_PROXY_URL de nível de serviço para transporte Bot API HTTP/1. Timeouts de long-polling são bloqueados para que valores baixos configurados não forcem conexões HTTPS fresh a cada poucos segundos. Avisos de liveness de polling emergem no status do canal e doctor. Estado runtime de webhook avisa quando registro não completou. Respostas de quote fazem retry sem excerpts de quote obsoletas ou inválidas. Retry de safe-send evita mensagens visíveis duplicadas em envelopes de rede ambíguos. O padrão é resiliência limitada: mantém falhas de rede transitórias de matar o Gateway, mas não duplica cego replies visíveis para usuário.
Correções de Discord cobrem inicialização e manuseio de rate-limit, resolução ACP bound to thread, chunking longo de CJK, supressão de monitor de gateway duplicado, resumos de saúde de canal, comportamento closed na inicialização quando identidade do bot não pode ser resolvida, handshakes WebSocket limitados, e cooldowns para respostas HTML 429 Cloudflare/Error 1015 usando Retry-After quando disponível. Correções de WhatsApp requerem IDs de mensagem outbound Baileys reais antes de marcar auto-replies como entregues, expõem configurações de liveness e timeout, recuperam listeners após certas travas de reconnect, e logam falhas de delivery de dispatcher com identificadores suficientes para debugar relatórios de typing-without-send. Correções de Signal incluem matching de allowlist de grupo, caps de download de installer, caps de resposta de media, e comportamento SSE receive de longa vida. Feishu pula mensagens com texto vazio que não carregam mídia para que turnos de usuário em branco não sejam escritos em sessões.
O veredito da release: v2026.4.29 é sobre tornar sistemas de agent ao vivo mais controláveis. Estreita comportamento ambíguo de fila, entrega de reply visível, automação de follow-up, proveniência de memória, catálogos de provider, diagnósticos de inicialização, perfis de ferramentas restritivos, sessões obsoletas, loops de restart de serviço e modos de falha de adapter de canal.
[39:00] ESTÓRIA 2 — Cisco Model Provenance Kit Transforma Linha de Modelo em Verificação de Supply-Chain O Model Provenance Kit da Cisco é uma história forte de infraestrutura de IA porque endereça uma pergunta básica que está ficando mais difícil de responder: de onde esse modelo realmente veio?
Model cards, nomes de repositório e metadata são úteis, mas não são suficientes por si sós. Modelos são fine-tuned, merged, quantizados, destilados, convertidos, renomeados, reempacotados e redistribuídos. Uma equipe downstream pode receber um checkpoint que alega ser derivado de uma família, mas os pesos reais, tokenizer ou arquitetura podem contar uma história mais complicada. Isso importa para licenciamento, resposta a vulnerabilidade, revisão de segurança, interpretação de benchmark e política de deployment.
O kit é descrito como um toolkit Python e CLI com workflows compare e scan. Modo compare pega dois modelos, incluindo checkpoints Hugging Face ou locais, e quebra similaridade através de metadata de arquitetura, estrutura de tokenizer e sinais de nível de peso. Modo scan começa com um modelo e faz match contra um banco de dados de fingerprints conhecidos para identificar candidatos de linhagem mais próximos.
O detalhe técnico é que o kit não está apenas olhando para nomes. Ele analisa sinais como geometria de embedding, camadas de normalização, perfis de energia, comparações diretas de peso, estrutura de tokenizer e metadata de arquitetura. Esses sinais importam porque metadata pode ser falsificada ou removida. Evidência de nível de peso é mais difícil de falsificar se o objetivo é esconder origem do modelo enquanto preserva comportamento do modelo.
O banco de dados inicial de fingerprints é reportado cobrir aproximadamente 150 modelos base através de mais de 45 famílias de modelos e mais de 20 publishers. Esse banco de dados é importante porque proveniência é comparativa. Um fingerprint é mais útil quando pode ser fazer match contra referências conhecidas. Sem um conjunto de referência, uma ferramenta pode dizer que dois modelos são similares, mas tem menos capacidade de posicionar um modelo em um grafo de linhagem mais amplo.
A Cisco também publicou uma Model Provenance Constitution que define relações de derivação como descendência direta, descendência indireta, transformação mecânica, identidade e transitividade. Isso é útil porque linhagem precisa de um vocabulário. Fine-tuning, quantização, conversão de formato e merging não são a mesma relação. Uma política de deployment pode permitir uma e rejeitar outra.
Para operadores, o lugar prático para usar uma ferramenta assim é no pipeline de intake de modelo. Antes de um modelo ser aprovado para produção, escaneie. Compare com a família base alegada. armazene o resultado de fingerprint com o artefato de modelo. Ligue essa evidência a revisão de licenciamento, revisão de segurança, resultados de benchmark e gates de deployment. Se uma vulnerabilidade ou questão de política posteriormente afetar uma família base, evidência de proveniência ajuda a identificar quais modelos deployed podem ser downstream.
Existem limitações. Fingerprinting é evidência, não um certificado mágico. Um alto escore de similaridade requer interpretação. Fine-tunes, merges, pruning, quantização e conversão de formato podem alterar sinais de diferentes formas. Um banco de dados de impressões digitais pode estar incompleto. Modelos proprietários podem não estar disponíveis como referências. Mas a direção está correta: a origem do modelo deveria se tornar evidência operacional testável, não apenas um rótulo.
O takeaway relevante para o OpenClaw é que os runtimes de agentes dependem cada vez mais das cadeias de suprimentos de modelos. Se um agente pode escolher modelos locais, modelos hospedados, modelos fine-tuned, modelos de marketplace e checkpoints convertidos, o operador precisa de uma forma de perguntar não apenas "ele funciona?" mas também "de que ele é derivado, qual política se aplica e qual risco o acompanha?"
[47:00] HISTÓRIA 3 — OpenAI Advanced Account Security Fortalece ChatGPT e Codex à Medida que o Trabalho de Agentes se Torna Sensível O lançamento de Advanced Account Security da OpenAI não é um lançamento de modelo, mas é uma história séria de operações de agentes porque as contas do ChatGPT e do Codex agora estão próximas de contexto sensível, código, ferramentas conectadas e workflows de alto risco.
O modo opt-in agrupa várias proteções. Ele exige passkeys ou chaves de segurança física e desabilita o login baseado em senha. Isso torna a autenticação resistente a phishing o padrão para contas inscritas. Uma senha roubada não deveria ser suficiente para entrar porque não há caminho de login por senha para usar.
As mudanças de recuperação de conta são igualmente importantes. O Advanced Account Security desabilita a recuperação por email e SMS e exige métodos de recuperação mais fortes: passkeys de backup, chaves de segurança e chaves de recuperação. Este é um trade-off deliberado. A recuperação por email e SMS é conveniente, mas se um atacante controlar a conta de email ou o número de telefone, esses caminhos de recuperação se tornam caminhos de tomada de conta. Recuperação mais forte reduz esse risco, mas também significa que o Suporte da OpenAI não poderá recuperar contas inscritas se o usuário perder os métodos de recuperação necessários.
As sessões se tornam mais curtas para reduzir a exposição se um dispositivo ou sessão ativa for comprometida. Os usuários recebem alertas de login e podem revisar e gerenciar sessões ativas em todos os dispositivos. Isso importa porque sessões de longa duração são um risco real quando uma conta contém ferramentas conectadas, trabalho com código, memória ou conversas sensíveis. Uma janela de sessão mais curta e uma lista de sessões mais clara não eliminam o comprometimento, mas reduzem o tempo de permanência e melhoram a detecção.
A exclusão automática de treinamento também está incluída. Conversas de contas inscritas não são usadas para treinar modelos da OpenAI. Para usuários de alto risco e trabalho sensível, isso remove uma decisão de privacidade a nível de conta do fluxo de trabalho diário do usuário. O modo de conta carrega a preferência de uso de dados automaticamente.
O detalhe do Codex importa para construtores. A OpenAI diz que a proteção se aplica ao Codex também quando acessado pelo mesmo login. Isso significa que a configuração de segurança cobre não apenas conversas de chat, mas também workflows de agentes de codificação. O Codex pode tocar repositórios, diffs, saída de terminal, contexto de issues e trabalho de desenvolvimento conectado. Se uma conta for comprometida, o risco não é apenas alguém lendo chats; pode se tornar acesso a contexto de engenharia e workflows agentic.
A OpenAI também diz que membros individuais do Trusted Access for Cyber que acessam os modelos cibernéticos mais capazes e permissivos serão obrigados a habilitar o Advanced Account Security a partir de 1º de junho de 2026. Organizações com acesso confiável podem alternativamente atestar que a autenticação resistente a phishing faz parte do seu fluxo de trabalho de single sign-on. Este é um sinal forte sobre para onde a segurança de contas está indo para acesso a IA de alta capacidade: modelos mais fortes e ferramentas mais permissivas exigem proteção de conta mais forte.
Para operadores e construtores, a lição prática é combinar segurança de conta com capacidade. Se uma conta de IA pode usar o Codex, conectar ferramentas, manter contexto sensível ou acessar modelos cibernéticos avançados, senha-mais-email-recuperação não é suficiente. Use autenticação resistente a phishing. Mantenha chaves de backup. Armazene chaves de recuperação com segurança. Revise sessões ativas. Reduza a exposição de sessão. E entenda o custo de recuperação antes de habilitar proteções mais estritas.
A melhor configuração de segurança é aquela que o usuário realmente pode sustentar. O Advanced Account Security eleva o piso, mas também eleva a responsabilidade pela higiene de recuperação. A recomendação de deployment é documentar enrollment de chaves, armazenamento de chaves de backup, manuseio de chaves de recuperação, substituição de dispositivos e offboarding antes de exigi-lo em toda uma equipe.
[54:00] OUTRO O release lead é o OpenClaw v2026.4.29 porque move superfícies concretas de operador: steering de execuções ativas, roteamento de replies visíveis, compromissos de follow-up, metadata de roteamento de subagents, memória people-aware, filtros de recall por conversa, recall parcial, onboarding de provedor NVIDIA, perfis de thinking do Bedrock, diagnósticos de inicialização, comportamento de refresh do catálogo de modelos, limites de ferramentas de perfil restritivo, workflows do OpenGrep, prevenção de loop de restart do systemd, recuperação de sessão stale e confiabilidade do channel adapter.
O Model Provenance Kit da Cisco é a história da cadeia de suprimentos de modelos: comparar modelos, escanear contra impressões digitais conhecidas, inspecionar metadata, tokenizer e evidência a nível de peso, e transformar lineage em um check de deployment.
O OpenAI Advanced Account Security é a história do hardening de contas: passkeys e chaves de segurança, sem login por senha, recuperação mais forte, sessões mais curtas, alertas de login, revisão de sessão ativa, exclusão automática de treinamento, cobertura do Codex e requisitos mais estritos para acesso cibernético de alta capacidade.
O takeaway prático: sistemas de agentes ao vivo precisam de fronteiras de controle explícitas. Queueing, memória, provedores, canais, modelos e contas precisam de superfícies que operadores possam inspecionar, configurar e recuperar.