OpenClaw v2026.4.23, Acordo Anthropic com o Google, DeepSeek V4 e o Vazamento da Vercel — Episode 39 cover art
Episode 39·26 de abril de 2026·36:36

OpenClaw v2026.4.23, Acordo Anthropic com o Google, DeepSeek V4 e o Vazamento da Vercel

OpenClaw v2026.4.23 é a matéria principal e merece. A versão melhora materialmente a geração de imagens e a edição de imagens de referência no OpenAI Codex OAuth e OpenRouter, expande os controles de `image_generate`, adiciona herança opcional de transcrição bifurcadas para `sessions_spawn`, introduz `timeoutMs` por chamada para ferramentas de geração longas, ajusta o dimensionamento do contexto de embedding local e refina uma longa lista de comportamentos de Codex, mídia, webchat e segurança que operadores realmente sentem. Após a release. Show notes: https://tobyonfitnesstech.com/pt/podcasts/episode-39/

🎧 Listen to Episode

OPENCLAW DAILY — EPISÓDIO 039 — 25 de Abril de 2026

[00:00] INTRO / HOOK OpenClaw v2026.4.23 é a versão estável mais recente, e como as versões v2026.4.22, v2026.4.21 e v2026.4.20 já foram abordadas nas notas do episódio recente, v2026.4.23 é o único bloco de release válido no início do EP039.

E este vale o destaque. Ele torna a geração de imagens significativamente mais fácil no OpenAI Codex OAuth e no OpenRouter, dá aos agentes uma forma mais limpa de criar runs filhos com contexto herdado, adiciona timeouts por chamada para trabalhos longos de geração de mídia, e continua limpando arestas do Codex, compreensão de mídia, webchat e segurança que importam quando o OpenClaw está fazendo trabalho real em vez de apenas passando demos.

Após essa análise aprofundada do release, passamos ao investimento planejado do Google na Anthropic, ao preview do V4 da DeepSeek e ao aviso da Vercel de que sua violação pode ser mais ampla e antiga do que foi inicialmente revelado.

[01:30] HISTÓRIA 1 — OpenClaw v2026.4.23 Torna a Geração de Imagens Mais Fácil de Realmente Operar A mudança principal no v2026.4.23 é que o OpenClaw continua movendo o trabalho de imagens para fora do bucket de "caso especial" e para o runtime normal.

No lado OpenAI, openai/gpt-image-2 agora pode fazer geração e edição de imagem de referência através do Codex OAuth. Isso é importante porque remove uma das divisões de workflow mais irritantes no stack. Se um operador já está autenticado através do Codex, o trabalho de imagem não precisa mais parar e pedir um OPENAI_API_KEY separado apenas para usar a mesma família de provedores. A superfície de imagem se torna mais contínua com o resto do caminho autenticado da OpenAI.

O OpenRouter recebe uma atualização paralela. Geração de imagens e edição de imagem de referência agora fluem através de image_generate com OPENROUTER_API_KEY, que é exatamente o tipo de padronização que o OpenClaw precisa. Um runtime multi-provedor fica melhor quando novas capacidades de provedores pousam através do mesmo caminho de ferramenta em vez de forçar tratamento individual nas bordas.

Há também uma história de qualidade de ferramenta aqui, não apenas uma história de provedor. O v2026.4.23 permite que agentes solicitem hints de qualidade e formato de saída suportados pelo provedor, e passem controles específicos da OpenAI como background, moderação, compressão e user hints através de image_generate. Na prática, isso significa que workflows de imagem podem expressar mais intenção no momento da chamada em vez de depender de uma interface universal fina que esconde recursos úteis do provedor.

Isso é importante para construtores porque a geração de imagens deixa de ser uma capacidade binária sim-ou-não. Ela se torna uma superfície de workflow controlável. Você pode se importar com formato de saída, compressão, comportamento de timeout, edições de imagem de referência e parâmetros específicos do provedor sem sair do modelo de ferramenta compartilhado.

Assim como importante, este é o release onde o trabalho de imagem parece menos um apêndice e mais uma faixa de produção suportada. Usuários autenticados na OpenAI, usuários do OpenRouter e chamadas de ferramenta orientadas por agentes obtêm um caminho mais coerente, o que significa menos fallbacks de auth desajeitados, menos workarounds específicos de provedor e menos razão para tratar geração de mídia como um subsistema separado.

[09:30] HISTÓRIA 1B — Contexto de Subagente, Trabalhos de Mídia de Longa Duração e o Caminho do Codex Ficam Mais Limpos A segunda grande atualização no v2026.4.23 é no lado do agent-runtime.

Runs nativos de sessions_spawn agora recebem herança opcional de contexto bifurcado. Isso é uma grande mudança para quem realmente usa subagentes como parte de um workflow. Até agora, o padrão de sessão isolada limpa era frequentemente a escolha de segurança certa, mas há trabalhos reais onde o filho deve herdar a transcrição do solicitante para não ter que ser re-briefado do zero. O release mantém o isolamento como padrão, mas adiciona um terreno médio mais deliberado: herdar contexto quando ajuda, permanecer limpo quando não ajuda.

Isso torna a delegação mais prática. Significa que operadores podem preservar continuidade de transcrição para trabalho filho limitado sem transformar cada subagente em um clone descontrolado do pai. Para o OpenClaw, essa é exatamente a forma certa de melhoria: mais capacidade, mas com a superfície de controle ainda explícita.

O novo suporte opcional de timeoutMs por chamada para ferramentas de geração de imagem, vídeo, música e TTS é outra mudança silenciosamente importante. Trabalhos de geração de longa duração são um dos lugares mais comuns onde um runtime pode parecer instável mesmo quando o provedor está apenas lento. Esta atualização permite que agentes estendam timeouts de requisição apenas para a chamada que precisa. Isso é melhor do que aumentar tudo globalmente e esperar que nada mais fique estranho.

Há também uma camada significativa de limpeza do Codex e catálogo de modelos. Pacotes Pi empacotados passam para 0.70.0, metadados de catálogo gpt-5.5 upstream são adotados para OpenAI e OpenAI Codex, e o release adiciona logging de debug estruturado em torno da seleção de harness embed para que /status permaneça legível enquanto os logs do gateway ainda explicam por que um harness foi escolhido ou por que o fallback do Pi aconteceu. Essa é a divisão de operador certa: superfície simples, logs mais profundos quando você precisa debugar a realidade.

[17:30] HISTÓRIA 1C — A Lista de Correções É Realmente Sobre Reduzir Surpresas em Deployments Reais Muita do valor no v2026.4.23 está na lista de correções, porque é aí que o runtime para de trair expectativas do operador.

Prompts de request_user_input do Codex são roteados de volta para o chat de origem e respostas de follow-up enfileiradas são preservadas. Isso significa que o sistema fica melhor em transferências humanas multi-turn em vez de perder contexto no momento exato em que uma decisão humana é necessária.

Réplicas finais duplicadas de block-streaming são suprimidas quando chunks parciais já cobriram totalmente a resposta. Superfícies de grupo do Slack param de vazar traços internos de "Trabalhando..." O WebChat expõe erros de billing, auth e rate-limit não-retryable em vez de falhar em branco. Modelos primários apenas de texto agora preservam imagens anexadas como refs de mídia para que ferramentas de imagem downstream ainda possam inspecioná-las. Configuração explícita de modelo de imagem é honrada antes de pulos de visão nativa, e modelos de imagem do Codex obtêm turns de imagem do app-server limitados com roteamento mais correto.

Esses não são pontos glamorosos, mas mudam diretamente se o sistema parece confiável. O mesmo é verdade para as correções de auth e roteamento em torno da geração de imagens da OpenAI. Roteamento do Codex OAuth é reforçado, linhas de catálogo openai-codex/gpt-5.5 faltantes são sintetizadas quando a descoberta as omite, edições complexas de imagem de referência são restauradas via uploads multipart guarded, e linhas de modelo do Codex obsoletas são suprimidas. Esse é o tipo de trabalho de release que transforma um recurso de "tecnicamente presente" em "seguro para confiar."

Há também uma história séria de segurança e limite. O release reforça a edição de config do gateway, comportamento de refresh de segredo de webhook, regras de texto claro do Android e pareamento, validação de token do Teams, resolução de setup de plugin, comportamento de aprovação, aplicação de acesso do Discord, exposição de bridge MCP e múltiplos caminhos de metadata adjacentes a prompt-injection através de transports de chat.

Então a leitura prática do v2026.4.23 não é apenas "mais funcionalidades." É o OpenClaw tornando três superfícies mais reais ao mesmo tempo: geração de mídia, delegação de agentes e confiança do operador. O trabalho com imagens fica mais fácil de rotear. Os subagentes ganham um modelo melhor de controle de contexto. E o runtime gasta muita energia evitando que pequenas falhas de transporte e autenticação se transformem em problemas estranhos voltados para o usuário. → https://github.com/openclaw/openclaw/releases/tag/v2026.4.23

[26:00] HISTÓRIA 2 — O Compromisso do Google com a Anthropic é uma Aposta em Alavancagem de Computação, Não Apenas Uma Rodada de Investimento O investimento planejado do Google de até 40 bilhões de dólares na Anthropic é fácil de ser lido como um título de valuation. Essa é a parte menos interessante.

A parte mais importante é que o acordo vem acompanhado de mais capacidade de computação do Google Cloud, especialmente acesso a TPUs. A Anthropic já está em uma posição em que qualidade do modelo, limites de uso e disponibilidade de infraestrutura estão visivelmente ligados. Então, quando o Google aprofunda tanto a relação de capital quanto a relação de computação, ele não está apenas comprando upside em um laboratório rival. Está fortalecendo sua posição na camada de infraestrutura da qual laboratórios de ponta cada vez mais não conseguem viver sem.

É isso que torna essa história útil para construtores e operadores. O mercado de IA está se tornando mais verticalmente entrelaçado. A mesma empresa pode ser competidora em modelos, fornecedora de computação, plataforma de distribuição e investidora estratégica. Isso significa que a competição de modelos não é mais uma disputa limpa entre laboratórios isolados. É uma luta de sistemas por capacidade de treinamento, capacidade de inferência, margem de nuvem e quem consegue acesso preferencial quando a demanda dispara.

Para a Anthropic, a leitura imediata é óbvia. Mais dinheiro e mais computação compram espaço para continuar escalando Mythos, Claude e produtos relacionados sem deixar que gargalos de infraestrutura se tornem toda a história. Para o Google, a lógica é mais sutil. Cada dólar e cada hora de TPU vendida para a Anthropic não é apenas financiamento. É uma forma de tornar o Google Cloud mais central para um dos poucos laboratórios que ainda podem mover a conversa de fronteira.

A implicação mais ampla é que fornecedores de modelos que parecem independentes podem tornar-se cada vez mais dependentes das relações de nuvem e silício que conseguirem bloquear desde o início. Isso importa porque confiabilidade, limites e velocidade de rollout são frequentemente tão uma questão de computação quanto uma questão de modelagem. → https://techcrunch.com/2026/04/24/google-to-invest-up-to-40b-in-anthropic-in-cash-and-compute/

[32:30] HISTÓRIA 3 — DeepSeek V4 Reabre a Questão de Pressão de Preço do Open-Weight O preview do DeepSeek V4 merece atenção não porque cada afirmação de benchmark deva ser confiada imediatamente, mas porque o formato do anúncio é estrategicamente importante.

A empresa afirma que os novos modelos Flash e Pro alcançam uma janela de contexto de um milhão de tokens, usam arquiteturas de mixture-of-experts muito grandes e chegam com um preço que fica abaixo das opções de modelos fechados de fronteira. Se isso se confirmar no uso real, então o DeepSeek não está apenas lançando outra curiosidade de open-weight. Está pressionando as premissas econômicas por trás do roteamento premium fechado.

Para construtores, a questão-chave não é se o DeepSeek já venceu. A questão útil é que tipo de workload se torna recém-tentador quando a janela de contexto é enorme e o preço é baixo o suficiente para fazer o uso amplo parecer menos imprudente. Análise de codebases grandes, recuperação de documentos longos, raciocínio em lote e roteamento de menor risco se tornam todos mais fáceis de justificar quando o piso de custo cai.

Isso cria pressão estratégica em todo o mercado. Fornecedores fechados de fronteira ainda vencem em amplitude multimodal, camadas de segurança e, em muitos casos, qualidade absoluta. Mas se uma família open-weight chega perto o suficiente em raciocínio textual e tarefas de código, os operadores ganham mais alavancagem. Eles podem reservar chamadas premium fechadas para回合 de alto valor e deslocar tráfego mais amplo para alternativas mais baratas sem abrir mão de capacidade séria.

Então, mesmo com a cautela normal em relação a afirmações de preview, o DeepSeek V4 importa como uma história de preço e roteamento agora mesmo. Ele lembra a todos que o lado open-weight do mercado ainda está definindo um teto para o quanto provedores de modelos premium podem se dar ao luxo de ser complacentes. → https://techcrunch.com/2026/04/24/deepseek-previews-new-ai-model-that-closes-the-gap-with-frontier-models/

[38:00] HISTÓRIA 4 — A Atualização da Violação da Vercel Mostra Por Que o Incidente Real Geralmente É Maior Que a Primeira História A atualização mais recente da Vercel é o alerta de operador para levar a sério esta semana.

A empresa agora afirma que encontrou evidências de que algumas contas de clientes foram comprometidas antes da janela de violação que revelou originalmente, e que mais contas de clientes vinculadas ao incidente de abril também foram identificadas. Isso significa que a história não é mais apenas "um funcionário baixou o app errado e um atacante pivotou a partir daí". Pode ser um quadro de comprometimento de longo prazo com um raio de alcance mais amplo do que a primeira divulgação sugeriu.

A lição de segurança aqui é brutal, mas familiar. Uma vez que atacantes obtêm acesso a máquinas de desenvolvedores, tokens, variáveis de ambiente ou outros segredos de conta, eles não precisam da narrativa organizada que os defensores gostariam que o incidente tivesse. Eles só precisam de um caminho que funcione. E uma vez que tenham esse caminho, APIs de plataforma, sistemas internos e infraestrutura vinculada a clientes podem rapidamente entrar no escopo.

Isso também importa porque a Vercel está em uma parte muito exposta da pilha. Um comprometimento em uma plataforma de desenvolvedores raramente fica contido em um único app. Pode se derramar em segredos de deployment, metadados de projetos, integrações e sistemas downstream de clientes. É por isso que histórias como esta importam além do fornecedor afetado. São realmente histórias sobre quanto poder operacional se acumula em torno de credenciais de desenvolvedores.

Então a takeaway prática é simples. Se você opera ferramentas modernas de desenvolvedor hospedadas, infostealers e roubo de segredos não são riscos de canal lateral. São riscos centrais. E se o primeiro relatório de incidente parecer restrito, trate isso como o início da investigação, não como a forma final do problema. → https://techcrunch.com/2026/04/23/vercel-says-some-of-its-customers-data-was-stolen-prior-to-its-recent-hack/

[44:00] ENCERRAMENTO Isso é suficiente para hoje. O OpenClaw v2026.4.23 empurrou a geração de imagens, o controle de contexto de subagentes e a correção do operador para frente de formas que realmente serão sentidas em produção. O acordo do Google com a Anthropic mostrou como o acesso a computação está se tornando poder estratégico. O DeepSeek V4 manteve a pressão de preço viva no lado open-weight do mercado. E a Vercel lembrou a todos que a parte feia da segurança de plataforma geralmente é mais ampla do que a primeira divulgação.

→ Responda aqui para aprovar a geração da transcrição.

🎙 Never miss an episode — subscribe now

🎙 Subscribe to AgentStack Daily