
Tudo Agêntico
Neste episódio, discutimos a atualização do OpenClaw 2026.4.14, que reforça o suporte ao GPT-5.4 e a segurança dos canais, e a nova funcionalidade do Chrome que transforma prompts em ferramentas reutilizáveis com um clique. Também abordamos os avanços da DeepMind em raciocínio robótico, a abertura da pilha de IA quântica pela NVIDIA, a defesa cibernética autônoma defendida pela IBM e a intensificação dos investimentos da Meta e Broadcom em silício personalizado. Notas do episódio: https://tobyonfitnesstech.com/pt/podcasts/episode-31/ Show notes: https://tobyonfitnesstech.com/pt/podcasts/episode-31/
🎧 Listen to EpisodeOPENCLAW DAILY — EPISODE 031 — 15 de abril de 2026
[00:00] INTRO / ABERTURA OpenClaw aprimora o runtime. Chrome transforma prompts em ferramentas reutilizáveis. DeepMind dá aos robôs melhor raciocínio incorporado. NVIDIA abre uma família de modelos de IA quântica. IBM diz que a defesa cibernética precisa se tornar autônoma. Meta e Broadcom aprofundam a guerra do silício.
[02:00] HISTÓRIA 1 — OpenClaw v2026.4.14: Forward-Compat e Fortalecimento de Plataforma OpenClaw 2026.4.14 é o tipo de release que torna uma plataforma de agentes mais confiável de formas que os usuários sentem depois, nem sempre imediatamente.
A mudança principal da plataforma é o suporte forward-compat para a família GPT-5.4, incluindo gpt-5.4-pro, antes que os catálogos upstream acompanhem completamente. Isso importa porque as superfícies de modelo agora se movem mais rápido que a maioria das camadas de ferramentas. Se seu runtime não consegue reconhecer a família de modelos antecipadamente, você acaba com quebras invisíveis: listagens ausentes, limites incorretos ou configurações de raciocínio incompatíveis.
Há também uma forte linha de segurança e canal nesta release. Nomes de tópicos do Telegram agora podem ser aprendidos e apresentados como contexto legível em vez de IDs de thread crípticos. O /status nativo do Discord agora retorna o cartão de status real em vez de cair em uma confirmação falsa de sucesso. E a ferramenta gateway agora recusa chamadas config.patch e config.apply voltadas para modelos que habilitariam flags enumeradas como perigosas pela auditoria de segurança.
A lista de correções é densa e merece respeito. Timeouts de tempo de execução incorporado do Ollama agora se propagam corretamente. Ferramentas de imagem e PDF normalizam referências de modelos para que modelos de visão válidos do Ollama parem de ser rejeitados. O tratamento de anexos agora falha de forma restritiva quando a resolução de realpath quebra, em vez de enfraquecer silenciosamente as verificações de lista de permissão. O comportamento de SSRF do navegador foi apertado sem quebrar o plano de controle local. A lógica de reparo do Cron para de inventar loops de retry fictícios. E a UI trocou marked.js por markdown-it para que markdown malicioso não possa congelar a UI de Controle através de ReDoS.
É assim que um runtime maduro começa a parecer: menos funcionalidades glamorosas, mais recusa a falhar de formas idiotas. → https://github.com/openclaw/openclaw/releases/tag/v2026.4.14
[09:00] HISTÓRIA 2 — Skills no Chrome: De Prompting para Automação Pessoal A nova funcionalidade Skills no Chrome do Google soa modesta à primeira vista: salve um bom prompt e execute-o novamente depois. Mas a direção do produto é maior que isso.
Os usuários agora podem pegar um prompt que já usaram com sucesso no Gemini no Chrome, salvá-lo como Skill e reexecutá-lo na página atual além de outras abas selecionadas. O Google também está enviando uma biblioteca inicial de Skills prontas para tarefas como comparação de produtos, análise de ingredientes e fluxos de compras.
A mudança real é conceitual. IA no navegador está passando de "pergunte novamente do zero" para "construa um fluxo de trabalho reutilizável." Isso faz o navegador parecer um pouco menos uma janela de chat e um pouco mais uma superfície de automação leve. O Google diz que as Skills herdam as proteções existentes de segurança e privacidade do Chrome, incluindo confirmações antes de ações sensíveis como enviar e-mail ou adicionar eventos ao calendário.
Se isso pegar, prompting deixa de ser uma performance única e vira mais um kit de ferramentas pessoal persistente. → https://blog.google/products-and-platforms/products/chrome/skills-in-chrome/
[14:30] HISTÓRIA 3 — Gemini Robotics-ER 1.6: Melhor Raciocínio Incorporado para Robôs Reais O Gemini Robotics-ER 1.6 do DeepMind é uma tentativa direta de melhorar a parte da robótica que é mais frequentemente varrida para debaixo do tapete: raciocinar sobre o mundo físico antes de agir dentro dele.
Segundo o DeepMind, o novo modelo melhora raciocínio espacial, compreensão multi-vista, planejamento de tarefas, apontar, contar e detecção de sucesso. A adição mais interessante é leitura de instrumentos. O modelo agora pode ajudar robôs a interpretar mostradores e visores de nível, uma capacidade que surgiu da colaboração com a Boston Dynamics.
Isso importa porque aponta para longe de demos de brincadeira e em direção a ambientes industriais onde robôs precisam ler o estado de equipamentos, não apenas reconhecer uma banana em uma mesa. O DeepMind também está expondo o modelo através da API Gemini e AI Studio, o que significa que isso não é apenas teatro de pesquisa. É uma superfície para desenvolvedores.
O sinal mais amplo: o próximo passo em IA agentiva não é apenas melhor código e melhor chat. É melhor julgamento sobre o ambiente físico. → https://deepmind.google/blog/gemini-robotics-er-1-6/
[20:00] HISTÓRIA 4 — NVIDIA Ising: IA se Torna Parte do Plano de Controle Quântico A NVIDIA anunciou Ising, uma família de modelos abertos para calibração de processadores quânticos e decodificação de correção de erros quânticos. Essa frase soa de nicho, mas a ideia estratégica é grande.
Computação quântica tem um problema de hardware e um problema de controle. O hardware é frágil, ruidoso e difícil de escalar. A proposta da NVIDIA é que IA pode ajudar a resolver parte desse problema de controle lendo medições, guiando calibração e melhorando a velocidade e precisão da decodificação durante a correção de erros.
A NVIDIA alega até 2,5x mais performance e 3x mais precisão versus abordagens tradicionais de decodificação, e diz que laboratórios incluindo Harvard, Fermilab, Advanced Quantum Testbed da Berkeley e vários players comerciais já estão adotando partes da pilha.
Quer os cronogramas quânticos continuem superestimados ou não, esta história importa porque mostra IA sendo incorporada mais profundamente na camada operacional de sistemas complexos. → https://nvidianews.nvidia.com/news/nvidia-launches-ising-the-worlds-first-open-ai-models-to-accelerate-the-path-to-useful-quantum-computers
[25:00] HISTÓRIA 5 — A Proposta Cibernética da IBM: Ataques Agentivos Requerem Defesa Autônoma A nova investida em cibersegurança da IBM parte de uma premissa que está se tornando difícil de descartar: modelos de IA de fronteira estão encolhendo o tempo, expertise e custo necessários para executar ataques sofisticados.
A IBM está respondendo com duas peças. Primeiro, uma nova oferta de avaliação destinada a ajudar empresas a identificar exposição a ameaças de modelos de fronteira, fraquezas de segurança e caminhos prováveis de exploração. Segundo, IBM Autonomous Security, um serviço multi-agente projetado para automatizar remediação de vulnerabilidades, aplicação de políticas de segurança, detecção de anomalias e contenção de ameaças.
A parte importante aqui não é a marca. É a alegação arquitetural: programas de segurança construídos como coleções soltas de painéis e processos manuais não conseguem acompanhar se a capacidade ofensiva acelera para velocidade de máquina. Nesse mundo, "defesa impulsada por IA" para de ser um slogan e vira requisito básico. → https://newsroom.ibm.com/2026-04-15-IBM-Announces-New-Cybersecurity-Measures-to-Help-Enterprises-Confront-Agentic-Attacks
[30:00] HISTÓRIA 6 — Meta e Broadcom: A Corrida de IA Continua Colapsando em Hardware A Meta anunciou uma parceria expandida com a Broadcom para co-desenvolver várias gerações de chips MTIA de próxima geração, seus aceleradores personalizados de treinamento e inferência.
A Meta diz que o acordo inclui um compromisso inicial excedendo um gigawatt como a primeira fase de um rollout de múltiplos gigawatts. A Broadcom contribuirá em design de chips, encapsulamento avançado e redes, enquanto a Meta continua posicionando MTIA como parte central de sua estratégia de infraestrutura para classificação, recomendações e cargas de trabalho de IA generativa.
O subtexto é a história real. A competição de IA de fronteira está colapsando verticalmente. Não é mais suficiente ter um bom modelo, ou mesmo um bom cluster. Os vencedores cada vez mais querem controle sobre silício personalizado, tecido de rede, encapsulamento e economia de implantação. Esta é a guerra de modelos se transformando em uma guerra de soberania de infraestrutura. → https://about.fb.com/news/2026/04/meta-partners-with-broadcom-to-co-develop-custom-ai-silicon/
[34:00] OUTRO / ENCERRAMENTO Esse é o mapa de hoje: um runtime mais apertado, IA reutilizável no navegador, robôs mais inteligentes, modelos de controle quântico, defesa cibernética autônoma e uma apropriação de hardware mais profunda por baixo de tudo.
→ Responda aqui para aprovar a geração da transcrição.