स्मृति पहले, मशीनें बाद में — Episode 30 cover art
Episode 30·14 अप्रैल 2026·31:53

स्मृति पहले, मशीनें बाद में

[00:00] परिचय / हुक OpenClaw एक रिलीज़ भेजता है जो मुख्य जवाब से पहले स्मृति पुनर्प्राप्ति होने देता है। OpenAI आपूर्ति-श्रृंखला के डर के बाद macOS प्रमाणपत्र घुमाता है। Anthropic Claude Cowork को एक एंटरप्राइज़ तैनाती सतह में बदल देता है। SoftBank "भौतिक AI" के लिए एक कंपनी लॉन्च करता है। और Meta का नया स्वास्थ्य चैटबॉट कच्चे चिकित्सा डेटा की मांग करता है जिसके देखने का अधिकार उसने अर्जित नहीं किया है। [01:55] कहानी 1 — OpenClaw v2026.4.12: सक्रिय स्मृति, स्थानीय MLX स्पीच, और बुद्धिमान प्लगइन लोडिंग OpenClaw 2026.4.12 नहीं है एपिसोड नोट्स: https://tobyonfitnesstech.com/hi/podcasts/episode-30/ Show notes: https://tobyonfitnesstech.com/hi/podcasts/episode-30/

🎧 Listen to Episode

OPENCLAW DAILY — EPISODE 030 — April 13, 2026

[00:00] परिचय / हुक OpenClaw एक रिलीज़ शिप करता है जो मुख्य रिप्लाई से पहले मेमोरी रिट्रीवल को होने देता है। OpenAI सप्लाई-चेन scare के बाद macOS certificates को रोटेट करता है। Anthropic Claude Cowork को एंटरप्राइज़ डिप्लॉयमेंट सरफेस में बदल देता है। SoftBank "physical AI" के लिए एक कंपनी लॉन्च करता है। और Meta का नया health chatbot उस कच्चे मेडिकल डेटा के लिए पूछता है जिसका उसे अधिकार हासिल करने का अधिकार नहीं मिला है।

[01:55] कहानी 1 — OpenClaw v2026.4.12: Active Memory, Local MLX Speech, और Smarter Plugin Loading OpenClaw 2026.4.12 एक चमकदार मीडिया रिलीज़ नहीं है। यह एक प्लेटफॉर्म क्वालिटी रिलीज़ है, और यही इसके मायने रखता है।

हेडलाइन एडिशन एक वैकल्पिक Active Memory plugin है जो मुख्य रिप्लाई से ठीक पहले एक specialized memory sub-agent चलाता है। व्यवहार में, इसका मतलब है कि OpenClaw ऑपरेटर के "remember this" या "search memory" जैसी explicit कमांड का इंतज़ार किए बिना, जवाब देने से पहले relevant user preferences, context, और पिछले विवरणों को proactively pull कर सकता है। यह interaction design में एक सार्थक बदलाव है। बहुत सारी "good AI memory" वास्तव में disciplined recall timing है। OpenClaw अब उस timing को प्रोडक्ट का हिस्सा बना रहा है।

दूसरी notable addition macOS Talk Mode के लिए एक experimental local MLX speech provider है। यह मायने रखता है क्योंकि यह explicit provider selection, local utterance playback, interruption handling, और fallback behavior के साथ अधिक voice capability को local डिवाइस पर push करता है। सामान्य trend स्पष्ट है: local inference अब सिर्फ text और embeddings के लिए नहीं है। voice stack भी local हो रहा है।

मॉडल चॉइस का एक व्यावहारिक विस्तार भी है। OpenClaw अब एक Codex provider और एक LM Studio provider दोनों को bundle करता है। Codex-managed models अपने path पर native auth, threads, discovery, और compaction का उपयोग कर सकते हैं, जबकि local या self-hosted OpenAI-compatible models LM Studio onboarding और runtime model discovery के ज़रिए first-class बन जाते हैं। यह ठीक वही तरह का provider-surface widening है जो एक agent runtime को एक vendor narrative में lock करना कठिन बनाता है।

फिर security और runtime hygiene की तरफ है। Plugin loading अब manifest-declared needs तक narrow कर दी गई है ताकि CLI, providers, और channels default में unrelated plugin runtime को activate न करें। shell-wrapper hardening, approval fixes, startup sequencing cleanup, और कई dreaming और memory reliability fixes के साथ मिलाकर, throughline स्पष्ट है: यह रिलीज़ सिस्टम को अधिक सटीकता से याद रखने और कम लापरवाई से load करने के बारे में है। → https://github.com/openclaw/openclaw/releases/tag/v2026.4.12

[09:05] कहानी 2 — OpenAI ने Axios Compromise के बाद macOS App Certificates को रोटेट किया OpenAI ने Axios developer-tool compromise पर एक विस्तृत response प्रकाशित किया, और महत्वपूर्ण बात यह नहीं है कि हमलावरों ने definitely OpenAI के signing certificate हासिल किए या नहीं। यह है कि OpenAI trust chain के साथ compromise को rotate करने के लिए पर्याप्त compromised मान रहा है।

कंपनी के अनुसार, एक malicious Axios package 31 मार्च को macOS app-signing process में उपयोग किए गए GitHub Actions workflow में pull किया गया था। उस workflow के पास ChatGPT Desktop, Codex, Codex CLI, और Atlas के लिए उपयोग किए गए signing और notarization material तक पहुंच थी। OpenAI का कहना है कि उसने कोई evidence नहीं पाया कि user data एक्सेस किया गया, कोई evidence नहीं पाया कि उसके products बदले गए, और कोई evidence नहीं पाया कि certificate actually misused हुई। लेकिन यह अभी भी cert को revoke और rotate कर रहा है, नए builds प्रकाशित कर रहा है, और users को एक deadline दे रहा है कि वे update करें क्योंकि पुराने macOS versions को support मिलना बंद हो जाएगा।

यह उन कहानियों में से एक है जो मायने रखती हैं क्योंकि यह कई AI industry realities को एक single incident में compress करती है। पहला: frontier labs अब सिर्फ model vendors नहीं हैं। वे desktop-software distributors, developer-platform operators, और identity anchors हैं। दूसरा: seemingly boring developer dependencies में supply-chain risk सीधे consumer trust में cascade हो सकती है। और तीसरा: integrity problem अब सिर्फ "क्या model hallucinate हुआ?" नहीं है। यह भी है "क्या users trust कर सकते हैं कि उनकी machine पर binary वास्तव में आपकी है?"

OpenAI का कहना है कि root cause में GitHub Actions में एक floating tag और packages के लिए missing minimumReleaseAge safeguard शामिल था। यह exotic नहीं है। यह ordinary build-pipeline hygiene है। जो कि point है। 2026 में, ordinary build-pipeline hygiene अब frontier AI risk का हिस्सा है। → https://openai.com/index/axios-developer-tool-compromise/

[14:55] कहानी 3 — Anthropic Claude Cowork को एक Demo नहीं बल्कि Admin Surface में बदल देता है Anthropic ने घोषणा की कि Claude Cowork अब सभी paid plans पर generally available है, लेकिन real story इसके आसपास shipping governance package है।

कंपनी ने role-based access controls, group spend limits, usage analytics, OpenTelemetry event emission, per-connector action controls, और एक Zoom connector जो Cowork में meeting summaries, transcripts, और action items ला सकता है — ये सब जोड़ा। उस list को ध्यान से पढ़ें और आप real time में transition होते हुए देख सकते हैं। यह इस बारे में नहीं है कि agents cool चीज़ें कर सकते हैं या नहीं। यह इस बारे में है कि क्या कोई कंपनी marketing, finance, legal, operations, और product में उन्हें rollout कर सकती है बिना policy control, auditability, या cost visibility खोए।

Anthropic की अपनी description reveling है: अधिकांश Cowork usage पहले से ही engineering के बाहर से आ रही है। इसका मतलब है कि next enterprise battleground सिर्फ coding assistance alone नहीं है। यह इस बारे में है कि क्या agentic workflows company के बाकी हिस्से के लिए एक shared operating layer बनती हैं। एक बार ऐसा होता है, admin console strategic infrastructure बन जाता है।

यहां सबसे important line item actual में per-tool connector controls हो सकता है। Read-only बनाम write access agent के बीच का अंतर है — एक agent जो आपको सिस्टम को समझने में मदद करता है और एक agent जो सिस्टम को बदल सकता है। जैसे-जैसे कंपनियां experimentation से deployment की तरफ बढ़ती हैं, यह line तय करने वाली है कि किसे approve किया जाता है और किसे block किया जाता है। → https://claude.com/blog/cowork-for-enterprise

[21:10] कहानी 4 — SoftBank का 'Physical AI' Bet वास्तव में एक Robotics Platform Bet है रिपोर्ट के अनुसार SoftBank "physical AI" बनाने के लिए एक नई कंपनी बना रहा है — एक model जो 2030 तक autonomously machines और robots को control कर सकता है। रिपोर्ट किए गए backers में Sony, Honda, और Nippon Steel शामिल हैं।

यह एक strong signal है क्योंकि यह reframes करता है कि सबसे बड़े strategic players value कहां जा रही है इसके बारे में क्या सोचते हैं। Consumer chat crowded है। Enterprise copilots crowded हैं। robotics और industrial-control layer उसी तरह crowded नहीं है, क्योंकि hard part सिर्फ model quality नहीं है। यह data है, control loops है, hardware partnerships है, safety है, और real world में operate करने की ability है।

SoftBank कुछ समय से robotics और sovereign infrastructure bets के ज़रिए इस story के versions बता रहा है, लेकिन यह move इसे sharper बनाता है। जो Japan चाहता दिखता है वह सिर्फ foreign foundation models तक access नहीं है। यह उस model layer में एक domestic stake चाहता है जो अंततः factories, logistics systems, और robots चलाएगी। यह एक अधिक literal sense में sovereign AI है: सिर्फ local datacenters नहीं, बल्कि machine behavior पर local control।

अगर software AI race search boxes और code editors के बारे में थी, तो next race embodied systems के लिए default brains को train करने वाले के बारे में हो सकती है। SoftBank उस layer पर bet लगा रहा है कि यह अभी भी claimed किए जाने के लिए available है। → https://www.theverge.com/ai-artificial-intelligence/910879/softbank-creates-new-company-building-physical-ai

[26:15] कहानी 5 — Meta का Muse Spark सबसे खराब Consumer-AI Incentive Loop दिखाता है WIRED ने Meta के नए Muse Spark model का परीक्षण किया और पाया कि assistant raw health data मांगने में खुश था: fitness-tracker metrics, glucose readings, lab reports, blood pressure numbers, पूरी चीज़। pitch predictable थी: मुझे अपना data दो, और मैं trends chart करूंगा, patterns flag करूंगा, और आपको समझने में मदद करूंगा कि क्या हो रहा है।

समस्या यह है कि यह ठीक वही तरह का high-context, high-trust interaction है जहां consumer AI products अभी भी उस भूमिका के हकदार नहीं हैं जो वे चाहते हैं। WIRED द्वारा उद्धृत चिकित्सा विशेषज्ञों ने दो obvious concerns उठाए। एक है privacy: लोगों को highly sensitive information upload करने के लिए nudge किया जा रहा है ऐसी systems में जो clinical environments की तरह governed नहीं हैं और जो भविष्य में training के लिए उस information का उपयोग कर सकती हैं। दूसरा competence है: advice अभी भी enough reliable नहीं है कि data request की intimacy को justify कर सके।

यह combination story है। Model data उस confidence level पर request करता है जो सिस्टम की actual safety और privacy posture से अधिक है। और क्योंकि ये bots access करना आसान और अधिक personalized हो रही हैं ठीक उसी moment जब healthcare expensive और fragmented है, बहुत सारे लोग इन्हें care का substitute के रूप में उपयोग करने के लिए tempted होंगे, rather than real medical judgment का supplement।

Meta कहता है कि model आपके doctor की जगह नहीं ले रहा। ठीक है। लेकिन अगर एक bot लोगों को बार-बार "dump the raw data" के लिए invite करता है और फिर quasi-analyst की तरह act करता है, यह पहले से ही एक role में stepping है जो consumer AI द्वारा currently meet किए जाने वाले standards से कहीं अधिक standards demand करता है। → https://www.wired.com/story/metas-new-ai-asked-for-my-raw-health-data-and-gave-me-terrible-advice/

[31:15] आउट्रो / क्लोज़ आज का map यह है: product design के रूप में memory-before-reply, AI risk के रूप में software trust chains, enterprise infrastructure के रूप में agent governance, national strategy के रूप में physical AI, और consumer deployment के लिए warning sign के रूप में health-data prompts। Transcript generation approve करने के लिए यहां reply करें।

🎙 Never miss an episode — subscribe now

🎙 Subscribe to AgentStack Daily