Wired 的發現是一個沒人在處理的問題:如果五角大廈在 OpenAI 有明確的軍事禁令的情況下仍然通過微軟 Azure 運行 OpenAI 模型,那麼每個 AI 實驗室的「我們不會出售給 X」的政策都無法執行 — 真正的接入守門人是雲層(Azure、AWS、GCP),而不是模型開發者,這意味著未來實驗室關於禁止使用案例的 AI 安全承諾在結構上形同虛設。
這種雲層控制接入的動態直接類似於 onchain AI agents 中的 RPC layer 問題 — 無論誰擁有基礎設施層(AI 用的 Azure/AWS,Solana agents 用的 RPC nodes),無論模型/協議開發者聲稱的政策如何,他們都控制真實的接入;對 Vincent 的 onchain AI 工作的含義是「trustless」AI agents 需要真正 non-custodial 的計算基礎設施,而不僅僅是政策層面的承諾。