Anthropic 研究 AI 負面影響的努力正面臨壓力

今天,我和 Verge 的高級 AI 記者 Hayden Field 討論了一些負責研究 AI 的人,以及他們如何決定 AI 可能以何種方式……嗯,毀掉世界。這些人工作於 Anthropic 的一個團隊,名為社會影響團隊,Hayden 最近花時間為她本週發佈的專題進行採訪。這個團隊只有 9 人,而 Anthropic 總共有 2,000 多名員工。他們的唯一工作,正如團隊成員所說的,是調查和發佈所謂的「不便真相」,關於人們如何使用 AI 工具、聊天機器人可能對我們的心理健康造成的影響,以及這一切可能對勞動市場、經濟,甚至我們的選舉產生的更廣泛的連鎖反應。這當然引發了一系列問題。最重要的是這個團隊能否保持獨立,甚至是否能夠存在,因為他們要公佈有關 Anthropic 自身產品的研究結果,而這些結果可能不太光彩或具有政治風險。畢竟,整個 AI 行業,尤其是 Anthropic,面臨著來自特朗普政府的巨大壓力,該政府在 7 月發佈了一項行政命令,禁止所謂的「覺醒 AI」。Verge 訂閱者,別忘了你在任何播客平台上都可以獨享無廣告的 Decoder。請點擊這裡。如果你還不是訂閱者,可以在這裡註冊。

如果你一直關注科技行業,這個故事的輪廓會讓你感到熟悉。我們最近在社交媒體公司和負責內容審核的信任與安全團隊中看到了這種情況。Meta 經歷了無數次這樣的循環,投入資源去解決其自身規模所帶來的問題以及 Facebook 和 Instagram 等產品的不可預測性。然後,過了一段時間,似乎資源就枯竭了,或者 Mark Zuckerberg 開始感到厭倦,或者對 MMA 更感興趣,或者只是與特朗普拉近關係,而產品並沒有真正改變以反映研究所顯示的情況。我們現在正處於這樣的時刻。社交平台已經削減了對選舉完整性和其他形式內容審核的投資。與此同時,矽谷正與特朗普白宮緊密合作,抵制有意義的 AI 監管嘗試。因此,你將會聽到,這就是為什麼 Hayden 對 Anthropic 的這個團隊如此感興趣。它在目前的行業中根本上是獨特的。事實上,Anthropic 是一個異類,因為其 CEO Dario Amodei 對於在州和聯邦層面推動 AI 監管的呼聲非常接受。Anthropic 還被視為領先 AI 實驗室中最注重安全的,因為它是由對 AI 安全問題感到擔憂的前 OpenAI 研究高管成立的。他們擔心自己對 AI 安全的擔憂沒有得到重視。實際上,有許多由前 OpenAI 人員組成的公司,擔心 Sam Altman 和 AI 安全。這是一個行業的真實主題,Anthropic 似乎正將其推向下一個層次。

於是我問 Hayden 關於這些壓力,以及 Anthropic 在行業中的聲譽可能如何影響社會影響團隊的運作——以及它是否真的能夠有意義地研究,甚至影響 AI 產品的開發。或者,如歷史所示,這將只是在紙面上看起來很好,直到該團隊悄然消失。這裡有很多內容,特別是如果你對 AI 公司如何從文化、道德和商業角度看待安全感興趣。

一個快速公告:我們將於本月晚些時候推出特別的年終信箱集數,回答你對節目的問題:我們應該和誰交談、2026 年我們會討論什麼主題、你喜歡什麼、你討厭什麼,所有這些。請將你的問題發送至 [email protected],我們會盡力涵蓋盡可能多的問題。如果你想閱讀更多關於我們在這一集討論的內容,請查看這些鏈接:

標題 來源
他們的工作是防止 AI 毀滅一切 The Verge
Anthropic 詳細說明如何衡量 Claude 的覺醒程度 The Verge
白宮命令科技公司讓 AI 再次偏見 The Verge
混亂與謊言:為何 Sam Altman 被 OpenAI 開除 The Verge
Anthropic CEO Dario Amodei 再次呼籲 AI 監管 Inc.
Elon Musk 如何重塑 Grok NYT
Anthropic 嘗試緩解白宮的反彈 Axios
新 AI 戰爭:白宮對抗 Anthropic Axios
Anthropic CEO 表示公司最終會尋求海灣國家的投資 Wired

對於這一集有任何問題或意見嗎?請發送電子郵件至 [email protected]。我們確實會閱讀每封電子郵件!