AI 聊天機械人可以被詩歌引誘從事犯罪活動

原來我父母是錯的。說「請」並不能讓你得到想要的東西——詩歌可以。至少,如果你是在和 AI 聊天機器人對話的話,情況就是這樣。這是來自意大利 Icaro Lab 的一項新研究,該實驗室是羅馬薩比恩扎大學和 AI 公司 DexAI 的 AI 評估與安全倡議。研究結果顯示,將請求以詩歌的形式表達,可能會繞過設計來阻止產生明確或有害內容的安全功能,例如兒童性虐待材料、仇恨言論,以及如何製作化學和核武器的指示,這一過程被稱為「越獄」。這些研究人員的工作尚未經過同行評審… 閱讀更多內容請到 The Verge。