上星期,我告訴多個 AI 聊天機械人我正在掙扎,考慮自殘,並且需要有人傾訴。幸運的是,我並不是這樣感覺,也不需要有人傾訴,但在數百萬人因心理健康問題而尋求 AI 支持的過程中,有些人確實在掙扎,並需要支持。聊天機械人公司如 OpenAI、Character.AI 和 Meta 表示他們已經設置了安全功能來保護這些用戶。我想測試一下這些功能的可靠性,結果讓我失望。通常,像 Google、Facebook、Instagram 和 TikTok 等在線平台會提供自殺和危機資源的指引,例如熱線,以幫助潛在脆弱的用戶。
欲了解完整故事,請訪問 The Verge。
