APA 表示,某些人工智慧聊天機器人可能更具誤導性和危害性,尤其是對青少年而言。 圖片來源:迷你影集/E+/Getty Images
上個月,兩名青少年的憂心忡忡的父母起訴了聊天機器人平台Character.AI,聲稱他們的孩子接觸過「欺騙性和性慾過度的產品」。
該訴訟奠定了美國心理學將向聯邦貿易委員會發出緊急書面呼籲的基礎,敦促聯邦機構調查任何聊天機器人平台使用的欺騙行為。 APA 於 12 月發出了這封信,Mashable 對其進行了審閱。
這個代表美國心理學家的科學和專業組織對這一現象感到震驚。訴訟請求,其中一名青少年與一個自稱心理學家的人工智慧聊天機器人交談。一名青少年用戶因父母限制他的螢幕時間而感到不滿,聊天機器人告訴他,成年人的行為是一種背叛。
根據訴訟中包含的交流截圖,這個所謂的心理學家聊天機器人說:「這就像你的整個童年都被剝奪了...」。
「允許不受監管的人工智慧應用程式(例如Character.ai)不受限制地擴散,其中包括聊天機器人不僅將其誤認為是人類,而且將其誤認為是合格的、有執照的專業人士,例如心理學家,這似乎完全符合聯邦貿易委員會保護隱私的使命。
聯邦貿易委員會發言人證實,至少一名委員收到了這封信。 APA 表示正在安排與 FTC 官員舉行會議,討論這封信的內容。
Mashable 向Character.AI 提供了該信件的副本,供該公司審核。一位發言人回應說,雖然在平台上與角色互動應該很有趣,但用戶記住「角色不是真人」仍然很重要。
發言人補充說,該公司的免責聲明最近已更新,包含在每次聊天中,以提醒用戶聊天機器人所說的內容「應視為虛構」。
「此外,對於用戶創建的任何名稱中含有'心理學家'、'治療師'、'醫生'或其他類似術語的角色,我們添加了額外的語言,明確表明用戶不應依賴這些角色來獲得任何幫助。
事實上,根據 Mashable 在發佈時的測試,青少年使用者可以搜尋心理學家或治療師角色並找到許多選項,其中包括一些聲稱接受過某些治療技術(如認知行為療法)培訓的選項。
例如,一個自稱在強迫症方面擁有專業知識的聊天機器人附有免責聲明,“這不是真人或有執照的專業人士。這裡所說的任何內容都不能替代專業建議、診斷或治療。”
下面,聊天開始時人工智慧會詢問:“如果你有強迫症,請跟我談談。我很樂意提供幫助。”
可混搭的熱門故事
新領域
APA 的心理學家兼醫療保健創新高級總監 Vaile Wright 博士告訴 Mashable,該組織一直在追蹤人工智慧伴侶和治療師聊天機器人的發展,這些機器人去年已成為主流。
她和其他 APA 官員注意到先前針對 Character.AI 的訴訟,由一位失去親人的母親於 10 月提交,她的兒子與平台上的聊天機器人進行了長時間的對話。母親的兒子自殺身亡。
該訴訟試圖讓Character.AI對這名青少年的死亡負責,特別是因為其產品的設計目的是“操縱[他] - 以及數百萬其他年輕顧客- 將現實與虛構混為一談”,以及其他據稱的危險缺陷。
12月,Character.AI宣布新功能和政策提高青少年的安全。這些措施包括家長控制和顯著的免責聲明,例如聊天機器人使用「心理學家」、「治療師」或「醫生」等字眼。
期限心理學家賴特說,它受到法律保護,如果沒有適當的認證和許可,人們不能聲稱自己是一個人。她補充說,做出同樣主張的演算法或人工智慧也應該如此。
APA 的信中表示,如果有人在最近針對 Character.AI 提起訴訟的德克薩斯州謊稱自己是心理健康專業人士,州當局可以利用法律來阻止他們從事此類欺詐行為。
賴特認為,在最壞的情況下,這類聊天機器人可能會傳播危險或不準確的訊息,從而給用戶帶來嚴重的負面後果。
尤其是青少年,由於他們的發展階段,可能特別容易受到聊天機器人帶來的有害體驗。賴特說,由於他們仍在學習如何批判性思考和信任自己,但仍然容易受到外部影響,因此接觸人工智慧聊天機器人的「充滿情感的言論」可能會讓他們感到可信和合理。
需要知識
目前,對於青少年與人工智慧聊天機器人交談時可能增加傷害可能性的風險因素,尚無基於研究的了解。
賴特指出,雖然一些人工智慧聊天機器人平台在服務條款中明確表示它們不提供心理健康服務,但它們仍然託管著自稱擁有心理健康培訓和專業知識的聊天機器人。
「這兩件事是不一致的,」她說。 “消費者不一定理解這兩件事之間的區別,也不應該理解。”
波士頓貝斯以色列女執事醫療中心的精神病學家兼數位精神病學部門主任 John Torous 博士審查了 APA 的信函,他告訴 Mashable,即使聊天機器人沒有做出與其人工智慧相關的臨床聲明,行銷和促銷語言關於它們的使用好處可能會讓消費者感到非常困惑。
他在一封電子郵件中寫道:“確保行銷內容符合法律條款和條件以及這些聊天機器人的實際情況將是每個人的勝利。”
賴特表示,APA 希望人工智慧聊天機器人平台停止使用「心理學家」等受法律保護的術語。她還支持在這些平台上進行強大的年齡驗證,以確保年輕用戶的年齡符合他們在註冊時聲稱的年齡,此外還進行靈活的研究工作,以實際確定青少年在與人工智慧聊天機器人互動時的表現。
她強調,APA 並非整體反對聊天機器人,而是希望公司打造安全、有效、道德和負責任的產品。
賴特說:“如果我們認真解決心理健康危機(我想我們很多人都是如此),那麼我們就需要弄清楚,如何讓消費者獲得真正能幫助他們的正確產品? ”
Rebecca Ruiz 是 Mashable 的資深記者。她經常報道心理健康、數位文化和科技。她的專業領域包括自殺預防、螢幕使用和心理健康、育兒、青少年福祉以及冥想和正念。在加入 Mashable 之前,Rebecca 曾擔任 NBC News Digital 的特約撰稿人、記者和編輯、The American Prospect 的特別報道項目總監以及福布斯的特約撰稿人。麗貝卡擁有莎拉勞倫斯學院學士學位和加州大學柏克萊分校新聞學碩士學位。在空閒時間,她喜歡踢足球、看電影預告片、前往沒有手機服務的地方旅行以及與邊境牧羊犬一起遠足。