隨著人工智慧(AI)科技快速發展,全球不少新創公司與知名企業紛紛投入研發AI心理治療工具(CAI),希望藉此降低心理治療費用,並突破時間與地點的限制。不過,這股新趨勢也引發心理治療從業者與研究人員的憂慮,質疑使用CAI進行的干預措施,是否能稱為真正的「心理治療」,並指出其中涉及諸多倫理問題。
根據《psychologytoday》發表的文章,研究心理學的學者尼克.卡布雷爾(Nick Kabrel)表示,他完全贊同質疑CAI的觀點。他指出,深入探討心理治療的本質後,不難發現CAI介入措施仍無法稱作真正的心理治療。雖然CAI可以模仿心理治療的結構、方法與目標,甚至在治療過程中採用類似的問答方式,但人工智慧仍無法取代人類心理治療師在某些關鍵面向的角色。
美國佛羅里達大學心理系助理教授艾琳(Erin)亦曾指出,AI無法協助來訪者進行「意義建構」(meaning-making),而這正是心理治療中極為核心的一環。
心理學博士Hannah Holmes也分享了她對CAI的研究經驗。她指出,AI治療工具目前缺乏對人際關係的理解與思考能力。在真實的治療過程中,個案會展現脆弱性與真實的自我,但AI無法體會「人類可能會討厭或拒絕他人」這樣的複雜情感。
Hannah也點出目前CAI在常見的倫理問題上表現不佳。她分享,曾經註冊一款AI治療工具,使用過第一次後隔天便收到一封電子郵件,提醒她可回顧自己從中獲得的「新見解」。她認為這樣的互動突顯了她並非某位治療師的被治療者,而只是這項產品的消費者。
她強調,從倫理與法律觀點出發,真正的「心理治療」必須將來訪者的福祉置於首位。若治療無效、甚至可能造成傷害,或來訪者已達成治療目標,治療師應主動終止治療。但目前AI工具尚無法提供這種保障,也無法有效監控治療計畫與進度,亟待相關單位進一步研議與規範。
【往下看更多】
● 16歲老狗狗「身上綁白色氣球」參加派對 原因暖哭350萬人
● 暴雨引發山洪 北京密雲區多輛車被沖走
● 一家四口虐9童 「關籠、臉噴醋」 全家收押保釋金天價
【今日最熱門】
● 快訊/大罷免失敗!林右昌宣布:辭民進黨秘書長
● 台南後壁淹水!黃偉哲臉書遭灌爆:剛睡醒嗎 本人回應了
● 謝淑薇發聲談大罷免:自由不是拿來傷人的武器