人工智能的討論已經達到了可預見的僵局。用戶表示他們不信任人工智能。公司承諾透明度。監管機構威脅要干預。然而核心問題依然存在:人們無法信任他們不理解的東西,而大多數人工智能系統仍然以用戶感到陌生的方式進行溝通。
信任危機與其說是關於信任本身,不如說是關於翻譯。當貸款申請被拒絕,求職者被篩選掉,或學生的目的陳述被標記為人工智能抄襲時,系統很少以人類能夠理解的方式解釋其推理。用戶只能猜測,感到沮喪和懷疑。
這項技術功能強大,但它不展示其工作原理;沒有可解釋性。
這種翻譯差距帶來經濟和社會後果。2023年KPMG全球研究發現,61%的人對信任人工智能系統持謹慎態度,只有一半人認為其益處大於風險。這種不信任使企業因延遲採用人工智能而損失數十億未實現的生產力。
但問題不僅限於商業結果。在許多領域,人工智能系統現在塑造著對個人有重大影響的決策。當這些系統無法解釋自己時,它們就成為不負責任的把關者。
教育是一個明顯的例子。算法評估來自學術表現、財務能力、位置到職業目標的數千個數據點,並產生影響學生未來的建議。
類似:「人工智能法官」能否成為解決尼日利亞司法系統問題的方案?
然而學生很少知道為什麼會出現某些選項或系統如何解釋他們的信息。類似的不透明性出現在醫療保健、招聘、金融和公共服務領域。
認為人工智能「太複雜無法解釋」的論點忽略了重點。複雜性不是障礙;溝通才是。其他領域每天都在為非專業人士翻譯複雜信息。挑戰不是使底層系統更簡單;而是以用戶能夠理解的方式表達其邏輯。
雖然技術可解釋性研究繼續進步,它提供了追踪模型行為的方法。然而,如果解釋需要核心領域知識背景,這些方法意義不大。解決翻譯問題需要的不僅僅是暴露內部邏輯;它需要產生可理解、相關且可用的解釋。
解決翻譯差距將實現更快速、更自信的採用。人們使用他們理解的工具。當用戶理解系統為何以某種方式運作時,他們更有可能接受並有效使用其建議。
展望未來,開發者不僅要問「這是否有效?」還要問「用戶能否理解它為何有效?」部署人工智能的組織應該在技術優化的同時投資於溝通設計。
圖片來源:Unsplash
監管機構應要求針對用戶的解釋,而不僅僅是為審計員提供文檔。清晰的解釋支持更好的決策、更多的參與和更公平的結果。
翻譯必須成為人工智能系統的核心功能。這意味著設計能以簡明語言溝通的工具,用真實用戶測試解釋,並暫緩部署無法清晰表達其推理的系統。影響人們生活的技術必須能夠解釋自己。任何不足之處都不是信任問題;而是翻譯失敗。
Mathilda Oladimeji是路易斯安那州立大學信息系統的博士研究員,她研究人工智能可解釋性和用戶信任。
她之前曾擔任Intake Education在非洲的區域營銷經理,管理超過100所大學的數字營銷活動。


