一項新的研究揭示了人類與機器辯論中一個意想不到的轉折:人們更喜歡人工智能的裁決,而不是人類的裁決——至少在金錢問題上做出艱難決定時是這樣。但在交出我們財務的鑰匙之前,一些嚴重的危險信號正在飄揚。
周二公布的Marina Chugunova和Wolfgang J.Luhan的研究題為“機器人統治”。科學家發現,超過60%的參與者支持人工智能決策者重新分配收入。為什么?這不是為了避免人類偏見——人們只是認為機器是公平的。
該研究稱:“該實驗在一種公平的算法(基于數百人持有的公平原則)和一個被要求做出公平決定的人類(決策者)之間做出了選擇。”。“在缺乏組成員信息的情況下,該算法在所有選擇中占63.25%。”
即使引入了偏見的可能性,這種偏好也保持穩定。
圖片:瑪麗娜·楚古諾娃和沃爾夫岡·魯漢
但關鍵在于:雖然人們喜歡人工智能發號施令的想法,但他們對人類做出的決定評價更高。
研究稱:“人們對算法決策不太滿意,他們發現這些決策比人類決策更不公平。”。
這項研究的設置很巧妙。參與者在人類和人工智能決策者之間進行選擇,以分配來自運氣、努力和基于才能的任務的收入。即使每個群體的成員都被揭露,這可能會為歧視打開大門,人們仍然傾向于人工智能。
魯漢在一份新聞稿中表示:“許多公司已經在使用人工智能進行招聘決策和薪酬規劃,公共機構也在警務和假釋策略中使用人工智能。”。“我們的研究結果表明,隨著算法一致性的提高,公眾可能會越來越多地支持算法決策者,即使是在道德上重要的領域。”
這不僅僅是學術上的奇思妙想。隨著人工智能逐漸進入生活的更多領域——從人力資源到約會——我們如何看待它的公平性可能會決定公眾對人工智能驅動政策的支持。
然而,委婉地說,人工智能在公平性方面的記錄參差不齊。
最近的調查和研究揭示了人工智能系統中持續存在的偏見問題。早在2022年,英國信息專員辦公室就對人工智能驅動的歧視案件展開了調查,研究人員已經證明,最受歡迎的LLM具有明顯的政治偏見。埃隆·馬斯克的x.AI的Grok被特別指示避免給出“喚醒”的答案。
更糟糕的是,牛津大學、斯坦福大學和芝加哥大學的研究人員進行的一項研究發現,人工智能模型更有可能建議對說非裔美國人英語的被告判處死刑。
求職AI?研究人員發現,人工智能模型拋棄聽起來很黑的名字,偏愛亞洲女性。彭博科技報道稱:“與其他種族和民族的簡歷相比,名字與美國黑人不同的簡歷最不可能被列為金融分析師職位的最佳候選人。”。
Cass R.Sunstein在他所定義的人工智能驅動的“選擇引擎”方面的工作描繪了一幅類似的畫面,表明雖然人工智能有可能增強決策,但它也可能放大現有的偏見或被既得利益者操縱。他說:“無論人工智能是否具有家長式作風,它都可能受到自身行為偏見的影響。有證據表明,LLM顯示出人類所具有的一些偏見。”。
然而,一些研究人員,如Bo Cowgill和Catherine Tucker,認為人工智能被視為各方的中立立場,這鞏固了其在決策方面公平參與者的形象。他們在2020年的一篇研究論文中指出:“算法偏見可能比人類偏見更容易衡量和解決。”。
換句話說,一旦部署,人工智能似乎更具可控性和邏輯性——如果它偏離了預期目標,也更容易調節。這種完全無視中間人的想法是智能合約背后哲學的關鍵:自動執行的合約可以自主工作,不需要法官、escrow或人工評估。
一些加速論者認為,人工智能政府是全球社會實現公平和效率的可行途徑。然而,這可能會導致一種新的“深層國家”形式——一種不是由影子寡頭控制的國家,而是由這些人工智能系統的架構師和培訓師控制的國家。
由Ryan Ozawa編輯。
熱點:人工智能 幣界 研究