時間:2024-02-17|瀏覽:364
打擊惡意使用人工智能(AI)的唯一方法可能是不斷開發(fā)更強大的人工智能并將其交到政府手中。
這似乎是一組研究人員在最近發(fā)表的一篇題??為“計算能力然后人工智能治理”的論文中得出的結(jié)論。
來自 OpenAI、劍橋、牛津和其他十幾所大學(xué)和研究所的科學(xué)家進(jìn)行了這項研究,作為調(diào)查管理人工智能使用和開發(fā)所涉及的當(dāng)前和未來潛在挑戰(zhàn)的一種手段。
集權(quán)
該論文的主要論點圍繞這樣一個觀點:表面上,控制誰有權(quán)訪問未來最強大的人工智能系統(tǒng)的唯一方法是控制對訓(xùn)練和運行模型所需的硬件的訪問。
正如研究人員所說:
“更準(zhǔn)確地說,政策制定者可以利用計算來促進(jìn)人工智能的監(jiān)管可見性,分配資源以促進(jìn)有益的結(jié)果,并對不負(fù)責(zé)任或惡意的人工智能開發(fā)和使用實施限制。”
在這種情況下,“計算”是指開發(fā)人工智能所需的基礎(chǔ)硬件,例如 GPU 和 CPU。
從本質(zhì)上講,研究人員建議,防止人們使用人工智能造成傷害的最佳方法是從源頭上切斷它們。這表明政府需要開發(fā)系統(tǒng)來監(jiān)控高級人工智能開發(fā)所必需的任何硬件的開發(fā)、銷售和操作。
人工智能治理
在某些方面,世界各國政府已經(jīng)在實行“計算治理”。例如,美國限制向中國等國家銷售某些通常用于訓(xùn)練人工智能系統(tǒng)的 GPU 模型。
相關(guān):美國官員將英偉達(dá)人工智能芯片的出口限制擴大到“一些中東國家”
但是,根據(jù)研究,真正限制惡意行為者利用人工智能造成傷害的能力將需要制造商在硬件中構(gòu)建“終止開關(guān)”。這可能使政府有能力進(jìn)行“遠(yuǎn)程執(zhí)法”工作,例如關(guān)閉非法人工智能培訓(xùn)中心。
然而,正如研究人員指出的那樣,“天真的或范圍不明確的計算治理方法在隱私、經(jīng)濟影響和權(quán)力集中等領(lǐng)域帶來了重大風(fēng)險。”
例如,監(jiān)控美國的硬件使用情況可能會違反白宮最近制定“人工智能權(quán)利法案藍(lán)圖”的指導(dǎo)方針,該藍(lán)圖規(guī)定公民有權(quán)保護自己的數(shù)據(jù)。
終止開關(guān)可能是 DOA
除了這些擔(dān)憂之外,研究人員還指出,“高效通信”訓(xùn)練的最新進(jìn)展可能會導(dǎo)致使用去中心化計算來訓(xùn)練、構(gòu)建和運行模型。
這可能會使政府越來越難以定位、監(jiān)控和關(guān)閉與非法培訓(xùn)活動相關(guān)的硬件。
研究人員表示,這可能會讓各國政府別無選擇,只能對人工智能的非法使用采取軍備競賽立場。 “社會必須及時、明智地使用更強大、更可控的計算,以防御因計算失控而帶來的新風(fēng)險。”
熱點:人工智能