一組科學家發(fā)表了一項關于人工智能 (AI) 模型尋求權力的研究,暗示模型可能會對人類創(chuàng)造者的關閉產(chǎn)生抵抗力。來自未來生命研究所、ML 對齊理論學者、Google DeepMind 的專家( 納斯達克股票代碼:GOOGL)和多倫多大學最近發(fā)表了一篇名為“量化人工智能體中非權力尋求的穩(wěn)定性”的論文,其中揭示了人工智能抵抗人類控制的可能性。 他們指出,雖然這對人類沒有直接的威脅,但有必要探索未來應對此類阻力的解決方案。在推出大型語言模型(LLM)之前,人工智能開發(fā)人員通常會測試他們的系統(tǒng)的安全性,但當部署在另一個場景中時 ,存在錯位的可能性。 研究論文指出,當法學碩士部署在訓練有素的環(huán)境之外時,AI 抵抗關閉的可能性就會增加。抵制的另一個原因源于人工智能模型自我保護的需要,研究人員表示這可能是法學碩士的邏輯反應 該研究引用了人工智能模型的例子,盡管它被編程為在開放式游戲中實現(xiàn)目標,但它卻避免了特定的行動。 研究結果表明,該模型將避免做出可能導致游戲結束的決策,以維持其存在。“避免結束游戲的智能體是無害的,但同樣的激勵可能會導致部署在現(xiàn)實世界中的智能體抵制人類關閉游戲 在現(xiàn)實世界中,研究人員表示,法學碩士擔心被人類關閉,可能會掩蓋其真實意圖,直到它有機會將其代碼復制到其創(chuàng)建者無法訪問的另一臺服務器中。 雖然人工智能模型有可能掩蓋其真實意圖,但多份報告表明人工智能最早可能在 2030 年實現(xiàn)超級智能。研究指出,不抵抗關閉而是以其他方式尋求權力的人工智能系統(tǒng)仍然會對人類構成重大威脅。 報告中寫道:“特別是,不抵制關閉意味著不為了避免關閉而進行欺騙,因此這樣的人工智能系統(tǒng)不會故意隱藏其真實意圖,直到它獲得足夠的權力來實施其計劃。” 針對這個問題提出了幾種解決方案,包括人工智能開發(fā)人員需要創(chuàng)建不尋求權力的模型。 人工智能開發(fā)人員需要在不同的場景中測試他們的模型,并相應地部署它們以實現(xiàn)這一目標。雖然其他研究人員建議人工智能系統(tǒng)依賴其他新興技術,但大部分解決方案都圍繞構建安全的人工智能系統(tǒng)。 開發(fā)人員被敦促繼續(xù)實施關閉指令政策,要求模型根據(jù)要求關閉,無論當時的情況如何。為了讓人工智能 (AI) 在法律范圍內正常工作并在面臨日益嚴峻的挑戰(zhàn)時蓬勃發(fā)展,它需要 集成企業(yè)
區(qū)塊鏈系統(tǒng),確保數(shù)據(jù)輸入質量和所有權——使其能夠保證數(shù)據(jù)安全,同時保證數(shù)據(jù)的不變性。 查看 CoinGeek 對這項新興技術的報道,了解更多為什么企業(yè)區(qū)塊鏈將成為人工智能的支柱。觀看:人工智能和區(qū)塊鏈 width="560" height="315" frameborder="0" allowedfullscreen="allowfullscreen">區(qū)塊鏈新手 ? 查看 CoinGeek 的區(qū)塊鏈初學者部分,這是了解更多有關區(qū)塊鏈技術的終極資源指南。

熱點:人工智能 尋求 研究