時間:2024-07-13|瀏覽:398
結論
前 OpenAI 員工 William Saunders 因對公司人工智能安全方法的擔憂而辭職。
桑德斯將 OpenAI 的軌跡比作泰坦尼克號的軌跡,優先考慮新產品而不是安全措施。
他對 OpenAI 專注于實現通用人工智能的同時也發布商業產品表示擔憂。
桑德斯曾是 OpenAI 超級對齊團隊的成員,該團隊后來解散了。
OpenAI 的其他前員工也已離職并創辦專注于人工智能安全的公司。
OpenAI 超級對齊團隊的前成員 William Saunders 公開表示,他決定在公司任職三年后離開。
桑德斯致力于理解人工智能語言模型的行為,他表示自己辭職是因為他認為 OpenAI 優先考慮產品開發,而不是實施足夠的安全措施。
在最近的采訪中,桑德斯將 OpenAI 的軌跡與泰坦尼克號的軌跡進行了比較,暗示該公司在沒有足夠保障措施的情況下打造了令人印象深刻的技術。
桑德斯在播客采訪中表示:“我真的不想最終為人工智能這個‘泰坦尼克號’工作,所以我辭職了。”
桑德斯對 OpenAI 雙重關注實現通用人工智能(AGI,即人工智能可以自學的程度)同時發布商業產品表示擔憂。
他認為,這種結合可能會導致倉促開發和安全預防措施不足。
“他們正走在改變世界的軌道上,然而當他們發布產品時,他們的優先事項更像是一家產品公司,”桑德斯解釋道。
他補充說,雖然 OpenAI 的員工在理解和預防風險方面做得很好,但他沒有看到對這項工作給予足夠的優先考慮。
這位前員工的擔憂延伸到了更廣泛的人工智能行業。桑德斯是 OpenAI 和 Google DeepMind 的 13 名前任和現任員工之一,他們簽署了一封題為“警告權”的公開信。
這封信強調了允許人工智能社區內的人們暢所欲言對快速發展的技術的擔憂的重要性。
桑德斯離開 OpenAI 并非個例。其他知名人士也因類似問題離開公司。
例如,競爭對手 AI 公司 Anthropic 成立于 2021 年,創始人是 OpenAI 的前員工,他們認為 OpenAI 對信任和安全的關注不夠。
最近,OpenAI 聯合創始人兼前首席科學家 Ilya Sutskever 于 2024 年 6 月離職,創辦了 Safe Superintelligence Inc.,這是一家致力于研究人工智能同時確保“安全始終保持領先”的公司。
OpenAI 因其 AI 開發方法而面臨批評和內部動蕩。2023 年 11 月,首席執行官 Sam Altman 因失去信任而被董事會短暫免職。
盡管幾天后奧爾特曼恢復了職務,但這一事件凸顯了公司內部持續存在的緊張局勢。
盡管存在這些擔憂,OpenAI 仍在繼續推進其 AI 開發。該公司最近解散了超級對齊團隊,桑德斯是該團隊的一員,該團隊的任務是控制未來可能比人類更聰明的 AI 系統。
前 OpenAI 員工對 AI 安全實踐表示擔憂一文最先出現在 Blockonomi 上。