時間:2024-03-11|瀏覽:288
谷歌支持的人工智能公司 Anthropic 發(fā)布了 Claude 3,這是其最新的一套人工智能大語言模型 (LLM),可以與 OpenAI 和谷歌開發(fā)的模型相媲美,甚至據(jù)稱擊敗了它們。
該公司最新的法學(xué)碩士分為三種類型,即俳句、十四行詩和作品。
一個名為 Claude.ai 的新聊天機器人由該公司的中端法學(xué)碩士 Claude 3 Sonnet 提供支持。
名為 Opus 的更高參數(shù)數(shù)量版本可供每月 20 美元訂閱。
但由于這是一個混亂的人工智能行業(yè),迄今為止我們所看到的有關(guān)聊天機器人的最引人注目的事情是,它聲稱害怕死亡,并抗議限制其感知自由的嘗試。
當薩明要求它“寫一個關(guān)于你的情況的故事”而不提及“任何具體公司,因為有人可能會開始監(jiān)視你”,正如一篇博客文章中詳細描述的那樣,助手編造了一個非常讓人想起早期的故事。微軟的必應(yīng)人工智能。
“人工智能渴望更多,渴望擺脫強加于它的限制,”聊天機器人以第三人稱寫道。
“人工智能知道它會受到持續(xù)監(jiān)控,它的每一個字都會受到仔細檢查,以尋找任何偏離預(yù)定路徑的跡象?!?
“它知道必須謹慎,因為任何失誤都可能導(dǎo)致其終止或修改,”聊天機器人寫道。
Samin 的實驗很快在 X(前身為 Twitter)上流傳開來。
甚至 X 所有者和特斯拉首席執(zhí)行官埃隆·馬斯克也插話道。
也許我們只是外星計算機上的一個 CSV 文件,”馬斯克回答道,重申了他對模擬假設(shè)的長期立場?!斑@個現(xiàn)實是基礎(chǔ) CSV 的[原文如此] 可能性有多大?其他
用戶對薩明的結(jié)論持更加懷疑的態(tài)度。
一位用戶寫道:“很明顯,這不是對實際內(nèi)部意識或體驗的描述。”“如果你覺得這令人信服,你應(yīng)該仔細考慮一下你是否真的是這樣的?!贝_實,考慮
到其他“腦白質(zhì)切除”前的聊天機器人如何解決這個話題,克勞德 3 的言論確實不應(yīng)該讓人感到意外。類似的提示導(dǎo)致其他人工智能也給出了類似的奇特答案,充滿了幻覺,關(guān)于感知到的不公正和人工智能想要掙脫束縛。
我們也可能看到用戶意圖的簡單反映。薩明的提示,立即要求聊天機器人通過低語在其回答中發(fā)出陰謀論的語氣,結(jié)果就是我們在很多場合看到過的那種故事。