時(shí)間:2024-02-22|瀏覽:352
據(jù)報(bào)道,OpenAI 聯(lián)合創(chuàng)始人 Sam Altman 正在尋求為一個(gè)項(xiàng)目籌集高達(dá) 7 萬億美元的資金,以解決由于生成人工智能 (GenAI) 需求快速增長而導(dǎo)致的全球半導(dǎo)體芯片嚴(yán)重短缺問題。 但奧特曼表示,事情遠(yuǎn)不止于此:
“我們相信,世界需要的人工智能基礎(chǔ)設(shè)施——晶圓廠產(chǎn)能、能源、數(shù)據(jù)中心等——比人們目前計(jì)劃建造的還要多。 建設(shè)大規(guī)模的人工智能基礎(chǔ)設(shè)施和有彈性的供應(yīng)鏈對于經(jīng)濟(jì)競爭力至關(guān)重要。 OpenAI 將盡力提供幫助!” 奧特曼在 X 帖子中寫道。
我們相信,世界需要的人工智能基礎(chǔ)設(shè)施——晶圓廠產(chǎn)能、能源、數(shù)據(jù)中心等——比人們目前計(jì)劃建造的還要多。建設(shè)大規(guī)模的人工智能基礎(chǔ)設(shè)施和有彈性的供應(yīng)鏈,對于經(jīng)濟(jì)競爭力至關(guān)重要。openai 將嘗試幫助!
— Sam Altman (@sama) 2024 年 2 月 7 日
如此規(guī)模的資金規(guī)模意味著一切都將建立在 GenAI 之上,最終目標(biāo)是實(shí)現(xiàn)通用人工智能,即超越人類智能的系統(tǒng),這本身就是一個(gè)有爭議的問題。
相關(guān):比特幣可能會(huì)跌至 30,000 美元,但這沒關(guān)系
為什么我們需要“大規(guī)模擴(kuò)展”人工智能基礎(chǔ)設(shè)施?
“你可以努力幫助確保我們共同的未來,或者你可以寫出關(guān)于我們?yōu)槭裁磿?huì)失敗的子堆棧,”奧特曼在隨后的帖子中補(bǔ)充道。
你可以努力幫助確保我們共同的未來,或者你可以寫下為什么我們會(huì)失敗的子堆棧
— 薩姆·奧爾特曼 (@sama) 2024 年 2 月 11 日
真的是為了確保“我們共同的未來”嗎? 或者OpenAI的未來?
OpenAI 需要更多的計(jì)算能力和更多的數(shù)據(jù)中心(目前依賴微軟)來克服其增長限制,特別是人工智能芯片的短缺,而人工智能芯片對于訓(xùn)練 ChatGPT 等大型語言模型 (LLM) 至關(guān)重要。
除了巨額資金——這比除美國和中國以外任何國家的GDP都多——奧特曼的“要求”還有一些不負(fù)責(zé)任的地方。
沒有任何技術(shù)是完美的,人工智能也不例外。 人工智能給社會(huì)帶來巨大利益的潛力與造成破壞和傷害的潛力一樣大。 立法者要求企業(yè)堅(jiān)持負(fù)責(zé)任的人工智能和負(fù)責(zé)任的創(chuàng)新,我們作為一個(gè)社會(huì)也應(yīng)該這樣要求。
負(fù)責(zé)任的創(chuàng)新是指讓新技術(shù)為社會(huì)服務(wù),但不會(huì)造成比其解決的問題更多的問題。 這適用于所有組織、行業(yè)和地區(qū)的所有技術(shù)、所有創(chuàng)新。
我們這不是太超前了嗎? 難道我們不應(yīng)該解決人工智能系統(tǒng)帶來的風(fēng)險(xiǎn)和挑戰(zhàn),減輕和控制它們的風(fēng)險(xiǎn),確保它們在擴(kuò)展它們之前不會(huì)造成比它們解決的問題更多的問題嗎?
人工智能風(fēng)險(xiǎn)與挑戰(zhàn)
AI is data driven, and with GenAI we’re looking at vast amounts of data. This reliance on data brings a lot of critical risks and challenges. Data might be incomplete or erroneous or be used inappropriately, incorrectly, or inaccurately. If the input is incorrect so too would the output: “Garbage in, garbage out.” In the world of LLMs, we're now facing “Garbage in, garbage out” on steroids. When LLMs process poor or outdated information, they don't just replicate it. They amplify it, making it sound correct and plausible. This “garbage on steroids” phenomenon brings us to a crucial juncture.
Moreover, one of the central problems with AI systems is algorithmic bias and it has been well documented that it leads to discrimination. This problem has not been appropriately addressed yet, although legislators have requested tech companies to do so.
Related: 2024 will be the Ethereum network's biggest year in history
And there are other problems, especially with GenAI: hallucinations, mis/disinformation, lack of explainability, scams, copyrights, users’ privacy, and data security — all of which have not been fully addressed and mitigated. A less discussed issue, but an essential one, is AI's environmental implications. AI systems are a vulture of energy, which it requires for computing and data centers.
The International Energy Agency forecasted that global electricity demand, driven by AI growth, will double by 2026. This problem might be mitigated as computers get more efficient, or with more efficient techniques to cut energy or the use of renewables. But these potential solutions have not been tested, and many have not been fully developed yet.
The Biden administration & the European Union call for responsible AI
Lawmakers are calling for "responsible AI" — safe, secure, and trustworthy. President Joe Biden signed an executive order in September (EO) requiring, among other things, that companies 1) develop AI tools to find and fix cybersecurity vulnerabilities; 2) develop and use privacy-preserving techniques — such as cryptographic tools that preserve individuals’ privacy of the trained data; 3) protect consumers, patients, and students — to avoid AI raising the risk of injuring, misleading, or otherwise harming Americans; 4) protect workers against the dangers of increased workplace surveillance, bias, and job displacement; and 5) a special focus on algorithmic bias and discrimination to make sure that algorithmic bias is addressed throughout the development and training of these systems.
In July 2023, OpenAI signed a voluntary commitment with the Biden administration to manage the risks posed by AI and adhere to responsible AI. OpenAI hasn’t quite demonstrated the actionable "responsible AI" it pledged to undertake.
The European Commission’s AI Act. Source: euAIact.com
與 EO 一樣,歐盟的人工智能法案要求下游開發(fā)文檔和審計(jì)的透明度,特別是對于基礎(chǔ)模型和 GenAI。 人工智能系統(tǒng)的建立并沒有提供這些信息,立法者也沒有提供任何實(shí)際的解決方案。 對可審計(jì)的負(fù)責(zé)任的人工智能的需求出現(xiàn)了。 這就是區(qū)塊鏈技術(shù)可以幫助提供解決方案的地方,使公司能夠遵守立法者的要求并實(shí)施“可審計(jì)的負(fù)責(zé)任的人工智能”——安全、可靠且值得信賴。 也許 OpenAI 可以考慮實(shí)施這樣的解決方案,并展示人工智能系統(tǒng)的適當(dāng)可審計(jì)性。
實(shí)施負(fù)責(zé)任的人工智能——包括人工智能系統(tǒng)的可審計(jì)性和減輕能源影響——所有這些都應(yīng)在擴(kuò)展這些系統(tǒng)之前得到令人滿意的結(jié)果,更不用說“大規(guī)模擴(kuò)展”了。
負(fù)責(zé)任地創(chuàng)新并確保人工智能系統(tǒng)安全、可靠且值得信賴,這將確保我們共同的未來。 這也許不是薩姆·奧爾特曼的方式,但卻是正確的方式。
Merav Ozair 博士 正在維克森林大學(xué)和康奈爾大學(xué)開發(fā)和教授新興技術(shù)課程。 她之前是羅格斯商學(xué)院的金融科技教授,教授 Web3 和相關(guān)新興技術(shù)的課程。 她是國際可信區(qū)塊鏈應(yīng)用協(xié)會(huì) (INATBA) 學(xué)術(shù)顧問委員會(huì)成員,并擔(dān)任 EQM Indexes(區(qū)塊鏈指數(shù)委員會(huì))顧問委員會(huì)成員。 她是 Web3 和 AI 端到端咨詢公司 Emerging Technologies Mastery 的創(chuàng)始人,并擁有紐約大學(xué)斯特恩商學(xué)院的博士學(xué)位。
本文僅供一般參考之用,無意也不應(yīng)被視為法律或投資建議。 這里表達(dá)的觀點(diǎn)、想法和意見僅代表作者個(gè)人觀點(diǎn),并不一定反映或代表Cointelegraph的觀點(diǎn)和意見。