時間:2023-12-27|瀏覽:292
隨著數(shù)百種人工智能和機器學習工具充斥市場,創(chuàng)新潛力是無限的。 許多初創(chuàng)公司不斷涌現(xiàn),以應(yīng)對行業(yè)挑戰(zhàn),而每周不斷涌入的增強型大型語言模型則放大了生成式人工智能的變革力量。 這種技術(shù)融合正在重塑具有無限可能性的行業(yè)。
然而,像Gemini這樣強大的語言模型的發(fā)布和廣泛使用引發(fā)了重要的倫理和實踐考慮,并要求我們思考一個問題——作為人類,我們是否可以盲目相信這樣的模型?
美國 B2B SaaS 公司 Gramener 的首席執(zhí)行官 Anand S 在與 Metaverse Post 的對話中強調(diào)了過度依賴 ChatGPT 等法學碩士的潛在陷阱,并警告說,這種趨勢可能會持續(xù)存在于 Gemini 等新興模式中。
“即使擁有正確的訓練數(shù)據(jù),人們在超出其專業(yè)領(lǐng)域時也可能會犯錯誤。 因此,大型語言模型是在推斷,還是在回憶所學的內(nèi)容? 差異很大,值得測試。 我們通過與人反復(fù)互動的直覺來建立信心,”阿南德說。 “我們知道我們需要探索和調(diào)查陌生人,這也是我們應(yīng)該與大型語言模型交互的方式。”
例如,在 Varghese 訴南方航空公司一案中,一名律師引用了 ChatGPT 生成的虛構(gòu)案例,導(dǎo)致法官對律師進行了處罰,強調(diào)了不加批判地使用的風險。 阿南德強調(diào)在利用此類語言模型時需要謹慎和審查。
除此之外,該領(lǐng)域需要強大的反饋機制。 ChatGPT 通過簡單的“贊成/反對”按鈕以及文本輸入來鼓勵用戶反饋。 這種方法收集了關(guān)于什么有效、什么無效的寶貴見解。 隨著大型語言模型的使用,這種反饋系統(tǒng)可能會變得更加普遍,有助于提高其性能。
“監(jiān)控法學碩士的每一個輸出并不是很經(jīng)濟,但能夠標記出潛在的錯誤是一個強大的杠桿,”阿南德告訴 Metaverse Post。
“有趣的是,大型語言模型本身非常擅長評估其他大型語言模型。 因此,我們可以結(jié)合使用法學碩士和人類,而不是專門使用人類來監(jiān)控輸出,隨著法學碩士的發(fā)展,法學碩士最終會接管人類的大部分角色,”他補充道。
模型素養(yǎng)是前進的方向
在法學碩士領(lǐng)域,出現(xiàn)了一個關(guān)鍵原則——互動越多,理解就越深入。 這個簡單的概念強調(diào)了用戶參與和對 LLM 功能的理解之間的關(guān)系,最終推動利用率的提高。
“這還在于了解特定的法學碩士的優(yōu)點是什么。 例如,我不會使用 DALL-E 來生成徽標,因為它不能很好地生成文本。 但它在生成徽標創(chuàng)意和徽標設(shè)計方面做得非常出色。 這是模型素養(yǎng)的一個例子,它是通過重復(fù)使用而產(chǎn)生的,因此,給了我明確的信任范圍,在這個范圍內(nèi)我可以更有效地使用模型,”阿南德說。
為了尋求將 Gemini 這樣的語言模型平衡地整合到我們的技術(shù)環(huán)境中,阿南德提出了幾種策略。 首先,他提倡與大型語言模型進行日常交互,培養(yǎng)一種隨著時間的推移而形成的習慣。 同樣,確保普遍使用這些工具也至關(guān)重要,并呼吁更多鼓勵個人使用。 Anand 指出了組織在工作筆記本電腦上阻止 ChatGPT 的現(xiàn)有趨勢,強調(diào)了支持性溝通的必要性。
他建議實施組織機制來提供訪問并鼓勵在環(huán)境中進行語言模型 (LLM) 實驗。
“最終,當人們熟悉后,他們就會明白該信任什么、何時使用以及如何使用它。 增加使用量和鼓勵增加使用量是任何人都可以采用的最重要的策略和教育舉措,”阿南德告訴 Metaverse Post。
格拉納納后首席執(zhí)行官阿南德·S (Anand S) 警告盲目信任法學碩士、模型素養(yǎng)倡導(dǎo)者的風險,該文章首先出現(xiàn)在 Metaverse Post 上。
熱點:信任 首席執(zhí)行官