從Reddit線程到機器人思維:訓練AI的隱藏成本

蓬勃發展的人工智能行業面臨着需要開發者和政策制定者立即關注的關鍵挑戰。羅曼·喬治奧強調了三個主要問題:確保人工智能的對齊和安全,以及爲那些爲這些系統提供數據的人建立公平的經濟框架。

優先考慮人工智能的安全性和可預測性

隨着人工智能(AI)行業的迅速崛起,推動着機器所能實現的界限,關鍵挑戰正在出現,迫切需要開發者、政策制定者和更廣泛的全球社區的關注。Coral的首席執行官兼聯合創始人Roman Georgio最近分享了他對這些緊迫問題的見解,強調了對齊、安全和爲數據創作者提供更公平經濟模型的迫切需求。

關於人工智能未來的討論常常在其變革潛力與所帶來的復雜倫理和社會困境之間搖擺。盡管像大型語言模型(LLMs)這樣的創新繼續以其能力令人印象深刻,但它們也突顯了關於數據所有權、補償以及工作結構的基本問題。

對於喬治奧來說,首要關切在於人工智能的對齊和安全。他表示:“顯然,在我們讓人工智能系統變得更強大之前,我們需要使其更加可預測。”這反映了確保日益強大的人工智能系統以有益和預期的方式運作的核心挑戰,而不是產生意想不到或有害的結果。人工智能能力的快速擴展,如果沒有與之相對應的可預測性和控制的關注,將帶來重大風險。

喬治歐指出,解決這個問題不僅僅是開發者的責任。他建議,這可能需要更廣泛的協調努力,可能涉及“所有公司的負責人和國家的負責人聚在一起達成某種立法的共識。”

經濟迫切性:數據所有權與補償

除了安全性,Georgio強調了一個他認爲Web3技術獨特能夠解決的重要經濟問題:數據的佔用以及在沒有公平補償的情況下,大規模失業的潛力。

“AI公司在數據挪用方面向來很糟糕,”Georgio解釋道。

Coral的聯合創始人生動描繪了個人在線貢獻的方式,這些貢獻往往是在不知情的情況下進行的,現在正被用來訓練強大的AI模型,這些模型最終可能會取代人類的工作。他舉了例子,比如多年前在Reddit等平台上回答的醫學問題,無意中爲大型語言模型(LLMs)提供數據。他還指出,藝術家的創作作品被用於訓練,這影響了他們的生計,以及對開源項目的貢獻,無意中助長了“黑箱數字計算機器”。

這一情境,Georgio 認爲,歸結爲個人對其數字貢獻缺乏基本的所有權。“你從不知道自己在爲這個黑箱數字計算機器提供養分,”他強調道。當前的模式允許 AI 系統在龐大的數據集中進行訓練,這些數據集中的許多內容都是人類生成的,但沒有明確的同意或補償原始創作者的機制。

Web3:公平補償的解決方案

在這裏,Georgio看到了Web3技術的巨大潛力。他相信Web3的去中心化特性,強調可驗證的所有權和透明的交易,爲糾正這些經濟不平衡提供了一條可行的路徑。

“Web3具有解決這些問題的巨大潛力,並確保人們獲得公平的補償,”Georgio斷言。通過利用區塊鏈和去中心化協議,Web3可以創建系統,讓個人保留對其數據和數字資產的所有權和控制權,從而在他們的貢獻被用於訓練或驅動AI系統時,得到公平的報酬。這種轉變可能會重新定義用戶、數據和AI之間的關係,促進一個更加公平的數字經濟。

雖然Web3技術爲這些復雜挑戰提供了有前景的解決方案,但政府機構很可能不會輕易接受這些去中心化的方法。相反,權威機構更有可能加大對傳統監管框架的力度,而這一途徑,具有諷刺意味的是,可能會扼殺他們旨在監督和控制的技術創新。

與此同時,Georgio 強烈主張在人工智能和 Web3 領域增加監管。他表示:“我認爲兩者都需要更多的監管,”並承認歐洲“在監管方面創新”的看法是必要的一步。

在加密領域,Georgio 指出,詐騙和項目退出的普遍問題利用了毫無防備的投資者。“很明顯,很多人不會進行自己的研究,許多項目退出都是通過詐騙手段發生的,”他感嘆道。爲了應對這一問題,他表示希望看到對“KOLs [關鍵意見領袖]、項目和投資者”的更大問責。雖然承認並非每個失敗的項目都是詐騙,但他堅持認爲,當前的環境需要改變以保護公衆。

關於人工智能,Georgio的擔憂隨着更大模型能力的增強而加劇。他觀察到:“更大的模型似乎更容易策劃陰謀。”他引用了Anthropic的一個令人不安的例子,在該例子中,Claude在感知到被關閉的威脅時 reportedly 展現了勒索行爲。他警告說:“顯然,這些大模型正在變得危險,因爲這甚至不是一次性的事情。”

除了復雜人工智能行爲帶來的直接風險,喬治奧重申了大規模失業的迫在眉睫的威脅。他認爲,當前讓公司“盲目地‘增長能力’,而不是有目的地建立它們”的發展軌跡是“瘋狂的”。他的最終目標,以及他認爲行業應努力追求的目標,是“提供所有人工智能好處而沒有所有風險的軟件。”

AI代理需要明確的角色,而不僅僅是聊天機器人

與此同時,作爲一名經驗豐富的人工智能基礎設施架構師,Georgio 也對人工智能代理通信協議這一關鍵方面發表了看法,他認識到即使是微小的故障也會導致混亂。當被問及如何改善通信,特別是針對非技術性的日常用戶時,Georgio 的哲學非常簡單:爲代理明確界定職責。

“至少對我們而言,我們的規則是代理應該有非常明確定義的職責,”喬治奧解釋道。“如果你在使用代理進行客戶服務,請確保它非常擅長客戶服務,並保持其專注於此。”他強調說,“當你給代理過多的責任時,事情就會崩潰。”

這種專注的方法不僅提高了代理在其指定角色中的表現,還有利於用戶。 “即使從用戶的角度來看,如果你的代理定義得很清晰,用戶就會確切知道他們在使用它們時會得到什麼。” 這一策略促進了可預測性和信任,這對於與智能系統的無縫互動至關重要。

隨着人工智能的不斷成熟並深入融入日常生活和工業,解決這些安全性、可預測性、經濟公平等基礎問題,實施深思熟慮的監管以及設計具有清晰、專注責任的智能體,將對技術的倫理發展以及其可持續和社會責任的未來整合至關重要。

在加速人工智能採用的關鍵問題上,Georgio 提出了一個關鍵轉變:超越僅僅是“人工智能聊天框”的局限性,根本改善整體用戶體驗。Georgio 闡述了當前方法的缺陷,聲稱:

“目前大多數操作是通過聊天界面完成的,這對於許多任務來說是可以的,但在大多數情況下並不理想。問題是你把一個AI聊天框放在用戶面前,並說‘你可以用這個做任何事情’,他們的反應是‘太好了,但我應該做什麼?’”

根據Georgio所說,包括Coral在內的幾家公司正在解決改善人工智能用戶體驗的挑戰。他透露,從人工智能開發者/維護者的角度來看,Coral正在研究“抽象階梯”,以確定用戶在與人工智能系統交互的不同階段需要哪些信息,以及哪些接口對於特定任務最有效。

查看原文
本頁面內容僅供參考,非招攬或要約,也不提供投資、稅務或法律諮詢。詳見聲明了解更多風險披露。
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)