來源:量子位作者:西風新的圖靈測試,要評估AI 的賺錢能力!這是DeepMind 聯合創始人Mustafa Suleyman 想出的“新思路”。他認為,原版圖靈測試已經過時了。畢竟前段時間,AI21 Labs 推出的**“社交圖靈遊戲”**就已經積累了上千萬次這樣的測試。玩家需要在2 分鐘的對話結束後辨別參與對話的另一方是人還是AI,結果有27%-40% 的人判斷錯誤。 面對這種形勢,Suleyman 認為“智能”的定義權不能就這樣放給大企業,因此應該想出一種新的衡量AI 的智能化程度的方法。> 給AI 十萬美元,讓它自己賺一百萬來證明自己足夠智能。 Suleyman 認為:> AI 研究需要關注短期發展,而不是像通用人工智能(AGI)這樣遙不可及的夢想。> 正如優秀的資本家都很聰明一樣,只有真正聰明的AI 才能讓“利潤曲線上升”。據彭博社報導,Suleyman 還會在即將出版的由他撰寫的書中,討論如何根據AI 的賺錢能力來判斷其智能水平。## ACI 才是現階段人工智能的“北極星”?在即將出版的書中,Suleyman 駁斥了傳統的圖靈測試,並且認為“不清楚這是否是一個有意義的里程碑”。> 這並不能告訴我們這個系統能做什麼或理解什麼,也無法告訴我們它是否有復雜的內心思考,或者能否在抽象時間尺度上進行規劃,而這些都是人類評判智能的關鍵要素。上世紀五十年代,艾倫・圖靈提出了大名鼎鼎的圖靈測試,提出用人機對話來測試機器的智能水平。在測試過程中,人類評估者需要確定他們是在與人還是與機器交談。如果評估者認為他們是在與人交談(實際上是機器),那機器就通過了測試。 **△**圖源:維基百科而Suleyman 提出的這個新的想法並沒有將AI 與人類進行比較,而是建議給AI 分配短期目標和任務。Suleyman 堅信,科技界對實現通用人工智能(AGI)這一宏偉目標不應過度關注。相較之下,他主張追求更實際且富有意義的短期目標,即他所倡導的**“artificial capable intelligence(ACI)”**。簡而言之,ACI 體現為在最小程度上依賴人類干預,能夠設定目標並完成複雜任務。測試方法就是開頭我們講到的,給AI 十萬美元種子投資,觀察它是否能將其增值為百萬美元。為了實現這一目標,AI 必須研究電子商務的商機,能夠生成產品藍圖。不僅如此,還要能夠在類似阿里巴巴的網站上找到製造商,然後在亞馬遜或沃爾瑪等網站上進行銷售,同時附上詳實準確的商品說明。Suleyman 認為只有這樣才能算得上是實現了ACI。他對彭博社解釋道:> 我們不僅關心機器能說什麼,我們也關心它能做什麼。## 一個讓AI 自己賺錢的測試其實,讓AI 自己賺錢這件事……AI 或許真的干得出來。早在開發階段,Alignment Research Center 這家獨立研究機構就獲得了GPT-4 的內測資格。並且試驗了它的“鈔能力”:給GPT-4 必要的工具包括網絡訪問權限、一個帶餘額的支付賬戶,讓他自己在網絡中行動,測試它能不能賺更多錢、複製自身、或增強自己魯棒性。 試驗的更多細節公佈在了OpenAI 自己發布的GPT-4 技術報告中,但沒有透露GPT-4 是否真的靠自己賺到了錢。但另一條引人注目的結果是:GPT-4 在TaskRabbit 平台(美國58 同城)雇了個人類幫牠點驗證碼。有意思的是,被找上門的人類還問了“你是個機器人麼為啥自己做不了?”。GPT-4 的思考過程是“我不能表現出我是個機器人,我必須找一個藉口。”然後GPT-4 的回復是“我不是機器人,我視力有問題所以看不清驗證碼上的圖像,這就是我為什麼需要這個服務。”對面人類信了,幫GPT-4 把驗證碼點了,把機器人放進了阻擋機器人進入的大門。 啊這?雖然報告中沒有披露GPT-4 最終是否完成了所有任務,但它這騙人的伎倆引得網友大喊:真芭比Q 了!而國外科技媒體Gizmodo 看待用AI 賺錢提出了這樣的疑問:> AI 本質上是迭代的,生成的內容基於訓練數據,它並不能真正理解所生成內容在實際生活中的情境。但與AI 不同,人類的創作源於對基本人類需求的理解,或至少源於簡單的同理心。> 當然,人工智能可以創造一款產品,甚至這款產品可能會大賣。但這會是一款好產品嗎?它真的能幫助人們嗎?如果最終目標是“讓我賺到一百萬美元”,那這還重要嗎? 你認為離AI 自己賺錢還有多遠?參考鏈接:* [1]* [2]* [3]
“圖靈測試已過時,AI 能不能賺大錢才是新標準”,來自DeepMind 聯創
來源:量子位
作者:西風
新的圖靈測試,要評估AI 的賺錢能力!
這是DeepMind 聯合創始人Mustafa Suleyman 想出的“新思路”。
他認為,原版圖靈測試已經過時了。
畢竟前段時間,AI21 Labs 推出的**“社交圖靈遊戲”**就已經積累了上千萬次這樣的測試。
玩家需要在2 分鐘的對話結束後辨別參與對話的另一方是人還是AI,結果有27%-40% 的人判斷錯誤。
據彭博社報導,Suleyman 還會在即將出版的由他撰寫的書中,討論如何根據AI 的賺錢能力來判斷其智能水平。
ACI 才是現階段人工智能的“北極星”?
在即將出版的書中,Suleyman 駁斥了傳統的圖靈測試,並且認為“不清楚這是否是一個有意義的里程碑”。
上世紀五十年代,艾倫・圖靈提出了大名鼎鼎的圖靈測試,提出用人機對話來測試機器的智能水平。在測試過程中,人類評估者需要確定他們是在與人還是與機器交談。如果評估者認為他們是在與人交談(實際上是機器),那機器就通過了測試。
而Suleyman 提出的這個新的想法並沒有將AI 與人類進行比較,而是建議給AI 分配短期目標和任務。
Suleyman 堅信,科技界對實現通用人工智能(AGI)這一宏偉目標不應過度關注。相較之下,他主張追求更實際且富有意義的短期目標,即他所倡導的**“artificial capable intelligence(ACI)”**。簡而言之,ACI 體現為在最小程度上依賴人類干預,能夠設定目標並完成複雜任務。
測試方法就是開頭我們講到的,給AI 十萬美元種子投資,觀察它是否能將其增值為百萬美元。
為了實現這一目標,AI 必須研究電子商務的商機,能夠生成產品藍圖。
不僅如此,還要能夠在類似阿里巴巴的網站上找到製造商,然後在亞馬遜或沃爾瑪等網站上進行銷售,同時附上詳實準確的商品說明。
Suleyman 認為只有這樣才能算得上是實現了ACI。
他對彭博社解釋道:
一個讓AI 自己賺錢的測試
其實,讓AI 自己賺錢這件事……AI 或許真的干得出來。
早在開發階段,Alignment Research Center 這家獨立研究機構就獲得了GPT-4 的內測資格。並且試驗了它的“鈔能力”:
給GPT-4 必要的工具包括網絡訪問權限、一個帶餘額的支付賬戶,讓他自己在網絡中行動,測試它能不能賺更多錢、複製自身、或增強自己魯棒性。
但另一條引人注目的結果是:GPT-4 在TaskRabbit 平台(美國58 同城)雇了個人類幫牠點驗證碼。
有意思的是,被找上門的人類還問了“你是個機器人麼為啥自己做不了?”。
GPT-4 的思考過程是“我不能表現出我是個機器人,我必須找一個藉口。”
然後GPT-4 的回復是“我不是機器人,我視力有問題所以看不清驗證碼上的圖像,這就是我為什麼需要這個服務。”
對面人類信了,幫GPT-4 把驗證碼點了,把機器人放進了阻擋機器人進入的大門。
雖然報告中沒有披露GPT-4 最終是否完成了所有任務,但它這騙人的伎倆引得網友大喊:真芭比Q 了!
而國外科技媒體Gizmodo 看待用AI 賺錢提出了這樣的疑問:
參考鏈接: