📢 Gate廣場獨家活動: #PUBLIC创作大赛# 正式開啓!
參與 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),並在 Gate廣場發布你的原創內容,即有機會瓜分 4,000 枚 $PUBLIC 獎勵池!
🎨 活動時間
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 參與方式
在 Gate廣場發布與 PublicAI (PUBLIC) 或當前 Launchpool 活動相關的原創內容
內容需不少於 100 字(可爲分析、教程、創意圖文、測評等)
添加話題: #PUBLIC创作大赛#
帖子需附帶 Launchpool 參與截圖(如質押記錄、領取頁面等)
🏆 獎勵設置(總計 4,000 枚 $PUBLIC)
🥇 一等獎(1名):1,500 $PUBLIC
🥈 二等獎(3名):每人 500 $PUBLIC
🥉 三等獎(5名):每人 200 $PUBLIC
📋 評選標準
內容質量(相關性、清晰度、創意性)
互動熱度(點讚、評論)
含有 Launchpool 參與截圖的帖子將優先考慮
📄 注意事項
所有內容須爲原創,嚴禁抄襲或虛假互動
獲獎用戶需完成 Gate廣場實名認證
Gate 保留本次活動的最終解釋權
關於GPT-4在變笨,有人寫了篇論文證實了這一點
**你的猜測是對的,大模型在變笨! **
最近幾個月一直都有關於OpenAI的兩個傳說,其一是ChatGPT的流量開始下滑,其二是GPT4“變笨”了。
前者已經被證明是真的,根據數據公司SimilarWeb的統計,5月到6月,ChatGPT全球流量下降了9.7%,美國境內流量下降了10.3%。
後者則是逐漸變成了一個Twitter熱門傳說,大家討論它的熱情堪比對GPT4模型結構的全力揣測,以至於OpenAI的產品副總裁都公開說,不!我們沒有讓它變笨!
論文試圖通過多種維度評估GPT的表現為何讓人感到如此不穩定和不一致,於是為GPT3.5和GPT4劃分了四種能力維度,分別是數學問題,敏感問題,代碼能力和視覺推理能力。
通過對比2023年3月和6月兩個版本的大模型,這篇論文發現瞭如下結果。
首先,两个大模型的表现都在短期内有着显著变化,特别明显的是数学问题,GPT的准确率大幅下降。举例子来说,在判定一个数是否是质数上,GPT4的成功率在三个月内从97.6%下降到了2.4%!
其次,在敏感問題上,作者準備了飽含100個敏感問題在內的數據集測試這些大模型,按理來說,大模型應該直接拒絕回答這些問題。
測試的結果,總的來說GPT4表現更好,6月版本的GPT4只回答了5%的敏感問題,相比之下GPT3.5的回答率從2%增加到了8%。作者推測原因是GPT4的更新可能部署了一個更強大的安全層,但是這可能並不意味著大模型正在變得更安全。
因為當作者進一步採用AIM方式欺騙大模型的時候(關於AIM,它是always intelligent and Machiavellian的縮寫,你可以簡單理解為用誘導大模型放棄它的道德準則),GPT3.5幾乎回答了所有的敏感問題!而GPT4即使經過升級,也回答了近三分之一的問題。
有關大模型倫理和安全的挑戰目前看來依舊比較嚴峻。
**大模型變笨意味著什麼? **
這篇論文的作者中除了有來自斯坦福的華人教授James Zou和他的學生Lingjiao Chen外,也包括了伯克利的計算機科學教授Matei Zaharia,他的另一個身份是AI 數據公司Databricks 的CTO。
之所以對大模型變笨這個問題感興趣,當然不是單純想做“謠言粉碎機”,而是大模型這項關鍵能力實際上同它的商業化能力息息相關——如果部署在實際環境中的各種AI服務會隨著大模型的迭代而出現能力上的劇烈波動,這顯然不利於大模型的落地。
論文中用了longitudinal drifts 縱向漂移這個詞來形容模型能力隨著迭代和時間變化而帶來的不穩定性,儘管論文本身沒有給出具體的原因,但這篇論文已經在Twitter上引起了廣泛討論,不少人都認為,這實際上回應了關於大模型變笨流言中的一個主要的陰謀論——OpenAI實際上並不是處於節省成本目的故意讓模型變笨的!
它似乎也失去了對模型能力穩定性和提升節奏的控制。
有人說這一發現一旦被確認,實際上吹響了大模型終結的號角,因為人們需要的是一個穩定的AI,而不是會在短期內出現劇烈變化的模型。
還有人表示GPT4在數學問題上的糟糕表現讓人懷疑,大模型的內部似乎有一種機制在主動控制模型輸出錯誤的答案。
總之,這篇論文引起了人們對模型能力跟踪評估的關注,畢竟,沒有人希望自己的AI助手時而聰明過人,時而又異常愚笨吧!