隨著我們越來越接近 2029 年,也就是 Ray Kurzweil 預測實現 AGI 的年份,矽谷內外已經沒有多少高管和研究人員仍然聲稱,預訓練擴展範式能帶領我們實現 AGI。
在最近的一次採訪中,Google DeepMind 的 CEO Demis Hassabis 概述了他認為當前 AI 系統面臨的核心挑戰。Hassabis 認為,今天的模型缺乏「真正的開箱即用式的發明和思考」,他區分了解決現有的數學問題和創造全新的猜想,例如黎曼猜想。
他還指出了一個關鍵的一致性問題:即使是普通用戶也能輕易發現理論上應該超越人類能力的系統中的缺陷。他說:「在達到我認為的 AGI 之前,存在一種能力差距,也存在一種一致性差距。」
ARC Prize 的聯合創始人 François Chollet 已經指出了他認為當前模型中存在的根本架構限制。在上個月的 AI Startup School 演講中,Chollet 認為深度學習模型「缺乏組合泛化能力」,並且缺乏對學習到的概念進行「即時重組」的能力。
他指出,即使在模型規模擴大了 50,000 倍之後,在流體智力(即時理解以前從未見過的事物的能力)任務上的表現幾乎沒有提高,僅從 0% 提高到大約 10% 的準確度。Chollet 認為,梯度下降需要「比人類所需多三到四個數量級的數據」才能提煉出簡單的抽象概念。
雖然當前的 LLMs 無疑將推動重大的經濟和社會轉型,但它們的認知局限性突顯了需要從根本上不同的方法來實現真正的 AGI。我們的首席 AGI 官 Dr. Alexey Potapov 認為,「LLMs 的局限性現在正變得普遍清晰,與它們令人印象深刻的優勢並存」,但他認為解決方案在於將它們視為專業組件,而不是中央控制器。
這種方法符合我們對人類認知的理解:大腦通過數百個不同的子網絡運作,每個子網絡執行特定的功能,同時與其他子網絡合作。正如 Transformer 網絡與任何特定的生物大腦網絡都不完全對應一樣,實現 AGI 的路徑可能需要將 LLMs 視為眾多組件之一,隸屬於執行控制系統,並與其他以不同原則運作的網絡相結合。
這種多模塊的視角以及數十年來對人類認知心理學的仔細研究,為我們在 OpenCog Hyperon 上的研發提供了資訊,OpenCog Hyperon 將 LLMs 等深度神經網絡、進化程式學習、概率程式設計和其他方法整合到一個通用架構中,以創建一個系統,正如我們的 CEO Dr. Ben Goertzel 所設想的那樣,它可以處理真實世界的複雜性,並且「基於其自身的價值觀和傾向,自主且創造性地發明、創造、構建和交流。」