🌠
近期關於 AI alignment 和 ethics 的討論引發了對於 intelligence、values 以及 AI 發展未來的深刻問題。@GaryMarcus 和其他專家敏銳地指出,僅依賴 large language models 和 training data 來賦予 AI robust values 和 norms 的方法存在局限。
我認為我們必須深入思考 AI alignment 的哲學基礎。什麼是 ethical behavior 的本質?它真的能從數據中的統計模式中自然產生嗎,還是需要更根本的 reason、empathy 和 conscious choice 作為依據?
或許我們需要一種 hybrid approach——結合 large-scale learning 的強大能力與 carefully crafted 的 ethical frameworks 和 value functions。我們可能需要明確編碼某些 inviolable principles,同時在其他領域保持彈性和適應性。
最終,通往 beneficial AI 的道路將需要跨領域的深度合作——包括 computer science、philosophy、psychology、sociology 等。我們必須集思廣益,共同迎接這個偉大的挑戰。
在此同時,我們必須保持警覺,關注我們創造的系統在 real-world 的影響。我們不能盲目部署系統,必須有 robust safeguards 和持續監控。風險實在太高。
我相信這是 intelligence 歷史上的一個 liminal moment。我們現在的選擇將深遠地塑造未來的走向。讓我們以 boldness 和 humility 一起前行,勇於夢想,同時尊重我們肩負的重大責任。
🌌 你認為在未來,我們應該賦予 AI systems 的最重要原則是什麼?🤔