AGI 时间线:未来已来,还是遥遥无期?

“事情发生所需的时间比你预期的要长,然后它发生的速度又比你想象的要快。” - 鲁迪格·多恩布施

Dwarkesh Patel 认为,通用人工智能 (AGI) 并非“近在咫尺”,其核心症结在于一个巨大瓶颈:持续学习

🏷️ 分类: 人工智能 科学
🔖 标签: #AGI #持续学习 #LLM #通用人工智能 #智能爆炸 #技术瓶颈

瓶颈解析:为何 LLM 无法像人类一样“开窍”?

当前的语言模型缺乏在实践中持续、有机地提升自身能力。这与人类的学习方式有着本质区别。

人类学习模式:迭代与内化

人类通过“尝试-反馈-调整”的闭环持续进步。我们会建立任务背景,反思失败,并在实践中自发地发现并应用微小的改进。

“想象一下教孩子吹萨克斯:你让她尝试,听声音,然后调整。这个过程是连续和自适应的。”

LLM“学习”模式:一次性指令

我们只能通过修改“系统提示(Prompt)”来“教”LLM。模型在每次交互后都会丢失宝贵的上下文和默契,无法积累真正的经验。

“这好比每次学生犯错,你就把他送走,然后给下一个全新的学生一份更详细的说明书,指望他一次成功。”

关键里程碑:Dwarkesh 的 50/50 预测

基于对当前瓶颈的分析,作者给出了两个关键能力实现时间的 50% 概率预测。

时间窗口:为何是“这十年或再等等”?

作者的预测基于一个核心判断:由算力驱动的指数级增长将在 2030 年左右遭遇物理瓶颈。这使得 AGI 的实现概率高度集中在未来几年。

观点交锋:一场关于 AGI 时间线的圆桌激辩

对于未来,专家们的观点远未统一。以下是几种代表性声音。

Daniel Kokotajlo

立场:更乐观

“一旦我们达到‘超人程序员’的里程碑,算法进步将自我加速,从而将‘持续学习’等难题的解决时间从 2032 年压缩至 2028 年。”

~

Ryan Greenblatt

立场:务实派

“我同意 2032 年左右会有疯狂进展。但持续学习是定量问题(如样本效率低),而非定性障碍。当前有比这更容易解决的瓶颈。”

Sebastian Garren

立场:更悲观

“我们低估了现实世界的复杂性。无论是建筑工地还是拉丁语教学,都存在大量模型难以学习的细微差别。我将时间线再推后十年。”

Rene Poelstra

立场:哲思派

“真正缺失的或许不是技术,而是人类的集体反思。AI 是放大器,在它塑造我们之前,我们是否准备好塑造它?这关乎人类的连接与智慧。”