AI Engineer Summit 实录

定义 AI 工程师

Greg Brockman 的构建之路与未来愿景

OpenAI 总裁 Greg Brockman 分享了他从数学爱好者到 AI 领导者的转变,探讨工程与研究的共生关系,以及 AI 如何重塑软件开发的未来。

Greg Brockman

Greg Brockman

Jensen Huang

Jensen Huang (特邀提问)

🏷️ 分类: 技术 科学
🔖 标签: #人工智能 #深度学习 #AGI #OpenAI #工程与研究 #软件开发

01. 创造的火花:从抽象到实现

Greg Brockman 最初梦想成为数学家,致力于解决百年尺度的抽象问题。“如果我的成果在我生前被应用,那就说明它还不够长远。”

但为了出版一本化学教科书而自学编程(W3Schools)时,他发现了“魔法”。

“在数学中,你写下证明,也许只有三个人会在意。但在编程中,每个人都能受益,无需理解细节。你头脑中的东西变成了现实。”

这一刻改变了他的轨迹:“我只想构建(I just want to build)。”

影响力实现所需时间对比

02. 速度的信条:Stripe 的教训

Greg 从哈佛和 MIT 退学加入早期的 Stripe(当时仅3人)。这段经历展示了如何通过第一性原理和极高强度来挑战行业惯例。

案例:Wells Fargo 技术集成

当 Stripe 需要扩展支付后端时,银行告知集成需要 9 个月。Greg 和团队将其视为“大学习题集”,通宵工作,甚至在认证电话会议中实时调试代码(Patrick 负责拖延时间,Greg 负责修改代码)。

“不要接受其他组织运作方式中的任意限制(arbitrary constraints)。”

集成速度对比

行业标准
9 个月
VS
Stripe 速度
24 小时
效率提升约 270 倍

03. AGI 愿景:历史的回响与规模的力量

Greg 坚信深度学习是通往通用人工智能(AGI)的正确路径,这一信念源于对计算机历史的深刻理解和对规模化的认同。

1950

图灵的“儿童机器”

阿兰·图灵提出,与其编写所有规则,不如构建一个像儿童一样学习的机器,通过奖惩机制使其智能化。Greg 认为这是构建能解决人类自身无法理解问题的关键。

2008

早期的失望

Greg 曾对传统的符号主义 NLP(如解析树、WordNet)感到失望,认为这并非图灵所指的方向。

2012

AlexNet 时刻与深度学习复兴

AlexNet 在 ImageNet 大获全胜。这个通用学习机器超越了 40 年的计算机视觉研究,并开始打破不同领域的壁垒。“这正是图灵所谈论的。”

未来

规模化的信仰 (Scaling)

Greg 引用了90年代对神经网络的批评:“他们没有新想法,只想建造更大的计算机。”他的回应是:“是的,这正是我们需要做的。”

04. OpenAI 方程式:研究与工程的融合

在 AI 领域,伟大的工程师能与伟大的研究者做出同等级别的贡献。“如果没有想法(研究),你就死在水里了。但如果没有工程(执行),那个想法也无法重见天日。”

思维模式的天然张力

工程师视角 🛠️

关注接口和抽象。追求系统的稳定性和可扩展性。认为接口背后的实现可以独立进行。

研究人员视角 🔬

关注系统整体性能。任何 Bug 都可能导致性能下降而非明显报错(“不会得到异常”)。因此需要理解全局,跨越抽象层。

核心解决方案:技术谦逊
(Technical Humility)

这种张力会导致摩擦。Greg 给进入 AI 领域的工程师最重要的建议是保持谦逊。

认识到 AI 开发环境与传统 Web 开发的巨大差异,首先深入倾听和理解“为什么”(the why),然后再着手改变架构或抽象。

05. 指数级影响:规模的挑战

OpenAI 的产品发布展示了公众对 AI 技术的巨大热情和随之而来的前所未有的工程压力。ChatGPT 原本只是“低调的研究预览”。

用户采用速度对比 (前 5 天)

100 倍的增长压力

ChatGPT(2022 年)

100 万用户

4.0 ImageGen(2025 年)

1 亿用户

应对策略

为了应对流量高峰,OpenAI 不得不从研究中抽调计算资源来支持产品上线——“抵押未来以使系统运行”——以确保用户能体验到魔法。

06. AI 时代的编程范式

随着 Codex 等工具的出现,“Vibe Coding”(氛围编程)成为现实。但 Greg 认为,软件开发正在从交互式循环转向更自主的“Agent 化工作流”。

开发流程的演进

1. 交互式循环 (当前)

人类主导,AI 辅助(如 Vibe Coding/Copilot)。擅长从零开始快速构建新应用原型。

2. 深入现有系统 (过渡)

AI 开始处理严肃的工程任务,如迁移遗留代码库(COBOL)、更新依赖项等人类不喜欢的繁琐工作。

3. Agent 化工作流 (未来)

成千上万(10万+)的 AI Agent 在云端自主运行,即使在用户离线(睡眠、笔记本关闭)时也能持续构建和维护系统。

为 AI 优化代码结构

现有的代码库是为人类优化的。为了最大化 AI 的效用,我们需要调整代码结构以适应模型的优势,这实际上是回归良好的软件工程实践:

模块化设计

构建更小、独立的模块。人类定义架构(连接深度思想),AI 填充细节(处理多样性内容)。

强化测试

AI 会比人类多运行 100 到 1000 倍的测试,因此完善且快速的测试用例价值被极大放大。

07. 硬件难题 (特邀 Jensen Huang)

英伟达 CEO Jensen Huang 提出了一个核心挑战:未来的 AI 工作负载将极其多样化。如何构建一个能同时满足矛盾需求的 AI 基础设施?

AI 基础设施的核心矛盾

工作负载 A:深度推理

  • Agent 进行研究、思考、规划
  • 需要大量内存和长上下文
  • 计算密集型 (Compute-intensive)
  • 优化目标:高吞吐量
协同设计挑战
(Co-design Problem)

工作负载 B:实时交互

  • 多模态 AI 伙伴(视觉/语音)
  • 始终在线,即时可用
  • 对延迟极其敏感 (Latency-sensitive)
  • 优化目标:低延迟

Greg 的回应:适应性是关键

虽然理想情况下可能需要两种专用加速器(计算优化型和延迟优化型),但预测两者的比例非常困难,失衡会导致资源浪费。

Greg 强调了软件的适应性:如果资源失衡,工程师会找到利用它的方法。例如,混合专家模型(MoE)就是利用闲置 DRAM 存储更多参数来提高效率。研究的快速发展主导着硬件设计。

08. 下一个前沿:瓶颈的转移

当被问及未来模型(如 GPT-6)面临的限制因素(计算、数据、算法、能源、资金)时,Greg 指出了一个关键转变。

“基础研究回来了”
(Basic Research is Back)

过去一段时间,行业似乎认为只需要扩展 Transformer 模型即可。但现在,计算和数据已经被推向极限。

算力与数据

算法 (Algorithms)

算法再次成为未来进展最关键的限制因素(long pole)。例如,强化学习(RL)范式对于让模型真正体验世界、解决可靠性问题至关重要。

结语:构建 10 倍的未来

我们正走向一个由 AI 驱动的经济,未来将有更多的模型(Menagerie of models)和 Agent 出现。核心目标并非关注 AI 如何替代现有工作。

“重点是我们如何获得 10 倍的经济产出,10 倍的利益给每个人?”

模型将变得更强大,准入门槛将更低,但在医疗、教育等领域仍需要大量的领域专业知识和细致工作。

对于 AI 工程师来说,机会是无限的。
现在正是构建的时刻。