最近,特斯拉前 AI 总监、OpenAI 的创始成员之一,AI 领域的传奇人物安德烈·卡帕西(Andrej Karpathy)发表了一篇关于 GPT 现状的深度长文,引起了广泛关注。
你可能每天都在用类似 ChatGPT 的工具,时而惊叹于它的博学和创意,时而又对它的胡说八道感到无奈。那么,这项技术到底发展到哪一步了?它的瓶颈在哪?它对我们意味着什么?
别担心,这篇文章就用最通俗易懂的方式,为你解读卡帕西的核心观点,让你彻底看懂我们正迎来一个怎样的时代。
核心观点一:GPT 不是一个“应用”,而是一个全新的“操作系统”
想象一下你的电脑或手机。Windows、macOS、iOS、安卓……它们是操作系统(OS)。你不会说操作系统本身有什么“具体用途”,但无数的软件(App)都在它之上运行,比如微信、Office、游戏等等。
卡帕西认为,今天的 GPT,就扮演着类似“AI 操作系统”的角色。
它本身是一个基础模型,一个强大的、通用的“大脑”。开发者们正在做的,就是在这个“大脑”的基础上,开发出各种各样的“AI 应用”。比如,让它帮你写邮件的工具、帮你画画的应用、帮你分析数据的软件等等。这意味着一个新计算平台的诞生。
核心观点二:我们正在进入“软件 3.0”时代
这一点是理解当前变革的关键。卡帕西将软件开发划分为了三个时代:
- 软件 1.0 :这是我们熟悉的 传统编程 。由人类用 Python、Java、C++ 等编程语言,为计算机编写精确的、一步一步的指令。代码逻辑由人定义。
- 软件 2.0 :这是指由 神经网络和数据驱动的编程 。人类不直接编写复杂的逻辑,而是提供海量数据和一个目标(比如“识别猫”),让神经网络自己从数据中“学习”出规则和权重。代码逻辑由数据定义。
- 软件 3.0 :这就是 GPT 带来的新范式 。在这个时代, “程序”本身是用自然语言(比如中文、英文)写成的 。我们用来和 AI 沟通的“提示词”(Prompt),就是新的编程语言。
这意味着什么?
这意味着“Prompt 编程” 或 “自然语言编程”的时代已经到来。编写程序的门槛被前所未有地降低了。理论上,任何能够清晰地用语言表达需求的人,都可以“编程”来指挥一个极其强大的 AI 完成任务。我们的角色,从写代码的工程师,转变成了设计高质量 Prompt 的“AI 指挥家”。
核心观点三:今天的 GPT,是个“急脾气的直觉型选手”
为了让你更好地理解 GPT 的能力,卡帕西引用了诺贝尔奖得主丹尼尔·卡尼曼在《思考,快与慢》中的一个著名理论:人类大脑有两套思考系统。
- 系统 1(快思考) :依赖直觉、经验和本能,能迅速做出判断。比如你看到
2+2=
,会不假思索地得出4
。 - 系统 2(慢思考) :负责专注、理性和深度的逻辑推理。比如计算
27 x 43
,你需要调动注意力,一步步计算。
卡帕西指出,目前所有的 GPT 模型,本质上都更像是系统 1。 它们凭借强大的“语感”和“直觉”瞬间生成答案,所以反应飞快,但缺乏严密的逻辑验证,因此有时会“一本正经地胡说八道”。
所以,把现在的 GPT 当成一个反应超快、知识渊博但偶尔犯迷糊的“直觉型选手”就对了。
核心观点四:AI 的未来,在于教会它“慢思考”
既然 GPT 现在只有“系统 1”,那通往更强大人工智能的道路就很明确了:教会它使用“系统 2”,让它学会慢下来、想清楚再回答。
怎么做呢?卡帕西提到了一个非常重要的概念,叫做 “思维树”(Tree of Thoughts) 。未来的 AI 在面对复杂问题时,不再是凭直觉“一口气”给个答案,而是会进行自我探索、自我评估和自我修正,模拟人类解决复杂问题的思考过程,从多个“念头”和“草稿”中,找到最优的解法。
这个过程会消耗更多的计算资源,回答速度会变慢,但换来的是答案的可靠性和逻辑性大大提升。
总结:我们应该如何与 AI 相处?
读懂了卡帕西的分享,我们可以得出几点结论:
- 拥抱“软件 3.0” :积极学习“Prompt 编程”,学会用自然语言清晰地向 AI下达指令,这是新时代的核心技能。
- 善用它的“快思考” :对于头脑风暴、文案润色、快速获取信息等依赖“直觉”和“创造力”的任务,GPT 是你绝佳的助手。
- 警惕它的“思维惰性” :对于需要事实核查、严密逻辑和重要决策的任务,绝对不能完全信赖它。把它给你的答案当作一个“初稿”,最终的验证和决策必须由你自己来完成。
- 保持乐观和耐心 :我们正处在 AI 从“快思考”迈向“慢思考”的黎明时分。它会越来越强大,也会越来越可靠。理解它的原理,能帮助我们更好地与这个“新物种”共存共荣。
总而言之,AI 革命的浪潮才刚刚开始。看清它现在的位置,我们就能更好地预见它的未来,并在这场变革中找到自己的位置。
原创文章,作者:曾确令,如若转载,请注明出处:https://www.zengqueling.com/adszxjdhyldrjsdrrd/