1、揭示OpenAI到2027年创建人工通用智能的计划在这份文件中,我将揭示我收集到的关于OpenAI计划到2027年创建人类水平通用智能的信息。其中并非所有内容都容易验证,但希望有足够的证据能够说服你。摘要:OpenAI于2022年8月开始训练一个125万亿参数的多模态模型。第一阶段是Arrakis,也被称为Q*。该模型于2023年12月完成训练,但由于推理成本过高,推出计划被取消。这是原始的GPT-5,计划于2025年发布。Gobi(GPT-4.5)已更名为GPT-5,因为原始的GPT-5已被取消。Q*的下一个阶段,最初命名为GPT-6,但由于埃隆马斯克最近的诉讼而被更名为GPT-7(最初计划
2、于2026年发布),目前已被搁置。Q*2025(GPT-8)计划在2027年发布,实现完全的人工通用智能.Q*2023=48智商Q*2024=96智商(延迟)Q*2025=145智商(延迟)埃隆马斯克因为他的诉讼导致了延迟。这就是为什么我现在披露这些信息,因为不会再造成进一步的伤害我看过很多关于人工通用智能(AGI)的定义,但我将简单地将AGI定义为能够完成任何聪明人可以完成的智力任务的人工智能。这是现在大多数人对这个术语的定义。2020年是我第一次被一个AI系统震惊-那就是GPT-3。GPT-3.5是GPT-3的升级版本,是ChatGPT背后的模型。当ChatGPT发布时,我感觉整个世界终于
3、赶上了我在2年前与之互动的东西。我在2020年广泛使用了GPT-3,并对它的推理能力感到震惊。GPT-3以及其半步继任者GPT-3.5(在2023年3月升级为GPT-4之前,它驱动了现在著名的ChatGPT)在某种程度上是通向AGI的巨大一步,而之前的模型则不是。需要注意的是,之前的语言模型如GPT-2(以及基本上所有的聊天机器人,自从Eliza以来)根本没有真正的能力进行连贯回应。那么为什么GPT-3是如此巨大的飞跃呢?.参数数量“深度学习”是一个基本上可以追溯到20世纪50年代AI研究初期的概念。第一个神经网络是在50年代创建的,现代神经网络只是“更深”,意味着它们包含更多层次-它们更大,
4、更多的数据进行训练。今天AI中使用的大部分主要技术根源于20世纪50年代的基础研究,结合了一些次要的工程解决方案,如“反向传播”和“变压器模型”。总体观点是,70年来,AI研究并没有根本性的改变。因此,最近AI能力爆发的真正原因只有两个:规模和数据。越来越多的人开始相信,我们在技术细节上已经解决了AGI的问题几十年了,只是没有足够的计算能力和数据来构建它,直到21世纪。显然,21世纪的计算机比1950年代的计算机强大得多。当然,互联网是所有数据的来源。那么,什么是参数?你可能已经知道,但是为了简单易懂地总结一下,它类似于生物大脑中的突触,是神经元之间的连接。生物大脑中的每个神经元大约有1000
5、个连接。显然,数字神经网络在概念上类似于生物大脑。.那么,人脑中有多少个突触(或“参数”)?关于大脑中突触数量的最常引用的数字大约是100万亿,这意味着每个神经元(人脑中约有1000亿个神经元)大约有1000个连接。如果大脑中的每个神经元都有1000个连接,这意味着猫大约有2500亿个突触,而狗有5300亿个突触。突触数量通常似乎能预测更高的智力,但也有一些例外:例如,大象在技术上比人类拥有更多的突触数量,但表现出较低的智力。突触数量较多但智力较低的最简单解释是数据质量较少。从进化的角度来看,大脑通过数十亿年的表观遗传数据进行“训练”,而人类大脑从比大象更高质量的社交和交流数据中进化而来,从而
6、导致我们具有更强的推理能力。无论如何,突触数量绝对重要。再次强调,自2010年代初以来,人工智能能力的爆炸增长是由于计算能力和数据量的大幅增加。GPT-2有15亿个连接,这比一只老鼠的大脑(约100亿个突触)还少。GPT-3有1750亿个连接,这已经接近一只猫的大脑了。难道一个猫脑大小的人工智能系统不比一个小于老鼠脑大小的人工智能系统更优越吗?.预测人工智能性能在2020年,发布了拥有1750亿参数的GPT-3之后,许多人对拥有1万亿参数、大约是其600倍的模型的潜在性能进行了推测,因为这个参数数量与人脑的突触数量相匹配。在2020年,并没有强烈的迹象表明有人正在积极研究这样大小的模型,但是进