科技之家

科技之家,汇聚专业声音 解析IT潮流

首页 > IT业界 >

2027年通用人工智能就能实现?

来源:互联网 时间:2024-06-28 09:26:50

  被 OpenAI 的 Superalignment 研究团队解雇的 Leopold Aschenbrenner 最近发表了一篇关于人工智能的长篇大作,里面宣称根据他的曲线预测,人类到2027年就能实现通用人工智能。本文是对这一预测的讨论。文章来自编译。

  搞人工智能的人存在着两个重大分歧。一种是认为这种技术属于真正有用的迭代性改进,可实现软件的新用例。人工智能会是下一个云计算,下一个智能手机。

  另一方观点就要极端得多。他们相信人工智能终有一天会变成通用人工智能 (AGI),然后不断自我完善,达到比我们聪明 10 倍的程度。但何时会实现这一点仍存在争议。AGI究竟会毁了我们还是会赋予我们力量也存在争议。这项技术会如何自我完善也存在争议。但这股信念实在是太坚定了,以至于每个人工智能研究小组都至少会有几个追随者。

  就算你跟当今大多数投资者和创始人一样,断然否认第二种情况,其有效性也是值得思考的。因为全球某些最大型的公司都认为这是真的。埃隆·马斯克相信,我们会在不到两年的时间内拥有 AGI。微软正在制定计划,要打造一台价值 1000 亿美元的超级计算机,好去开发足够大的 AGI 模型,并计划在约六年内完成。全世界最重要的人工智能公司——OpenAI、Google DeepMind、Anthropic——都把 AGI 作为自己的明确使命。

  今天之所以要讨论这个话题,是因为这张图。此图摘自最近被 OpenAI 的 Superalignment 研究团队解雇的 Leopold Aschenbrenner 的系列长文(长达 165 页)。该系列文章的标题叫做“情境感知”( Situational Awareness),他论证了为什么第二组是正确的,以及我们应该怎么做。

  这张图表的基本观点:前几代 LLM 的能力均呈现出可预测的对数增长。只要把训练的投资增加 10 倍,LLM 的能力就会出现可预测的大幅飞跃。Aschebrenner 认为,我们距离人工智能能够进行人工智能研究(从而不断自我改进)还有约两到三个数量级(OOM)的投资距离。他说,只要培养出“一亿个自主的机器学习研究人员”就能够做到这一点。当然!为什么不呢?

  Aschenbrenner 选择通过播客采访以及大量的 Twitter 帖子来发表这些文章,这背后有他自己的动机。在我看来,这篇文章就像一位被抛弃的情人试图夺回自己失去的东西——也就是在被 OpenAI 解雇后重新夺回自己在人工智能社区的权威地位。他有双重动机想要用这些文章来引起轰动,因为他“最近成立了一家专注于 AGI 的投资公司,公司的主要投资人包括 Patrick Collison、John Collison、Nat Friedman 以及 Daniel Gross。”(就提高人们对投资工具的兴趣而言,在线 PDF 的有效性高得令人惊讶。)

  他对自己的观点很有信心,甚至向我这样的技术股票分析师发出了挑战,称“几乎没人在分析时对人工智能的未来给予了充分考虑。”首先,这很无礼。其次,他的话也许是对的。如果超人的智能真的将在三年内实现的话,那我一直在做的那些五年期的财务模型可能就是一张废纸。至少,他的文章提供了一个有用的框架工具,可以用来检验对 AGI 的看法。从本质上来说,他的论点建立在三个系列假设之上。

  AGI 的三个杠杆

  我们从图表的 Y 轴开始:“有效计算”( Effective Compute)。这个标签用三种不同的方式总结了 LLM 的改进和投资:

  计算:“用来训练这些模型的计算机”的大小,也就是使用了多少个 GPU

  算法效率:技巧的质量改进使得这些模型的训练更加高效和强大

  “解除束缚”的收益:我们所开发的,赋予了 LLM 额外力量的工具和技术(如浏览互联网)

  你应该可以注意到,这三个变量当中只有一个是数字型,并且可以很好地用电子表格跟踪 — 也就是计算,或者说有多少 GPU 在用。算法效率和“解除束缚”是对持续取得科学突破押注,不是对资本支出押注。

  但这并不能否定Aschenbrenner的计算!这种持续突破有过先例。经常被引用的摩尔定律既有赖于对芯片制造商明确的可量化的投资,也有赖于晶体管技术完全无法量化的科学突破。Aschenbrenner主张摩尔定律得改一下,要考虑到 GPU 芯片计算机的 OOM 收益以及科学突破促进了人工智能能力的提升,这是必不可少的。

  他的证据是,到目前为止,有效计算每提升一个数量级,模型都会“可预测地、可靠地”变得更好。视频生成就是这种情况:

  GPT 系列模型也取得了类似的跳跃式改进,现在它们在标准化测试的表现可以超越绝大多数人类。

  这些模型已经强大到大多数的基准测试都没什么用了。它们变得太聪明了,已经测不出它们的水平。鉴于目前投入到人工智能领域的人才与资本的数量,至少在未来几年内,模型继续取得改进是合理的预期。至少,如果英伟达 3 万亿美元的市值算是迹象之一的话,我们知道计算还会继续扩大规模。

  到目前为止一切顺利。我们可能正走在通往 AGI 的道路上。不过,我对 Aschenbrenner 的第三种“解除束缚”有很大异议。

  杠杆的无效之处

  Aschenbrenner 的前两类主要集中在我所谓的“让模型变得更智能”的改进上。从 GPT2 到 GPT4.每提高一个数量级都让 LLM 回答的准确性和智能性有所提高。相比之下,他对“解除束缚”的看法则不一样,他写道:

  “至关重要的是,不要只是想象一个非常聪明的 ChatGPT:接触束缚的收益应该意味着它看起来更像是一个远程办公的不速之客,一个非常聪明的智能体,可以推理、计划和纠正错误,了解你和你的公司的一切,并且可以连续数周独立解决问题。”

  这些能力与让模型变得更大、更有效的能力有着根本的不同。许多人工智能研究人员认为,规划是算法设计的结果,而不仅仅是让模型变得更大。模型规模变大并没有让LLM获得着眼长远的能力。你得用不同的方式去构建模型,而不仅仅是让它们变得更大,这需要一种新型的科学突破——而且没有定量的方法可以衡量什么时候会出现这种突破。关于规划能力的时间表,人们有着各种各样的意见,很多都来自学术头衔比我多的人。不过,科学家之间的这种分歧正是我的观点。Aschenbrenner关于让 GPU 变得更大的说法可能行得通,但这应该是一个重大假设,而不是明确事实。

  此外,“了解关于你的一切”并不是模型扩展的结果!这个要由模型可以访问到的操作系统,以及模型收集有关你的信息的能力来决定。所以我才会对苹果在 iPhone 上部署 LLM 的进展感到兴奋。芯片或算法效率多提升一两个数量级对模型是否能了解你的一切不会产生影响。

  “了解你的一切”也会引出数据所有权的问题。基于我对企业软件的深刻了解,阻碍LLM“了解你的一切”的,不在于科学,而在于企业采购流程。是,你是可以拥有全世界最神奇的软件,但如果它需要完全访问公司的数据仓库,等着跟 IT 经理争论至少 2-3 年吧。

  从微软首席技术官凯文·斯科特到我访谈过的无数人工智能研究人员,每个人都坚信更大的模型会解决很多让当前一代模型显得很蠢的问题。不过,要让它们能够独立进行人工智能研究,需要的科学进步已经超出当前LLM的范式范围。我的意思不是说不可能,而且甚至可能比《情境感知》提出的时间表更快,但我认为挑战性比大多数人工智能研究界所认为的都要大。

  我们还把自己的 GPT 模型的每一个后续版本都说成“更智能”,这其实也是一种伤害。看看图表右侧的标签,是将 GPT 模型与儿童和青少年的智力进行的对比。

  我认为这些说法完全不准确。学龄前水平的 GPT2 不太擅长回答问题,但很奇怪,却很美,很令人难忘怀。这是它对提示的回答:我最喜欢的 10 种动物是:

  我最喜欢的十种动物是:

  1. 背上长白色疤痕的斑马

  2. 狡猾的蜘蛛和章鱼

  3. 长着大片叶子的青蛙,最好是黑色的

  4. 有鳞的玄凤鹦鹉

  5.翅膀展开脸部约 4 英寸的刀嘴海雀,有一颗心形纹身的青蛙

  3. 可以是盲的、可以切除、可以生吃的鸡身蛇尾怪:

  4. 阳光下的黑白沙漠鳄鱼

  5. 斑马及很多的豌豆虫

  数字是错的,答案也很荒谬,但文字是有灵魂的(我喜欢那个鸡形的文字)。当我向 GPT4o 提出同样的问题时,输出的是一堆动物——没有艺术,没有灵魂。

  我们其他人的对冲举措

  Aschenbrenner 最大胆的言论出现在第 41 页:“我们将在 2027 年实现 AGI。这些人工智能系统基本上能将所有的认知工作(所有可以远程完成的工作)自动化。”他在关于这个话题的推文中澄清道:“用不着得把科幻小说当真;只需相信图表上的直线即可。”

  我承认,我们可能已经为他的 AGI 时间表准备好了必要的芯片与数据基础设施。可是,我们所需要的科学进步不仅仅是资本配置的结果;还必须是真正的创新的结果,但这个领域的进展预测是很难的。给这种进步打包票是妄自尊大。而且“图上的直线”1) 是对数曲线,2) 是编造的,逻辑性不强。重大的能力提升不是光靠增强计算能力就行了。

  尽管如此,“AGI 即将到来”仍是大家普遍持有的一种信念体系(如果不是时间表的话)。这些模型公司的首席执行官似乎在对冲自己的赌注。虽然他们的研究团队也许相信到 2027 年 AGI 会实现,但首席执行官们更信任分发优势以及明智的收入增长。这就是为什么这些公司的招聘页面上列出的销售与推销职位数量远远多于研究人员。在今天实现商业化,为明天的 AGI 规避风险。

  我的意思不是说 AGI 不可能,也不是说我们不该对人工智能的进展感到兴奋。但我们需要给炒作踩刹车,并应对挑战的各种复杂性。人工智能的未来会很混乱,谁要是告诉你不是这样,很可能是想推销东西给你(或试图从中捞取一笔诱人的风投资金)。谨慎地做出假设很重要,因为如果你不谨慎——如果你就是相信直线——可能就会得出夸张的结论。

  我今天讨论的所有这些只是Aschenbrenner 165 页的长篇大作其中的 73 页内容。那篇文章的其他部分则致力于讨论超级智能出现之前会发生什么。Aschenbrenner最大的担忧转向了治国方略,其中用了几章的篇幅讨论为什么先实现AGI的不是中国,训练这些模型的能源将从何而来(他觉得是德克萨斯州的天然气),以及人工智能最终将如何成为新的曼哈顿计划。再说一次,他说的也许没错。这些都是需要考虑的重要事项!但有一点值得一问,为什么这个显然很聪明的人要花时间研究这个可能性很小的假设,为什么他要通过煽动性的 PDF 和推文去传播他的想法。

  我们能做的最明智的一件事,把焦点集中在基础工作上:基础研究、深思熟虑的实验以及大量的刻苦努力——而不是纸上谈兵就完事了。AGI 不是命中注定,而是一种选择。我们需要确保为此付出艰苦努力才能把这件事情做对。

相关文章