Cointime

扫码下载App
iOS & Android

人工智能到底是如何知道没人告诉它的事情的

作者:George Musser

 研究人员仍在努力理解,经过训练以模仿互联网文本的人工智能模型如何能够执行高级任务,例如运行代码、玩游戏,甚至试图破坏用户的婚姻。

没有人真正知道ChatGPT及其人工智能同类将如何改变世界,其中一个原因是没有人真正知道其中发生了什么。这些系统的一些能力远远超出了它们接受训练的范围,甚至连它们的发明者也对此感到困惑。越来越多的测试表明,这些人工智能系统会像我们的大脑一样,在内部建立对真实世界的模型,尽管它们的技术方法有所不同。

布朗大学的研究人员之一Ellie Pavlick表示:“如果我们不了解它们的工作原理,那么我们想要通过某些方式使它们变得更好、更安全或者其他任何事情,对我来说都显得荒谬。”她正致力于填补这个解释的空白。

在某种程度上,她和她的同事们对于GPT和其他大型语言模型(LLMs)有很好的理解。这些模型依赖于一种称为神经网络的机器学习系统。这些网络的结构模仿了人脑中相互连接的神经元。这些程序的代码相对简单,只占用了几个屏幕的空间。它建立了一个自动校正算法,根据对数百千兆字节互联网文本进行繁琐的统计分析,选择最有可能完成一段文字的单词。额外的训练确保系统以对话形式呈现结果。从这个意义上说,它所做的就是复述它所学到的内容,在语言学家Emily Bender的话中,它是一个“随机鹦鹉“。但是LLMs也成功通过了律师资格考试,跌跌撞撞的解释了希格斯玻色子,并试图破坏用户的婚姻。很少有人预料到一个相当简单的自动校正算法能够获得如此广泛的能力。

GPT和其他人工智能系统展现了它们具备了未经训练的任务能力,这种“新兴能力”甚至让一些一直对LLMs的炒作持怀疑态度的研究人员感到惊讶。“我不知道它们是如何做到的,也不知道它们是否能够像人类一样更普遍地做到这一点,但它们挑战了我的观点,”圣菲研究所的人工智能研究员Melanie Mitchell表示。

蒙特利尔大学的人工智能研究员Yoshua Bengio表示:“它肯定不仅仅是一个随机的鹦鹉,它肯定会建立一些对世界的表示——尽管我不认为它的方式和人类建立内部世界模型完全相同。”

在今年三月的纽约大学的一次会议上,哲学家Raphaël Millière来自哥伦比亚大学提供了LLMs的另一个令人震惊的例子。这些模型已经展示了编写计算机代码的能力,这是令人印象深刻但也不算太令人惊讶的,因为互联网上有很多可以模仿的代码。然而,Millière更进一步展示了GPT也可以执行代码。哲学家输入了一个计算斐波那契数列中第83个数字的程序。“这需要非常高程度的多步推理,”他说。而这个机器人完美地计算出了结果。然而,当Millière直接询问第83个斐波那契数时,GPT却回答错误:这表明该系统并不仅仅是在模仿互联网。相反,它正在进行自己的计算以得出正确答案。

尽管LLMs在计算机上运行,但它本身并不是一台计算机。它缺少必要的计算要素,例如工作记忆。鉴于GPT本身不应该能够运行代码,其发明者OpenAI科技公司推出了一个专门的插件,即ChatGPT在回答查询时可以使用的工具,使其能够运行代码。但是,在Millière的演示中并没有使用该插件。相反,他假设这台机器通过利用根据上下文解释单词的机制,即类似于自然界如何重新利用现有能力进行新功能的情况下,即兴创造了一个记忆。

这种即兴能力表明LLMs发展出了超越浅层统计分析的内部复杂性。研究人员发现,这些系统似乎真正理解了它们所学到的内容。在最近在国际学习表示(International Conference on Learning Representations,ICLR)上的一项研究中,哈佛大学的博士生Kenneth Li和他的人工智能研究员同事——马萨诸塞理工学院的Aspen K. Hopkins、东北大学的David Bau,以及哈佛大学的Fernanda Viégas、Hanspeter Pfister和Martin Wattenberg——创建了一个较小规模的GPT神经网络副本,以便他们可以研究其内部运作方式。他们通过以文本形式输入长序列的棋局移动来训练它,主要针对棋盘游戏奥赛罗。他们的模型成为了一个几乎完美的选手。

为了研究神经网络如何编码信息,他们采用了Bengio和同样来自蒙特利尔大学的Guillaume Alain在2016年设计的一种技术。他们创建了一个迷你的“探测器”网络,逐层分析主要的网络层。Li将这种方法与神经科学的方法进行了比较。他说:“这类似于我们将电探头放入人脑中的情况。”在人工智能的情况下,探测器显示其“神经活动”与奥赛罗游戏棋盘的表示相匹配,尽管以一种复杂的形式呈现。为了确认这一点,研究人员将探测器反向运行,将信息植入到网络中,例如将游戏中的一个黑色标记片翻转为白色。Li说:“基本上,我们入侵了这些语言模型的大脑。”网络相应地调整了它的移动。研究人员得出结论,它在大致上像人类一样下奥赛罗:通过将一个游戏棋盘保持在其“内心眼中”,并使用这个模型评估移动。Li表示,他认为系统学会这种技能,是因为这是对其训练数据最简洁的描述方式。他补充说:“如果你得到了很多的游戏脚本,试图找出背后的规则是最好的压缩方式。”

这种推断外部世界结构的能力不仅限于简单的游戏动作,它也体现在对话中。来自麻省理工学院的Belinda Li(与Kenneth Li无关)、Maxwell Nye和Jacob Andreas研究了玩基于文本的冒险游戏的网络。他们输入了诸如“钥匙在宝箱里”之后是“你拿起了钥匙”的句子。他们使用探测器发现,网络在自身中编码了对应于“宝箱”和“你”的变量,每个变量具有拥有或不拥有钥匙的属性,并逐句更新这些变量。系统没有独立的方式知道箱子或钥匙是什么,但它掌握了完成这个任务所需的概念。Belinda Li说:“在模型内部隐藏着一些状态的表示。”

研究人员对LLMs从文本中学习的能力感到惊讶。例如,Pavlick和她的博士生Roma Patel发现,这些网络从互联网文本中吸收了颜色描述,并构建了颜色的内部表示。当它们看到“红色”这个词时,它们不仅将其视为一个抽象符号,而且将其视为一个与栗色、深红、紫红、锈色等等有特定关系的概念。展示这一点有点棘手。研究人员没有将探测器插入网络中,而是研究了它对一系列文本提示的反应。为了检查它是否仅仅是从在线参考中重复颜色关系,他们试图通过告诉系统红色实际上是绿色来误导它——就像古老的哲学思想实验中,一个人的红色是另一个人的绿色一样。系统并没有简单地重复一个错误答案,而是适当地改变了颜色评估,以维持正确的关系。

从这个观点出发,为了执行自动校正功能,系统寻求其训练数据的潜在逻辑,微软研究的机器学习研究员Sébastien Bubeck提出,数据范围越广泛,系统发现的规律就越普遍。“也许之所以出现如此巨大的飞跃,是因为我们已经达到了多样化的数据,这些数据足够大,以至于它们的唯一基本原理是智能生物创造了它们,”他说。“所以解释所有这些数据的唯一方式是模型变得智能。”

除了提取语言的潜在含义外,LLMs还能够实时学习。在人工智能领域,术语“学习”通常是指开发人员让神经网络暴露于大量数据并调整其内部连接的计算密集过程。当您在ChatGPT中输入查询时,网络应该是固定的;与人类不同,它不应该继续学习。因此,令人惊讶的是,LLMs实际上可以从用户的提示中学习,这种能力被称为“上下文学习”。人工智能公司SingularityNET的创始人Ben Goertzel表示:“这是一种以前没有真正理解其存在的不同类型的学习。”

LLMs学习的一个例子来自人们与ChatGPT等聊天机器人的互动方式。您可以给系统提供您希望它回答的示例,它将遵循您的要求。它的输出是由它最近几千个单词所决定的。根据这些单词,它的行为由其固定的内部连接所规定,但单词序列仍然具有一定的适应性。一些网站致力于“越狱”提示,以突破系统的“限制”(例如,阻止系统告诉用户如何制作炸弹的限制),通常通过指示模型假装成一个没有限制的系统来实现。一些人利用越狱进行可疑目的,而其他人则用它来引出更有创意的回答。佛罗里达大西洋大学的机器感知和认知机器人实验室的共同主任William Hahn表示:“以越狱提示的方式询问它,将获得更好的科学方面的答案,它在学术方面更出色。”

另一种上下文学习的方式是通过“思路链”提示,即要求网络详细解释其推理的每一步。这种策略使网络在需要多步推理的逻辑或算术问题上表现更好。(但Millière的例子之所以令人惊讶,是因为它在没有任何指导下找到了斐波那契数。)

2022年,Google Research和瑞士联邦理工学院的一个团队(Johannes von Oswald,Eyvind Niklasson,Ettore Randazzo,João Sacramento,Alexander Mordvintsev,Andrey Zhmoginov和Max Vladymyrov)展示了上下文学习遵循与标准学习相同的基本计算过程,即梯度下降。这个过程并没有被编程;系统在没有帮助的情况下发现了它。“这需要成为一种学到的技能,”Google Research副总裁Blaise Agüera y Arcas表示。实际上,他认为LLMs可能还具有其他尚未被发现的潜在能力。“每当我们测试一个我们可以量化的新能力时,我们都能找到它,”他说。

虽然LLMs有足够的盲点,无法被归类为人工通用智能(Artificial General Intelligence,AGI)——这是指达到动物大脑的机器的机敏性的术语——但这些新兴的能力使一些研究人员认为,科技公司比乐观主义者猜测的更接近AGI。“它们是间接证据,表明我们可能离AGI并不远了,” Goertzel在佛罗里达大西洋大学的深度学习会议上在三月份说道。OpenAI的插件为ChatGPT提供了一种类似于人脑的模块化架构。“将GPT-4(ChatGPT动力的LLM的最新版本)与各种插件结合起来,可能是通向人类一样的功能专门化的途径,”麻省理工学院的研究员Anna Ivanova表示。

然而,与此同时,研究人员担心他们研究这些系统的能力可能正在逐渐减弱。OpenAI没有透露他们如何设计和训练GPT-4的细节,部分原因是因为它与Google和其他公司以及其他国家之间存在竞争。麻省理工学院的理论物理学家Dan Roberts 表示:“可能会有更少来自工业界的开放性研究,事情将更多地以产品构建为中心,被封闭在独立的领域中。“

这种缺乏透明度不仅对研究人员有害,还阻碍了理解迅速采用人工智能技术的社会影响的努力。Mitchell表示,“透明度是确保安全性的最重要的事情。“

评论

所有评论

推荐阅读

  • 以色列的袭击未能突破伊朗核设施的保护层

    早期迹象表明,以色列的袭击没有穿透保护伊朗核储备设施的防护层。国际原子能机构(IAEA)说,没有迹象显示伊朗主要铀浓缩设施的辐射水平增加。伊朗当局告诉国际原子能机构,他们没有在位于德黑兰以南约300公里的纳坦兹设施观察到更高的辐射。以色列当局说,以色列没有对伊朗位于波斯湾沿岸的布什尔(Bushehr)核电站实施任何袭击。尽管如此,以色列总理内塔尼亚胡表示,袭击“将持续多少天,直到消除威胁”。只有最强大的常规弹药才能穿透伊朗的铀浓缩设施。纳坦兹核设施建在地下40多米处,有钢筋混凝土外壳保护,研究人员估计外壳厚约8米。而在福尔多核设施,浓缩大厅建在山里边。国际原子能机构总干事格罗西最近访问后估计,铀浓缩大厅位于地下半公里处。

  • 伊朗要求联合国安理会召开紧急会议

    伊朗常驻联合国代表团向安理会轮值主席致信,请求召开紧急会议,以应对以色列对伊朗的公然侵略。信中强烈谴责以色列在美国的支持下,对伊朗和平核设施和高级军事官员的侵略,呼吁安理会立即召开紧急会议,并对这些犯罪和挑衅行为采取果断行动。信中表示,以色列鲁莽、非法且有预谋地对伊朗的核设施和民用基础设施发动了一系列攻击。这些行动被认为明显违反了《联合国宪章》和国际法基本准则,其危险后果严重威胁着地区和国际和平与安全。

  • 伊朗方面称以色列总理专机已离开本-古里安机场

    当地时间13日,有消息称以色列总理内塔尼亚胡的专机已离开本-古里安机场。消息称,该专机由两架战斗机护航,正前往未知目的地。

  • 伊朗最高领导人将在以色列的袭击后发表声明

    伊朗国家电视台:伊朗最高领导人将在以色列的袭击后发表声明。

  • 以色列官员:以色列在伊朗问题上已与华盛顿完全协调

    以色列官员向以色列公共广播公司KAN表示,以色列在伊朗问题上已与华盛顿完全协调,在对伊朗发动袭击之前,以色列已通知华盛顿。

  • 伊朗:以色列和美国将付出沉重代价

    伊朗官方媒体传达了伊朗武装部队总参谋部的一份声明,称以色列和美国将“付出非常沉重的代价”。作为回应,美国和以色列将受到“严厉打击”

  • 哈梅内伊高级顾问或成下一个目标

    据外媒报道,一位消息人士透露称,伊朗最高领袖哈梅内伊的高级顾问阿里·沙姆哈尼(Ali Shamkhani)已成为袭击的目标,但目前尚不清楚最新情况,该报道尚未得到证实。

  • 消息人士:伊朗最高领袖哈梅内伊目前仍然健在

    市场消息:一名安全消息人士透露,伊朗最高领袖哈梅内伊目前仍然健在,已获悉以色列空袭后的局势情况。

  • 发布1周年,一文理清ChatGPT时间线

    AI 元年,历史上的今天。

  • ChatGPT语音功能向所有用户免费开放

    OpenAI宣布,ChatGPT语音功能已向所有用户免费开放,用户可下载手机App使用该功能。