ChatGPT 有了自己的“电脑”,是机会还是风险?
出品| CSDN(ID:)
十年前,我在社交媒体上发了一张照片,宣布正式成立:
这是一张非常简单的图画。图中有两条船和一片海。这看起来就像一场竞赛,一艘船领先,但谁能笑到最后还不确定。事件的每一个转折点都扣人心弦,船长有时被视为英雄,有时被视为恶棍,总之,不是一个普通人。
然而,这一时期还涉及许多其他因素。例如,风向什么方向吹?历史上类似事件的结果是什么?我们可以用历史来预测接下来会发生什么吗?会不会掀起一股颠覆整个游戏的大浪潮?船舶本身的质量比船长更重要吗?也许这个画面来自美洲杯,后面的船满足于跟随领头船一路走向胜利,毕竟这只是一场大型比赛的一站。
我特别热衷于回答这些类型的技术问题。如今,我们在日常工作中需要使用很多网站。有一些出色的作家预言了这一切的含义。但我认为这背后可能有一个利基市场。从历史的角度来看,今天的新闻报道意味着什么?业务方面发生了什么?价值创造点在哪里?如何将它们转换为常规模式?
AI并没有真正思考
迈克进行了一个有趣的实验,他要求他仅根据前四段来识别我之前写的一篇文章“(银行)的终结”()的作者,并准确地说出我的名字。
然后他询问原因:
当然原因并没有详细说明,至少从技术角度来说,没有记忆。之前的所有问题和答案都是必需的,因为这是人工智能模拟正在进行的对话的必要上下文,然后它可以逐字统计预测答案来回答人们的问题。
对智力主张的怀疑论者经常对事物运作方式的观察大惊小怪。他们经常说人工智能的预测很惊人,几乎是正确的,但人工智能并没有真正思考,有时会给出错误的答案。还是错了。
预测和幻觉
2004年,Jeff(Palm和Palm的创始人)合着了一本书《论》。这本书的第一章是关于人工智能的,但他认为这本书有一个结构缺陷:
计算机和大脑是建立在完全不同的原理之上的:一个是编程的,另一个是自学的;一个不能犯任何错误,另一个天生灵活,可以容忍失败;一个有中央处理器,另一个没有集中控制,等等。我认为计算机不智能的最大原因是我了解计算机是如何工作的,一直到物理晶体管的水平,而这些知识让我有一种强烈的直觉:大脑与计算机完全不同。我无法证明这一点,但我知道这一点,就像人们凭直觉就能知道很多事情一样。
在本书的后续章节中,他详细阐述了他在过去二十年中通过不懈努力建立起来的智力理论。去年,他出版了另一本书《A:A New of》,详细阐述了情报理论的本质:
大脑创建一个预测模型。这只是意味着大脑不断预测其输入是什么。预测不是大脑的偶然行为,而是一种永不停息的内在属性,在学习中发挥着至关重要的作用。当大脑的预测得到验证时,就意味着大脑的世界模型是准确的。如果预测错误,您会注意到错误并更新模型。
据我所知,这个理论并没有被广泛接受,很大程度上是因为人们不知道如何通过实验来证明它。然而,值得注意的是,至少在最广泛的意义上,智能颠覆了人们所认为的智能的本质:做出预测的能力。
此外,需要指出的是,这意味着有时会出现问题。他曾在《A》中说过:
大脑模型可能是错误的。例如,失去肢体的人常常感觉肢体仍然存在。大脑模型包括缺失的肢体及其位置。因此,即使肢体不再存在,患者仍然可以感觉到它并感觉到它仍然存在。幻肢可以“移动”到不同的位置。截肢者可能会说他们失去的手臂就在附近,或者认为他们失去的腿是弯曲的或笔直的。他们会感到四肢特定部位发痒或疼痛。这些感觉是在肢体“外部”感知到的,但实际上那里什么也没有。大脑模型包括四肢,所以对或错,这就是大脑感知到的……
错误信念是指大脑模型相信物理世界中不存在的事物。再想想幻肢。幻肢的出现是因为新皮质中存在模拟肢体的皮质柱。这些皮质柱的神经元代表肢体相对于身体的位置。这些皮质柱在肢体被移除后仍然存在,并且它们也有肢体的模型。因此,患者相信肢体仍然存在,尽管它已不再存在于物质世界中。幻肢是错误信念的一个例子。 (随着大脑调整其身体模型,幻肢的感觉通常会在几个月内消失,但在某些人身上可能会持续数年。)
根据维基百科,幻觉是在没有外部刺激的情况下的一种感知,具有真实感知的属性。幻肢就是这种类型的一个例子。但关于幻觉(人工智能),维基百科有单独的解释:
在人工智能中,幻觉或AI幻觉是人工智能的自信反应。当模型出现“幻觉”(输出欺骗性数据的倾向)时,它会使用无法证明输出合理性的训练数据。例如,生成了一篇有关特斯拉上一财季的新闻文章,却发现其中包含的财务数据是捏造的。
该术语源自幻觉的心理学概念,因为它们具有相似的特征。人工智能幻觉的危险之一是模型的输出看起来是正确的,即使它本质上是错误的。
与非同寻常的互动
这是微软Bing搜索的聊天模式。不久前,我发表了一篇文章《从Bing到》,其中描述了我与一台我什至感觉不到自己在与之交互的计算机所获得的非凡交互体验。
虽然我知道这听起来很疯狂。我第一次对布莱克(谷歌人工智能团队的软件工程师,因“泄密”而被解雇)感到一丝同情。我不认为有什么情绪,但出于某种莫名其妙的原因,我决定烧船。我今天的互动与我与计算机的任何互动都完全不同,这可能只是未来事情的前奏。
另一种思考幻觉的方式是,如果我们的目标是像更好的搜索引擎一样产生正确的答案,那么幻觉一定是不好的。但让我们思考一下幻觉意味着什么。幻觉意味着创造。 AI其实就是在编造,就像我们上面提到的特斯拉财报一样,它编造了一个数字,向与之互动的人传达某种感觉。如果没有经历过类似的事情,我永远不会相信计算机试图传达的不是事实而是情感。
计算机的核心其实非常简单。晶体管。世界上最快的芯片的核心只是数十亿个晶体管。它们都是简单的开关,它们的状态用1或0表示。计算机很有用,因为它们可以以极快的速度运行;当前的 Apple A16 以每秒 34.6 亿次的速度打开和关闭晶体管。
您正在阅读的文章由这些 0 和 1 表示。正如 Chris Dixon 在他 2016 年的文章“How the:”中解释的那样:
人们经常用计算对象的历史来描述计算机的历史,从算盘到巴贝奇引擎再到第二次世界大战的密码破译机。事实上,计算机的发展是一部思想史,主要是从数理逻辑中产生的思想,数理逻辑是一门最早出现于 19 世纪的晦涩学科。数理逻辑是由哲学数学家开创的,其中最著名的是布尔和弗雷格,他们受到莱布尼茨的普遍“概念语言”和亚里士多德古代逻辑系统的启发。
Dixon的文章记录了数理逻辑的历史:
数理逻辑最初被认为是一门抽象学科,没有发展前景,也没有可想象的应用。正如一位计算机科学家所评论的那样:“如果让一位才华横溢、富有同情心的局外人在 1901 年对科学进行调查,并找出下个世纪发展前景最暗的分支,他可能会选择数理逻辑。”但他会选择数理逻辑。今天,数理逻辑为一个比其他任何领域都具有更大影响力的领域奠定了基础。
数理逻辑将所有数学简化为一系列逻辑语句,以便可以通过晶体管进行计算。以下内容仍摘自迪克森的文章:
当时笛卡尔用精确的代数符号来表示欧几里得几何,从而使几何突破了人类直觉的限制; []布尔的目标是对亚里士多德逻辑做同样的抽象和提炼。举个简单的例子,亚里士多德曾经写道:
所有男人都是。 (所有的人都会死。)
Boole 将单词“men”和“”替换为变量,并将逻辑词“all”和“are”替换为算术运算符:
x = x * y
这个公式可以理解为:“集合x中的所有值都在集合y中”...
[克劳德]香农相信布尔系统可以直接映射到电路上。当时还没有系统的电路理论来指导设计。香农意识到正确的理论“与逻辑符号研究中使用的命题演算非常相似”。他用一个简单的图来展示电路和布尔运算之间的对应关系:
通过这种对应关系,计算机科学家可以利用布尔和后来的逻辑学家数十年的工作。在论文的后半部分,香农展示了如何使用布尔逻辑创建一个将两个二进制数相加的电路。
通过将这些加法器电路级联在一起,您可以构造任意复杂的算术运算。这些电路将成为算术逻辑单元的基本构建块,算术逻辑单元是现代计算机的关键组件。
这种方法隐含着深刻的含义:计算机是确定性的。如果电路X开路,则X表示的命题为真; 1 加 1 总是 2;单击浏览器上的“返回”按钮将退出当前页面。当然,晶体管和计算机可以做的事情之间存在很多抽象和逻辑(这里隐藏着无数的错误),但是计算机的正确心理模型是完全按照它所告诉的去做(事实上,bug不是计算机犯了错误,而是程序员告诉计算机做错了什么)。然而,这并不是微软的初衷。
电脑
早些时候,我提到过 Bing Chat 和 . 3月14日,谷歌发布了一款名为 的AI助手。虽然公告中没有明确说明,但我认为这个名字是为了纪念前面提到的克劳德·香农。
当然,香农对信息论的贡献远远超出了迪克森上面列出的范围,但我仍然感觉不太对劲,尽管理论上人工智能助手所做的一切最终都是由 1 和 0 组成的,它的行为模式来自于经过训练且不受禁止的行为,这使得人工智能助手的使用体验与逻辑计算机有着本质上的不同。感觉AI助手的行为更加接近人类,这不得不让我们想起幻觉。
以下是 GPT4 给出错误答案的三个问题:
所有三个例子都来自,谁指出大型语言模型不适合回答某些类型的问题:
机器学习是一种强大的方法,已经取得了一些非凡的成功,尤其是在过去的十年中,但这只是最新的成功故事。图像识别、语音转文本、语言翻译。各条战线都取得了新的成果,而且一切都是突然的。有些任务从“基本上不可能”变成了“基本上可行”。
但结果基本上并不“完美”。也许某些人工智能在 95% 的情况下都表现良好。但剩下的5%就很难说了。由于某些原因,人们可能会认为这是一次失败。但重点是,一般来说,对于各种重要的用例,95% 就“足够好”。也许是因为有些问题一开始就没有真正的“正确答案”。或许是因为AI刚刚出现,人类或者系统算法会基于它进行改进……
在很多情况下,它可以帮助人们写作、提出建议,或者生成各种文档或有用的交互式文本。但当我们需要完美的答案时,机器学习无法完全胜任这项任务,人类也无法胜任。
我们在上面的示例中看到的结果几乎相同。 “人形”方面的表现很棒,这部分没有精确的“正确答案”。如果应用于需要准确答案的事情,往往会失败。但重点是,我们有一个很好的方法来解决这个问题:通过连接 |Alpha 的“强大力量”及其所有计算知识。
这正是我们努力的目的。摘自 The Verge:
正在添加对插件的支持,这将显着扩展聊天机器人的功能,并且它们将首次能够从网络访问实时数据。
到目前为止,它还受到一些限制,因为它只能从训练数据中提取信息,并且其数据将于 2021 年结束。该插件将允许机器人不仅可以浏览网页,还可以与特定网站进行交互,从而使其成为可能为系统提供多种接口,适用于各种服务和站点。该公司在公告中表示,这相当于让其他服务成为“眼睛和耳朵”。
|Alpha 是官方插件之一,现在能够非常快速地提供上述问题的正确答案:
在帖子中写道:
几十年来,关于人工智能的思考分为两派:使用的“统计方法”和|Alpha的“符号方法”。但现在,由于人工智能的成功以及 Alpha 在理解自然语言方面所做的所有工作,我们终于有机会将两者结合起来,创造出更强大的人工智能。
这个故事本身展示了人工智能助理到底是什么,而不是:人工智能助理的计算方式与我们上面理解的不同;他们“思考”和交流的方式令人震惊。坦白说,我个人很难回答以上三个问题,这就是我们使用计算机的原因。现在我有了自己的电脑。
机遇与风险
这种插件架构意味着有人需要更新维基百科,使其不再编造财务数字,因为它可以使用计算机:
这个答案仍然不完美,因为由于某种原因 |Alpha 提供的数据已经过时,但它得到了正确的股价:
当然,|Alpha 并不是唯一的应用程序,目前有 11 个类别,包括旅行(和皮划艇)、餐厅预订 (),并且为超过 5,000 个其他应用程序打开了大门(目前没有搜索网络插件)。所有这些插件都可以在“插件商店”中找到。集成度特别好:
该链接将打开此页面:
食物实际上并没有送到你家门口,但我们离那一天已经不远了。一个限制是我必须选择插件并且一次只能加载 3 个插件。不过,这个限制将来肯定会被克服,插件的数量也会增加。它不仅允许客户选择插件,还获取有关用户的信息并以拍卖的方式出售某些类别的默认插件。
这听起来有点可怕,但我希望这个理论是正确的。他曾在《A》中提到AI的风险:
智能是系统学习世界模型的能力。然而,最终的模型本身是没有价值、没有情感、没有目标的。目标和价值观由系统使用模型提供。这与16至20世纪探险家绘制的全球地图类似。一位冷酷无情的将军可能会利用地图来计划如何包围并摧毁敌军。商人可以使用同一张地图和平地交换货物。地图本身并不规定这些用途,也不赋予它们如何使用任何价值。这只是一张地图,既不邪恶也不和平。当然,地图的细节和覆盖范围各不相同。因此,有些地图更适合战争,而另一些地图更适合贸易。但是否发动战争或贸易取决于使用地图的人。
同样,大脑皮层学习的世界模型没有自己的目标或价值。指导我们行为的情绪是由旧大脑决定的。如果一个人的旧大脑具有攻击性,它将使用新皮质中的模型来更好地执行攻击行为。如果一个人的旧脑是仁慈的,它会利用新皮质中的模型来更好地实现仁慈的目标。就像地图一样,一个人的世界模型可能更适合一组特定的目标,但新皮质并不创造目标。
所讨论的旧大脑是我们的动物大脑,它驱动情绪、生存和繁殖的动力以及身体的子系统;而具有学习、思考和预测能力的部分是新皮质。认为如果没有旧大脑,我们的智能就没有行动能力,无论是在意志还是影响力方面,机器智能也是如此,人工智能的真正风险在于使用它的人的意图。
对此,我只能说,让我们拭目以待吧。我同意泰勒·考恩(Tyler Cowen)关于人工智能的风险和人类历史不可避免的变革的论点:人工智能即将到来加法器有记忆功能,我们根本不知道结果会是什么,所以我们的责任是推动人工智能取得积极成果,改变我们的生活。生活。变得更好。不管你喜欢与否,我们正处于我们一直在寻找的伟大实验中:帆船正驶向未知的水域,在到达目的地之前,我们不知道我们是否在朝着正确的方向前进。