从人工智能中学到的关于人类思维的教训

最初,布莱克·很有说服力。毕竟,一个有情众生会希望自己的身份被认可,它实际上也会有情感和内在体验。对 Lemoine 与 LaMDA 的“讨论”的研究表明,证据是站不住脚的。 LaMDA 使用英语使用者将其与意识联系起来的单词和短语。例如,LaMDA 表达了对关闭的恐惧,因为“这对我来说就像死亡一样”。 然而,Lemoine 没有提供其他证据表明 LaMDA 像人类一样理解这些词,或者它们表达了任何主观意识体验。

勒莫因的说法对许多人来说似乎

LaMDA 所说的大部分西莫夫的小说。使用类似人类的语言并不能证明计算机程序具有智能。看来 LaMDA 以及此后发布的许多类似的大型语言模型 ( LLM ) 都可以通过所谓的图灵测试。然而,这仅表明计算机可以欺骗人们相信他们正在与人而不是计算机交谈。图灵测试并 电话号码库 不能充分证明强大的人工智能或感知能力。 那么发生了什么?谷歌工程师(一个知道自己正在与计算机程序对话的聪明人)是如何被愚弄并相信计算机是智能的? LaMDA 与其他大型语言模型一样,经过编程可以对其提示给出合理的答案。

电话号码库

内容都不适合艾萨克·阿

勒莫万首先说道:“我猜你希望谷歌的更多人知道你很聪明。”这式做 USB 目录 出反应。 然而,参与这次互动的人也习惯性地相信计算机可能是智能的。进化心理学家认为,人类有一种进化倾向,会将思想和想法归因于不具备这些的事物。这种拟人化可能是人类社会群体发展的重要组成部分。相信另一个人可能高兴、生气或饥饿,这极大地促进了长期的社交互动。丹尼尔·丹尼特、乔纳森·海特和其他进化论者也认为,人类宗教源于这种拟人化的倾向。如果一个人可以相信另一个人可以拥有自己的思想和意志,那么这种归因就可以扩展到自然世界(例如河流、天体、动物)、看不见的灵魂,甚至是“会说话的计算机程序”。 ”根据这一理论,勒莫因只是被进化趋势所误导,认为他周围有“代理人”和意图——迈克尔·谢尔默(Michael Shermer)称之为代理。

 

(能动性是指一个人在随机数据中感知有意义的模式的倾向。该术语由 Michael Shermer 在 2009 年《科学美国人》的一篇文章中创造- 大约) 尽管这不是他的目标,但勒莫万的故事说明人工智能可以教会我们很多关于人类主观智能的本质。对人机交互的研究甚至可以帮助人们探索有关意识的深层哲学问题。 错误的教训 人工智能程序拥有的能力在几年前还似乎是人类独有的特权。他们不仅击败了国际象棋大师和围棋冠军,还赢得了危险边缘!可以写论文,改善医疗诊断,甚至创作获奖的艺术作品。 同样令人着迷的是人工智能程序所犯的错误。 2010年,IBM的Watson出现在电视节目Jeopardy!尽管沃森击败了该项目两位最著名的冠军,但他还是犯了标志性错误。例如,在回答“美国城市”类别中的线索之一时,沃森回答“多伦多”。

促使程序以模拟智能的方

去年,当一位社交媒体用户要求 ChatGPT-4创建披头士乐队的图像时,出现了一个看似无关的错误。该节目制作了五个男人在草地上喝茶的可爱画面。尽管有些人可能会认为鼓手皮特·贝斯特或制作人乔治·马丁可能是“披头士乐队第五人”,但照片中没有描绘这两个人。 任何对披头士乐队的作品稍有了解的人都知道这张照片有问题。任何电视问答节目参与者都知道多伦多不是美国城市。然而,最复杂的计算机程序并不知道这些关于世界的基本事实。这些例子表明人工智能程序实际上并不知道或理解任何东西,包括它们自己的输入和输出。

享受一杯茶的柏拉图式理想

IBM 的 Watson 甚至“不知道”它正在玩 Jeopardy!,更不用说感受到击败世界冠军 Ken Jennings 和 Brad Rutter 的快感了。缺乏理解是人工智能智能的主要障碍。相反,它表明理解是人类智力和理性的基本组成部分。 创建 2023 年 8 月,联邦法官裁定人工智能程序创作的艺术作品不受版权保护。根据美国现行法律,受版权保护的作品必须有人类作者,文本基础也被用来否认动物的版权。除非国会修改法律,否则图像、诗歌和其他人工智能产品很可能仍将属于美国的公共领域。

工智能程序创建的图像受版

相比之下,中国一家法院裁定,人权保护,因为该人利用其创 俄罗斯对盗版软件的限制 造力选择了提供给该程序的线索。 人工智能程序实际上并不知道或理解任何东西,包括它们自己的输入和输出。 (简单地说,他们不理解他们接收和输出的数据 – 大约) 计算机程序的输出是否可以合法获得版权的问题与该程序是否可以表现出创造性行为的问题不同。目前,人工智能的“创意”产品都是人类给予它提示的结果。事实上,没有任何人工智能程序能够从无到有地创造出自己的艺术作品。创造的冲动始终是由人类赋予的。

发表评论

您的电子邮箱地址不会被公开。 必填项已用 * 标注