ChatGPT元年之后,AI重塑世界,人类如何与其“智慧共生”?( 二 )


赫托格说,工程师已经开始探讨如何使用聊天机器人为用户提供宣泄情绪的空间 。不过,这种做法的危险之处在于,用户可能会对令人信服的智能聊天机器人产生过度依赖 , 容易受到其误导和虚假信息的影响 。
2023年5月,被称为“人工智能之父”的计算机科学家杰弗里·辛顿辞去了在谷歌的职务,并就人工智能构成的“生存威胁”发出警告 。人工智能安全中心随后发表了一封公开信 , 由辛顿和其他数百人签名,警告说先进的人工智能可能会摧毁人类,“遏止被人工智能灭绝的风险刻不容缓” 。
这种不断发酵的担忧,一部分源自ChatGPT等系统的快速发展及相互竞争——科技行业正不计后果地加速AI能力的升级 。
然而,这种恐惧目前似乎还缺乏充分的依据 。相反,许多专家提醒,对于长期世界末日情景的担忧,会分散人们对现有人工智能带来的直接风险的注意力 。
一般而言 , 认为AI存在风险的人觉得,随着AGI的到来,机器将会超越人类的思维 。他们预测 , 先进的人工智能将被赋予更多自主权,使其能够利用重要基础设施,如电网或金融市场 , 并有可能置身于战争前沿——在这种情况下,它们可能会变得不受约束或企图以其他方式摆脱人类的控制 。
但是 , 人工智能是否会达到超级智能?我们是否能够识别出它对人类构成的威胁?英国牛津大学桑德拉·瓦赫特认为,目前还没有科学证据表明AI正朝着产生意识的方向发展,甚至没有证据表明这个方向确实存在 。
她进一步指出,如果人工智能最终发展到了AGI阶段,避免将它应用于关键任务系统中并非难事 。目前科学家更关心的是,许多高耗能数据中心会对环境造成不利影响 。
AI会否出现意识?主动权可能在人类
如果你去问一个智能聊天机器人它是否有意识 , 大多数时候,它的答案是否定的 。“我没有个人的欲望或意识 。”OpenAI的ChatGPT写道 。“我没有知觉 。”谷歌的巴德聊天机器人也这么回答 , “目前 , 我满足于以各种方式帮助人们” 。
不过,在美国纽约大学哲学家大卫·查尔默斯看来,在硅晶体管中出现某种形式的内在意识并未完全排除可能性,“没有人可以断言 , 意识必然伴随什么样的能力才会产生 。”那么 , 我们离拥有意识的机器到底有多近?如果意识真的出现了,又该如何及时察觉?
现在,人工智能已经表现出一些令人不安的智能行为 。其中,支撑新型聊天机器人的大型语言模型具备编写计算机代码和推理等功能 。但是,仅仅通过扩大大型语言模型的规模,并不太可能让机器出现意识 , 因为它们只是强大的预测机器而已 。增加数据集和复杂度可以使这些人工智能变得更强 , 但这也不意味着它们会有任何体验或经历 。葡萄牙里斯本大学的认知科学家和哲学家安娜·乔尼卡认为,体验就像“经历”,而不仅仅只是“知道” 。
通常认为 , 思维是由身体和感官塑造的,这被称为“具身认知”理论 。因此 , 查尔默斯提出了一种方法,即将大语言模型与具备视听功能的机器人融合在一起 。实际上,谷歌去年发布的一款能够感知周围环境并进行互动的智能机器人PaLM-E , 就可通过具身认知技术,将藏在抽屉里的薯片递给主人 。
不过 , 数百万年来 , 人类的思维和身体一直在共同演化 。现在只是简单地想通过将机器人与AI系统结合,而让它们变得有意识,这是否在异想天开?
深度学习技术先驱、2018年图灵奖得主约书亚·本吉奥认为,根据大脑信息处理的方式,意识应该是一种客观存在 。在加拿大蒙特利尔大学实验室中,他将“全球工作空间理论”应用于人工智能 。该理论认为,当多个不同的大脑功能被调动到同一核心场景以解决问题时,意识就会产生 。通过克服AI模块之间的瓶颈,他希望在硅芯片上创造类似的场景构架 。
然而,爱沙尼亚塔尔图大学的贾安·阿鲁却认为 , 将大脑比喻为计算机,是忽视了软件和生物体之间的本质区别 。伴随经验而来的是生物体保持存在感的冲动 , 这是与计算机不同的 。阿鲁及其团队在最近发表的论文中提到,意识可能取决于参与感 。
但有人提出 , 人工智能中已经出现了原始形式的感觉和情绪,这是通过特定行动获得奖励所实现的 。本吉奥说,这种行为强化首先会引发一种类似于人类生存本能的内在驱动力,“当人工智能越来越多地出现在丰富的社会生活中,没有任何因素可以阻止其在社会生活中体验到各种情绪的产生” 。


推荐阅读