【烽巢网】
也许在我们的有生之年,一个接近人类水平的机器智能AI将不再只是科幻小说的素材。随着科技的发展,人工智能研究已经由过去简单的算法走向了今天的系统化。
或许有一天,我们可能会造出拥有人工神经网络的机器,以各种有意义的方式模仿我们的大脑。当这种情况发生时,确保它们不像我们这样容易被攻击是很重要的。
尽管现代人工智能可能看起来相当聪明了,但事实是,今天还没有一个机器人能在没有外界帮助的情况下走进厨房,为你做好早餐,甚至只是为你倒一杯水。
这是因为人工智能不会思考。它没有一个像我们大脑一样“思维结构”,它只是在被要求时将输入转换为输出。但一些人工智能研究人员认为,除了深度学习,还有其他方法可以让我们实现更“自然”的人工智能形式,就是开发模仿我们大脑的人工神经网络。
但是这也这就引出了一个问题:一个人类级别的机器智能能被催眠师催眠吗?
每个人都会担心有一天终结者会破门而入,我们对我们信任的机器似乎忽视了人类恐惧的弱点。
催眠术是一个经常被争论的领域,一个人可以通过调用一个字,或一句话进入一个意识的改变状态。当然,这并不是对任何人都适用。如果科学界愿意考虑一项关于催眠术的单独研究是否受用于大众,那么我们可能也应该担心它会对我们的机器人产生怎样的影响。
想象一下,一个被催眠的智能AI变得口齿不清,这可能是个有趣的游戏。但当你想象一名恐怖分子利用红绿灯模式入侵数百万辆无人驾驶汽车时,就非常可怕了。
可以说,机器偏见是人工技术领域最大的问题。我们向机器输入大量人类生成或人类标记的数据,它们无法避免会带有我们的偏见。这就是为什么GPT-3天生就对穆斯林有偏见,或者为什么当麻省理工学院在Reddit上训练一个机器人时,它最后变成了一个精神病患者。
我们在人工智能系统中越接近模仿人类学习和思考的方式,就越有可能受到这种影响。同时无处不在的黑客可以绕过安全保护墙向人工智能发送指令信号。能听的人工智能可以通过音频来操纵,能看的人工智能可以被骗去看我们想要它看的东西。
因此从理论上讲,近人类思维的人工智能是能够像我们一样被催眠。