本篇文章2590字,读完约6分钟

海外加速器【科技在线】

众所周知,日常生活中随处可见的ai,实际上与大多数电影和文学作品中的ai相差甚远。 但是,在人类创造的电影和文学作品中,依然有很多ai叛乱的桥。

现实中,我们也知道ai变得更好了,但他们真的能叛乱吗? 你能安排预防措施,永远忠诚于我们,永远不杀我们大家吗?

还记得机器人三定律吗?

许多科幻迷还记得阿西莫夫的机器人三定律:

机器人不能伤害人,也不能因不作为而伤害人。机器人只要不违背第一法则,就必须服从人的命令。机器人只要不违背第一法则和第二法则,就必须保护自己。

但是,首先,把三定律翻译成定律是错误的。 牛顿三定律是人类注意自然界总结的结果,有理由相信在其适用范围内始终成立,但阿西莫夫三定律实际上是三法条,是人为写在机器人头上的,背后没有任何物理支撑。 任何了解机器人结构的人都可以制造出不遵守三定律的机器人。 这不是机器人自身故障的可能性。事实上,阿西莫夫自己至少写了三个不遵守定律的例子。

而且,这个三定律连人类和机器的定义都不确定,规定给他们阿西莫夫写的索拉利斯人,给他们的机器人只有有索拉利斯口音的人是人类。 人形机器人也会带来各种评价的麻烦。 (这又引出三定律的另一个问题。 如果机器人没有掌握足够的新闻,无法意识到行动的结果,不是可以恣意行动吗? )

而且,法则之间的冲突解决得更奇怪了。 在早期的作品中,一个机器人陷入第二定律和第三定律的碰撞中陷入了死循环,但是在之后的设定中,如果发生不可调整的碰撞,机器人就会自行毁灭,但是碰撞是非常常见的现象,是连续谱。 如果一个行为伤人,那当然适用于第一定律。 其中50%是? 1%呢? 0.001%是多少? 不能计算概率吗? 如果你知道有交通事故的风险,机器人会听从开车送你去上班的命令吗? 是受命令者的语调和命令的紧迫性影响吗? 这些都是现实中极为常见的,用三定律无法解决的问题。

这说明了三定律的根本问题。 那是一个非常简化的义务伦理学( deontology )体系。 它无限强调理性的力量,试图用简单普遍的规则来揭示大千世界的一切情况,但现实哪有这么简单! 让我们来看看旧约之神试图用十戒规范人类,结果是什么。

限制ai吗? 没什么用

如果有可能危害我们的程序,标准方法是在严格管理的虚拟机中运行。 那样的话,即使不好也只会损坏虚拟机。 ai也可以这样处理哦。

在其他程序中,这样做确实没问题。 但现在我们面对的是智能超群的ai,而且监视它的还是人。 既然囚犯有可能通过诈骗、说服或威胁向狱警开门,那ai呢? 想象一下,当你醒来后,你会发现自己被困在一群老鼠中,可以传达信息。 在这种情况下逃生有多难? 你真的能永远防止ai超人的智能吗? 即使人会,我们用来关闭ai的虚拟机能保证永远万无一失吗?

ai研究者已经模拟了所谓的ai盒实验。 一个身体演ai,另一个身体演守卫,只有同等水平的智能,ai已经有很大概率能说服人类开门。

更何况,即使第一个ai被关在箱子里,接下来也会是第二个、第三个、第四个吧。 因为我不知道其他人工制作的ai是什么样的,所以可能比你更危险。 至少我知道自己做的东西。 而且,不管你想让ai完成什么任务,只要允许接触外部环境的所有新闻,一定会把它做得更好; 如果别人那样做,你会吃亏的。 而且,推出的超级ai还可以顺便炒股票。 你确实是第一个创造这个伟大奇迹的人,所以不完全利用它带来的东西,任凭后来者居上做完全相同的事件,那还有什么意义呢?

聪明是善良吗? 那个不一定是那样

我们希望的ai,既然各方面都比我们好,他们也许智力更好,道德上也比我们好,所以不会邪恶愚蠢到杀死我们吧。

问题是,如何知道ai的目标是什么? 人类心灵的基础是进化的产物,有生理、安全、社会交流、尊重、自我实现等共同诉求,但每个人的侧重点和实现方法都不同。 但是,最初的超级ai很可能来自现实的诉求,比如以在股市赚钱和增加工厂产量为目标,而不是模拟器。 这个时候,会发生什么事是不容易预料的。 道德体系可能和人类没有共同点。

一个思想实验是所谓的剪辑式大机器。 如果你在设计机器生产剪辑,不知道它如何拥有超智能,那在整个地球变成剪辑之前,把所有的智能都投入到更好、更快、更多的剪辑上。 如果我命令你生产一亿个剪辑呢? 那1亿个指针应该有计数和质量管理吧。 必须追加新的机器吧。 新的机器总是有发生问题的可能性吧。 有必要修改越来越多的机器吧。 最终,整个地球将在一个计数器、探测器和各种辅助设备的基础上,增加一亿个几乎完美的剪辑。 它是制作剪辑的机器,它的道德体系以制作剪辑为中心存在,它爱你也不恨你,它只是把你看成可以制作剪辑的原子。

让ai背负道德的一切吗? 怎么可能

ai既然拥有优秀的智力,学习能力就永远不会差。 正好现在,我们也有各种大数据工具,把我们现有的整个道德体系注入ai,那就好吧。

那么,倒哪家? 很多道德理论之间矛盾一团糟,谁能说自己代表着道德哲学的巅峰呢? 何况这只是我们现在的理论。 如果古希腊人创造了青铜人工智能,他们会教什么? 如果是墨家做木头的人工智能呢? 肯尼希斯贝格的吨型人工智能会成为康德的学生吗? 伦敦的人工智能师从米尔吗? 这些中哪个能在当今社会完美生存? 今天的伦理道德50年后还成立吗?

就连我们人类自己,也没有消灭杀人和战争,也没有找到真正的道德之书和幸福之源。 在一分一秒的日常生活中必须怀疑、挣扎、悔恨。 那么,我们创造的超级ai,是比我们更聪明、更不可预测的ai,从我们身上能学到完美的答案是什么呢?

时间、平等、信息表达和爱

这可能是有成功先例的方法。 孩子是我们的造物,但也是独立的个人。我们可以教他们,但永远无法控制他们。 怎么会有人拥有非凡的智力、想象力和创造力,却完全在另一个人的控制之下? 如果你想要会画画的ai、能解决现实中很多复杂问题的ai、会陪你聊天的ai、像人一样比别人优秀的ai,你可能会意识到除了给你自由之外别无选择。

因为这是面对超级ai,最终的处理方法,可能会放手。 教授知识和世界观,并与之一起探讨和思考。 世界变化很快,没有人真正知道该怎么做。 也许我们应该和我们制造的ai一起前进,而不是徒劳地试图用枷锁和条文来控制。 毕竟,就算我们连接了ai,我们自己毁灭了自己的能力,也一点也不会变弱哦。

来源:鞍山新闻

标题:“AI如果造反?人类,我们该如何办?”

地址:http://www.aqj6.com/aszx/31538.html