3.1_.jpg

在本周的佛罗里达大数据会议上,引来了一场关于人工智能未来潜在危险的激烈讨论,除了以往的一些老生常谈的话题之外,人们讨论的主要方向在于是否需要为人工智能立一些条约。

众所周知的是,当今世界中许多著名的科学家思想家对人工智能方面取得的进步,都持十分担忧的态度,所以人工智能技术的迅速发展也引起了许多的关注。甚至被斯蒂芬•霍金说道,从某个意义上来说,真正的人工智能会给人类带来毁灭性的影响。也许是未来人类的终结者。
 

似乎人工智能技术依然会持续不断地提升下去。因此,是时候要对即将迎来难以控制之势的人工智能做出一些规划了,也许这就在不久的将来。在这些技术的支持下,人工智能又可能出现善,也有可能出现恶。或者,它可以完全由自己做主,自行做决定,做一些在正常的道德边界之外的事情。
 

人工智能可能引发的世界性影响,可以从另外一个角度来思考,此时有一个很合适的比喻,那就是核武器,尤其是自从第二次世界大战之后核武器更是成为了扰乱全球军事政治的头号大敌。它们已经在使用了,已经开始了。我们明白它们可能会带来的伤害。基于这些原因,世界核大国一直在努力在限制原子弹的扩散。并对其设置各种条约,如SALT I和SALT II(限制战略武器会谈),以及各式各样俄国与美国之间关于核武器的双边协定。
 

这些条约的存在不是为了限制其研究发展,而是为它们设定一个安全的使用范围。自从这些条约的实施,我们已经看到在“一荣俱荣,一损俱损”的政策下,各个核武器大国之间在几十年中是处于一个和平的状态。虽然目前仍然存在一些非法交易核武器的问题,但是整个机制已经在正常运转了,能够实现其目的。
 

然而在当下,并没有针对人工智能的相关条约。我们对人工智能的访问和各种智能软件的使用,并没有设置限制。它们的出现代表的是一个单一的事件,似乎没有任何的事情可以对其进行相关的制约。
 

我们可以对AI的附属产品所涉及的材料进行限制,例如任何一款人工智能产品中不应该包括钚或铀等元素,也不能嵌入特殊的用于生产铀的离心机,同时也不应该设有导弹运载工具。并且,应当对源代码和计算机网络做相关的备份。
 

除此之外,在某个层面上,AI的扩散速度和范围要比核武器更快更广,因此,相比于核武器,人工智能的“条款”应当更快地设置出来,并且要做好充足的准备。
 

也许,这个世界需要一个新的SALT条约,即“战略性AI限制条约”。并且它需要至少在20个国家及集团实施。控制AI的发展趋势和影响比控制核武器更加困难,但是这正是我们需要思考的地方。
 

核武器不能够控制它的主人,但是AI却有可能,这使得AI变得更加令人担忧。如果我们不尽快采取行动,未来会面临许多潜在的危机。
 
 
 
 
 
 
 
来源:林伢 1号机器人网
智造家提供