邪恶人工智能能否面世?五位专家这样说…重庆时时彩平台

编辑:凯恩/2018-12-22 02:18

  假设你是一名人工智能科学家,你已经找到了你所在领域的圣杯——如何建立一个人工智能(AGI)。这是一款真正智能的电脑,它可以作为人类在认知能力或情商方面的表现。AGI会很有创造力,在不同的想法之间找到联系——这是当今计算机无法做到的。

  太好了,对吧?除了一个大问题:你的AGI系统是邪恶的,或者只能用于恶意目的。

  所以,现在一个难题。你会发表白皮书,告诉世界如何创造这种无情的邪恶力量吗?或者提交一项专利,这样就不会有其他人(除了你)知道这样的算法存在?或者置身于研究中,保护世界不受你创造的人工智能所伤害,同时也放弃了在这一发现之后必然会出现的天文数字薪水?

  是的,这是一个修辞性的问题——就目前而言。但是,人工智能领域的一些顶级人物已经在思考他们的答案。周五,在布拉格举行的“人工智能和社会影响”的“人工智能和社会影响”讨论会中,这个问题是由一位观众提出的。

  Siegelmann敦促这个假设的科学家立即发表他们的作品。西格尔曼早些时候告诉未来主义,她相信没有邪恶的技术,但也有人会滥用它。如果该算法与世界共享,人们可能会找到使用它的方法。

  但在Siegelmann回答之后,提出这个假设问题的观众澄清说,为了进行思想实验的目的,我们应该假设没有任何好处可能来自于AGI。

  在这个问题上,Eridze不参与争论,但在整个会议期间,他强调了在如何开发和部署AGI的过程中建立强有力的道德基准的重要性。显然,故意将一个邪恶的超级智能实体释放到世界上,将违背这些标准。

  Turchin认为有负责任的方法来处理这样的人工智能系统。“想想一枚手榴弹,”他说——“一个人不应该把它交给一个小孩,但也许一个受过训练的士兵可以信任。”

  但Turchin的例子比最初看起来更有启迪意义。手雷是一种明确的武器,无论谁拉了针,都能造成死亡和破坏,所以很难想象用一种所谓的负责任的方式来使用它。目前还不清楚Turchin是否打算用这种方式来解释他的例子,但他敦促人工智能社区确保危险的算法只在最值得信赖的人手中。

  Lo说,假设的计算机科学家应该把邪恶的AGI卖给他。这样,他们就不必承担如此强大而可怕的人工智能的道德负担——相反,你可以把它传给Lo,让他承担道德负担。当然这可能只是开玩笑,观众们都笑了。当天早些时候,Lo表示,私人资本和投资者应该被用来推动人工智能向前发展,他可能一直在取笑自己明显的资本主义立场。尽管如此,如果可以,那里的人肯定会尝试购买这样的一个“AGI系统”。

  但是,无论如何,这是最有可能的结果之一,如果这真的能实现的话。虽然业余爱好者可以开发出真正有价值和创新的算法,但人工智能领域的许多顶尖人才都被大公司收购,这些公司拥有自己的劳动产品。另一种可能的情况是,科学家会将他们的论文发表在像arXiv这样的开放存取预印服务器上,以帮助提高透明度。

  他同意Eridze的看法:你不应该发表它。“你不只是把它和这个世界分享!”你必须考虑到你将会产生什么样的影响,”他说。

  就这样,讨论会结束了。每个人都走在他们的快乐的道路上,假设这个邪恶人工智能在假设的领域是安全的。

  然而,在“现实世界”中,重庆时时彩平台道德往往最终会退居次要地位,比如金钱和声望。像Facebook、谷歌和亚马逊这样的公司经常发布面部识别或其他监视系统,经常把它们卖给警察或军方,用它来监视日常生活的人。学术科学家被困在“出版或灭亡”的循环中——发表一项研究,否则就会失去你的地位。因此,伦理问题往往被放在论文的结论中,作为一个因素,让其他人在未来的某个模糊点上进行分类。

  不过,就目前而言,任何人都不太可能在短时间内想出“AGI”——更不用说“邪恶的AGI”了。但是,小组成员的广泛回答意味着,我们还远远没有解决那些不道德、危险的科学的办法。(编译/吉吉)

  根据这份最新的市场研究报告,全球智能遮阳设备市场预计2018 - 2022年期间的年复合增长率将超过87%。

  神经网络固有的非线性结构使它们能够生成更为复杂和更为灵活的对抗样本,从而欺骗目标模型。因此,在未来,通过人工智能技术对抗人工智能的黑暗面已经成了行业发展的既定事实。

  据外媒CNBC报道,谷歌NEST表示希望为老年人研发制造智能家居设备,这些设备可以帮助人们能够更长时间地独立生活。