当前位置:

OFweek电子工程网

开发工具/算法

正文

专家警告称:AI的毁灭性超核弹十倍

导读: 据英国《每日快报》报道,最有希望的美国总统候选人Zoltan Istvan警告称,人工智能(AI)的研发将对人类产生最大的影响。全球的科学家们都在疯狂的研发着人工智能技术,这项技术意味着机器或者软件能够表现出与人类相当的智慧。

  OFweek电子工程网讯 据英国《每日快报》报道,最有希望的美国总统候选人Zoltan Istvan警告称,人工智能(AI)的研发将对人类产生最大的影响。全球的科学家们都在疯狂的研发着人工智能技术,这项技术意味着机器或者软件能够表现出与人类相当的智慧。

  许多专家都对于研发人工智能提出了警告,因为它事实上能够让人类遭到淘汰,因为它们能够取代我们的工作,而且最终把我们视作一种障碍。作为超人类主义者,Istvan先生希望能够通过科技将人体与机器融合,彻底改变人类和人类的体验。他声称人工智能将被用于军事领域,而且比核弹的研发更值得注意。

  Istvan先生对《每日快报》记者称:“如果我明天成为了总统,我会投入大量的资源进行人工智能的研发,因为我发现无论谁最早控制人工智能或者控制最聪明的人工智能,或许都将很快在全球军事领域占据领先地位。”

  他声称:“如果你的机器能够编写病毒或者黑入其它任何机器,那么你就比其它任何政府都拥有明显的优势。无论谁首先获得人工智能,都将最终成为世界领袖。当美国在日本投下原子弹的时候就改变了军事格局。而第一个批人工智能将是日本核弹爆炸的五到十倍威力。”

  他认为全世界政府应当成立一个联盟来研发人工智能,因为这项技术需要小心翼翼的进行监控。Istvan先生称:“对我来说,一个民主国家首先研发人工智能是非常重要的,因为我们需要让它成为一种民主力量,而非一种军事力量。”

  当问及人工智能是否有可能反叛人类时,Istvan先生回应称:“这就是为何我认为成立一个国际联盟来研发人工智能才是最佳选择的原因。我并不清楚未来会发生什么,人工智能能够一晚上自我升级十次,那样就会比我们人类还要聪明。它会给军方甚至是全人类都带来巨大的问题。”

责任编辑:Trista
免责声明: 本文仅代表作者个人观点,与 OFweek电子工程网 无关。其原创性以及文中陈述文字和内容未经本站证实, 对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅 作参考,并请自行核实相关内容。

我来说两句

(共0条评论,0人参与)

请输入评论

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码: