新浪财经

新浪财经 > 美股> 正文

霍金:人工智能可能是人类文明史上最糟糕的事件

2017年11月07日 07:22   新浪财经 微博 收藏本文  

  新浪美股讯 北京时间7日早间CNBC称,著名物理学家史蒂芬-霍金周一表示,人工智能(AI)的出现可能是“我们文明史上最糟糕的事件”,除非人类社会能够找到控制其发展的方法。

  霍金是在葡萄牙里斯本举办的“Web Summit”科技大会上讲话时发表这一言论的。他表示:“从理论上而言,计算机可以模拟人类智能,并且超越它。”

  霍金谈到了人工智能的潜力,例如帮助消除人类对自然界造成的损害,或者消除贫穷和疾病,社会的每个方面都在被“改造”。

  但他承认,未来是不确定的。

  霍金表示:“成功创造有效的人工智能(AI),这可能是我们文明史上最重大的事件,但也可能是最糟糕的。我们无法知道。所以我们无法知道我们是否会得到AI的无限帮助,还是被藐视、被边缘化,甚至被毁灭。”

  “除非我们学会如何准备,并避免潜在的风险,否则AI可能成为我们文明史上最糟糕的事件。它会带来危险,比如强大的自主武器,或者让少数人压迫多数人的新途径。它还可能给我们的经济带来巨大的破坏。”

  霍金解释说,为了避免这种潜在的现实,AI的创造者需要“采取最佳实践和有效管理”。

  这位科学家强调了欧洲正在进行的一些立法工作,特别是立法者今年早些时候提出的关于建立有关人工智能和机器人的新规则的建议。欧洲议会的议员们表示,制定欧盟范围内的规则是必要的。

  这种发展让霍金看到了希望。

  他表示:“我是一个乐观主义者,我相信我们能够创造对世界有益的人工智能。它可以和我们和谐地工作,我们只是需要意识到危险,找出它们,采取尽可能最好的实践和管理,并提前为可能的后果做准备。”

  这不是霍金第一次警告人工智能的危险。科技行业的其他一些重要人物也表达过他们对人工智能的担忧。特斯拉和SpaceX的CEO艾隆-马斯克最近就表示,人工智能可能导致第三次世界大战,甚至提出人类与机器相结合,进化成某种半机器人,才能避免被人工智能打败。

责任编辑:于健 SF069

下载新浪财经app,赢iphone7
下载新浪财经app,赢iphone7
文章关键词: 霍金 人工智能 文明史

已收藏!

您可通过新浪首页(www.sina.com.cn)顶部 “我的收藏”, 查看所有收藏过的文章。

知道了

0

微博推荐

一键关注 关注更多

看过本文的人还看过

猜你喜欢
  • 新闻IS杀害中国人质 外交部连夜回应(图)
  • 体育水花46分勇士惊魂19连胜 哈登29分火箭负
  • 娱乐陈冠希:我努力给你们看 艳照门是意外
  • 财经国企改革顶层设计方案已获国务院通过
  • 科技盘点那些被资本赶出局的CEO
  • 博客实拍:北京雾霾爆表有多严重(图)
  • 读书优劣悬殊:抗美援朝敌我装备差距有多大
  • 教育女大学生招聘会现场被量胸围 教育盛典
  • 专栏李银河:官员通奸与任职资格的三种关系
  • 钮文新:当心人民币加入SDR的陷阱
  • 余胜海:SDR给中国带来有限经济利益
  • 肖磊:人民币纳入SDR加速楼市调整
  • 马光远:人民币莫掉入老帝国金融陷阱
  • 易宪容:人民币入篮不一定就升值
  • 徐斌:人民币加入SDR 只能做多中国
  • 孔浩:A股“尿完”才会一地鸡毛
  • 钮文新:人民币加入SDR又能怎样
  • 余胜海:人民币加入SDR有什么好处?
  • 宋清辉:纳入SDR是人民币大时代来临
  • 收藏成功 查看我的收藏