霍金:人工智能一旦失控 将很难被阻止

2016-06-29 22:31  来源:人民网

  人民网6月29日讯 据俄卫星新闻中文信息专线,著名天体物理学家史蒂芬·霍金日前在接受美国记者拉里·金的专访时表示,人工智能一旦脱离控制,将极难被阻止。

  霍金称,自己不认为发展人工智能“一定能让人类朝好的方向发展”,“当机器发展到能自己演化的重要阶段之时,它们的目标与人类愿望之间的相符程度就很难预料了。”他强调,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器将很难被阻止。

  霍金指出,人工智能可以比人类的智慧发展得更快。“有益的人工智能可以与人类共存,并扩大人类的可能性...想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!它们将影响到我们的经济,影响到我们的决策,并在整体上影响我们的生活。”

  霍金被誉为是继阿尔伯特·爱因斯坦之后最杰出的理论物理学家。他提出宇宙大爆炸的理论,在统一20世纪物理学的两大基础理论——爱因斯坦的相对论和普朗克的量子论方面走出了重要一步。遗憾的是,他21岁就患上肌肉萎缩性侧索硬化症(卢伽雷病),全身瘫痪,不能言语,唯一能动的地方只有一双眼睛和3根手指。

作者: 编辑:曹轶