湖北鄂东地区第一门户网站--鄂东网

霍金警告人工智能危险性 称其若失控很难被阻止

 时间:2016-06-29 15:29:45编辑:来源:news.xianzhaiwang.cn

Scv鄂东网|xianzhaiwang.cn
霍金警告人工智能危险性 称其若失控很难被阻止

资料图:著名天体物理学家霍金。记者 张子扬 摄Scv鄂东网|xianzhaiwang.cn

中新网6月29日电 据外媒报道,著名天体物理学家史蒂芬·霍金认为,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器很难被阻止住。Scv鄂东网|xianzhaiwang.cn

美国知名记者拉里·金对霍金进行了采访。霍金在采访中承认,他不认为发展人工智能一定能让人类朝好的方向发展。Scv鄂东网|xianzhaiwang.cn

霍金表示:“当机器发展到能自己演化的重要阶段之时,它们的目标与人类愿望之间的相符程度就很难预料了。”Scv鄂东网|xianzhaiwang.cn

他指出,人工智能可以比人类的智慧发展得更快。Scv鄂东网|xianzhaiwang.cn

Scv鄂东网|xianzhaiwang.cn
霍金警告人工智能危险性 称其若失控很难被阻止Scv鄂东网|xianzhaiwang.cn

资料图:著名天体物理学家霍金。Scv鄂东网|xianzhaiwang.cn

他说:“有益的人工智能可以与人类共存,并扩大人类的可能性。但失控的人工智能很难被阻止。在开发人工智能时必须保证符合道德伦理与安全措施的要求。”Scv鄂东网|xianzhaiwang.cn

他认为,有益的人工智能将出现在人类生活的各方面。Scv鄂东网|xianzhaiwang.cn

霍金说:“想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!它们将影响到我们的经济,影响到我们的决策,并在整体上影响我们的生活。”Scv鄂东网|xianzhaiwang.cn

霍金警告人工智能危险性 称其若失控很难被阻止

文章地址: http://news.xianzhaiwang.cn/toutiao/278071.html

已有0人评论 我有话说相关内容阅读
新闻评论(共有 0 条评论)
网友评论仅供其表达个人看法,并不表明鄂东网同意其观点或证实其描述。

 

免责声明:
1、凡本网注明“来源:***(非鄂东网)”的作品,均转载自其它媒体,转载目的在于传递更多的信息,并不代表本网赞同其观点和对其真实性负责。
2、如因作品[霍金警告人工智能危险性]霍金警告人工智能危险性 称其若失控很难被阻止内容、版权和其它问题需要同本网联系的,请在30日内进行。
征稿启事:
为了更好的发挥鄂东网资讯平台价值,促进诸位自身发展以及业务拓展,更好地为企业及个人提供服务,鄂东网诚征各类稿件,欢迎有实力机构、研究员、行业分析师、专家来稿。