忘记密码   免费注册 查看新帖 | 论坛精华区

ChinaUnix.net

  平台 论坛 博客 认证专区 大话IT HPC论坛 徽章 文库 沙龙 自测 下载 频道自动化运维 虚拟化 储存备份 C/C++ PHP MySQL 嵌入式 Linux系统
最近访问板块 发新帖
查看: 308 | 回复: 0

霍金:人工智能可能是人类文明史上最糟糕的事 [复制链接]

论坛徽章:
2
15-16赛季CBA联赛之上海
日期:2017-11-16 13:45:42CU十四周年纪念徽章
日期:2017-11-16 17:03:02
发表于 2017-11-07 17:16 |显示全部楼层

腾讯科技讯 据外媒报道,著名物理学家斯蒂芬-霍金(Stephen Hawking)周一表示,人工智能的出现可能是“我们文明史上最糟糕的事”,除非社会找到控制其发展的方法。

霍金在葡萄牙里斯本举行的Web峰会技术会议上发表了上述言论。他说:“理论上,计算机可以模拟人类的智慧,并超越它。”

霍金谈到了人工智能在帮助消除对自然世界的破坏或消除贫困和疾病方面的潜力,社会的每个方面都将被改变。

但他承认,未来是不确定的。

霍金在演讲中说:“成功创造出有效的人工智能可能是我们文明史上的最大事件,或者说是最坏的事件。我们只是不知道。因此,我们无法知道我们是否会得到人工智能的无限帮助,或者被它忽视,或者被它摧毁。”

“除非我们学会如何做好准备并避开潜在风险,否则人工智能可能是人类文明史上最糟糕的事件。它带来了危险,比如强大的自动化武器或者少数人压迫多数人的新方法。它可能会给我们的经济带来巨大的破坏。”

霍金解释说,为了避免这种潜在的风险,人工智能的创造者需要“采用最佳实践和有效管理”。

霍金强调说,欧洲正在进行一些立法工作,特别是今年早些时候立法者提出关于人工智能和机器人技术的新规定。欧洲议会成员国表示,欧盟需要建立广泛的法律法规才能解决这个问题。

正是因为这些发展,霍金对未来充满了希望。

霍金说:“我是一名乐观主义者,我相信我们可以为世界的利益创造人工智能。它能跟我们和谐相处。我们只是需要意识到危险,分辨出危险,利用最佳实践和管理,提前做好准备。”

这并非霍金首次警告人工智能的危险。他和科技行业的许多名流都谈过他们对人工智能技术的担忧。特斯拉和SpaceX首席执行官埃隆-马斯克(Elon Musk)最近表示,人工智能可能会引发第三次世界大战,甚至提议人类必须与机器人合并以便在未来保持相关性。

还有一些人提出了对付人工智能的方法。微软创始人比尔-盖茨表示,机器人应该缴纳所得税。

科技行业的一些大腕并不认为人工智能会造成世界末日。Facebook首席执行官马克-扎克伯格(Mark Zuckerberg)称,他对人工智能的未来“非常乐观”。


转自:腾讯科技


您需要登录后才可以回帖 登录 | 注册

本版积分规则

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号 北京市公安局海淀分局网监中心备案编号:11010802020122
广播电视节目制作经营许可证(京) 字第1234号 中国互联网协会会员  联系我们:
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP