首页| lab闆风數绔瀉pp瀹樼綉 | lol鐢电珵闆风珵鎶骞冲彴 | 国际| 军事| 社会| 财经| 产经| 房产| 金融| 证券| 汽车| I T| 能源| 港澳| 台湾| 华人| 侨网| 经纬
English| 图片| 视频| 直播| 娱乐| 体育| 文化| 健康| 生活| 葡萄酒| 微视界| 演出| 专题| 理论| 新媒体| 供稿

科学家联名发公开信 称人工智能或使人类灭亡

2015年01月15日 14:02 来源:北方新报  参与互动()

  《现代快报》消息 不少科幻电影中,一些人工智能机器拒绝服从人类指挥,甚至杀死或控制人类,最终统治世界。为避免这类情况出现,包括英国理论物理学家霍金在内的数百名科学家和企业家联合发表一封公开信,敦促人们重视人工智能安全,确保这类研究对人类有益。

  英、法等国媒体1月13日报道,这封信由非营利机构“未来生活研究所”发布。除霍金外,在信上签名的还有美国机器人和智能机械研究中心主任卢克·米尔豪泽、2004年诺贝尔物理学奖获得者弗兰克·维尔切克、美国网络通讯软件Skype创始人之一扬·塔利英以及一些来自美国哈佛大学、斯坦福大学等知名高校的顶尖学者和一些来自谷歌公司、微软公司等高科技企业的工作人员。这封公开信说,人工智能技术稳定发展已获广泛共识,而且未来能够给人类带来巨大益处。人工智能已经为人类生活提供便利,包括语音识别技术、图像分析技术、无人驾驶汽车和翻译工具。但是,如果没有针对人工智能的安全防护措施,可能导致人类的未来变得黯淡,甚至让人类灭亡。

  短期而言,人工智能可能导致数以百万计的人失业;长期而言,可能出现一些科幻电影中的情况,人工智能的智力水平超过人类,开始“政变”。按人工智能的发展进度,在不久的将来,机器可能以不断加快的速度重新设计自己,超越受制于生物进化速度的人类,最终摆脱人类的控制。

  这封公开信说:“我们的人工智能系统必须按照我们的要求工作。”

  去年早些时候,霍金提醒,需警惕人工智能科技过度发展,防止人工智能科技失控并超越人类智慧,最终破坏整个星球。(石中玉)

【编辑:宋宇晟】

>文化新闻精选:

 
本网站所刊载信息,不代表中新社和中新网观点。 刊用本网站稿件,务经书面授权。
未经授权禁止转载、摘编、复制及建立镜像,违者将依法追究法律责任。
[网上传播视听节目许可证(0106168)] [京ICP证040655号] [京公网安备:110102003042-1] [京ICP备05004340号-1] 总机:86-10-87826688

Copyright ©1999-2024 chinanews.com. All Rights Reserved

Baidu
map