揭阳信息网
科技
当前位置:首页 > 科技

人工智能比核武器更具威胁霍金敦促重视人工

发布时间:2019-10-09 08:33:34 编辑:笔名

人工智能比核武器更具威胁? 霍金敦促重视人工智能安全

不少科幻电影中,一些人工智能机器拒绝服从人类指挥,甚至杀死或控制人类,最终统治世界。为避免这类情况出现,包括英国理论物理学家斯蒂芬霍金在内,数百名科学家和企业家联合发表一封公开信,敦促人们重视人工智能安全,确保这类研究对人类有益。

近年来,人工智能技术高速发展,在给人们生活带来便利的同时,可能存在危险性。一些科学家认为,人工智能可能比核武器更具威胁。

益处巨大

英、法等国媒体12道,这封信由非营利机构未来生活研究所发布。除霍金外,在信上签名的还有美国机器人和智能机械研究中心主任卢克米尔豪泽、2004年诺贝尔物理学奖获得者弗兰克维尔切克和美国特斯拉汽车公司首席执行官埃隆马斯克等人,以及一些来自美国哈佛大学、斯坦福大学等知名高校的顶尖学者和一些来自谷歌公司、微软公司等高科技企业的工作人员。

这封公开信说,人工智能技术稳定发展已获广泛共识,而且未来能够给人类带来巨大益处。信中说,人工智能已经为人类生活提供便利,包括语音识别技术、图像分析技术、无人驾驶汽车和翻译工具。

公开信说:由于人工智能的巨大潜力,有必要研究如何在从其获益的同时避免潜在的危险。

或有危险

信中写道,人工智能技术发展良好,但给社会带来的冲击逐渐增加。如果没有针对人工智能的安全防护措施,可能导致

人类的未来变得黯淡,甚至让人类灭亡。

短期而言,人工智能可能导致数以百万计人失业;长期而言

,可能出现一些科幻电影中的情况,人工智能的智力水平超过人类,开始政变。按人工智能的发展进度,在不久的将来,机器可能以不断加快的速度重新设计自己,超越受制于生物进化速度的人类,最终摆脱人类的控制。这封公开信说:我们的人工智能系统必须按照我们的要求工作。

霍金曾提醒,需警惕人工智能科技过度发展,防止人工智能科技失控并超越人类智慧,最终破坏整个星球。他说,成功创造人工智能科技将是人类历史上最伟大的成就,但不幸的是,有可能也是最后一项(成就)。

去年10月,太空探索技术公司和特斯拉汽车公司首席执行官马斯克在美国麻省理工学院参加一场活动时说:我认为对待人工智能我们必须非常谨慎。按照我的猜想,人工智能可能是我们面临的最大灭绝风险。马斯克说,创造人工智能犹如召唤一只恶魔,在一些故事中,有人拥有五星阵法和圣水他确信自己可以控制这只恶魔,不过事实并非如此。

为确保人工智能不被误用,美国谷歌公司不久前成立一个伦理委员会,监督这家企业的人工智能技术研发。

宝宝积食拉肚子的症状丁桂薏芽健脾凝能治腹泻吗宝宝健脾胃的药有哪些

长春有哪些治白癜风的医院
广东看不孕不育女性医院好吗
山东专业做妇科检查医院
男科医院南京哪个好
武汉哪家医院妇科医院好