顶尖科学家警告AI安全风险,呼吁全球加强防范
作者: 投资币 时间: 2024-11-02 09:18 阅读: 806
5月22日,全球的目光聚焦在首尔的第二届人工智能安全峰会上,一场关于应对AI风险的警钟正在敲响。25位顶尖人工智能科学家,包括Geoffrey Hinton、Andrew Yao、Dawn Song和Daniel Kahneman等,在《科学》杂志联合发表论文,警示全球在防范AI带来的潜在危害上准备不足。
这些来自各国的权威专家,包括图灵奖和诺贝尔奖得主,呼吁领导人紧迫应对,特别强调可能在近十年内出现的超越人类的通用人工智能(AGI)。他们批评现有的努力远远不足以匹配AI技术可能带来的颠覆性变化。牛津大学的Philip Torr教授强调,现在需要从口头上的共识转向实质性的承诺。
论文提出的关键建议包括建立专家机构监控AI风险并增加资金支持,强化风险评估并确保其强制执行,将安全置于AI公司优先考虑之列,以及根据AI发展的速度设定相应严格度的标准。在首尔峰会上,微软、亚马逊、OpenAI等科技巨头签署了一项历史性的安全协议,承诺在发现高风险时启用“紧急停止”机制。
专家们一致认为,政府在监管未来强大AI系统时需扮演主导角色,包括颁发开发许可、限制自主权、必要时暂停开发,并实施严格的信息安全措施。加州大学伯克利分校的斯图尔特·罗素教授强调,政府应积极监管,而非依赖行业自我约束,因为“对AI的监管远比对三明治店的监管更重要”。