顶级AI研究人员和CEO在22字声明中对"灭绝人类的风险"提出警告

发布时间: 2023-05-30 19:09:14 来源: 196世界之最 栏目: 新奇科技 点击: 4

一批顶级人工智能研究人员、工程师和首席执行官就他们认为人工智能对人类构成的生存威胁发出了新的警告。这份22个英文词汇的声明被修剪得很短,以使其尽可能地被广泛接受,内容如下:"减轻人工智能带来的灭绝风险...

一批顶级人工智能研究人员、工程师和首席执行官就他们认为人工智能对人类构成的生存威胁发出了新的警告。这份22个www.196nk.cn英文词汇的声明被修剪得很短,以使其尽可能地被广泛接受,内容如下:"减轻人工智能带来的灭绝风险应该是一个全球优先事项,与其他社会规模的风险如大流行病和核战争并列。"

顶级AI研究人员和CEO在22字声明中对

这份声明由位于旧金山的非营利组织人工智能安全中心发布,包括GoogleDeepMind首席执行官Demis Hassabis和OpenAI首席执行官Sam Altman以及Geoffrey Hinton和Youshua Bengio在内的人物共同签署了这份声明--他们是因其在人工智能方面的工作而获得201ZwRrZMFofw8年图灵奖(有时被称为"计算界的诺贝尔奖")的三位人工智能研究人员中的两位。在撰写本报告时,今年的第三位获奖者、现任Facebook母公司Meta的首席人工智能科学家Yann LeCun还没有签字。

该声明是对人工智能安全的复杂和有争议的辩论的最新高调干预。今年早些时候,一封由许多支持22字警告的ZwRrZMFofw人签署的公开信,呼吁人工智能发展"暂停"6个月。这封信在多个层http://www.196nk.cn面受到了批评。一些专家认为它夸大了人工http://www.196nk.cn智能带来的风险,而另一些人同意风险,但不同意信中建议的补救措施。

人工智能安全中心(Center for AI Safety)的执行董事丹-亨德利克斯(Dan Hendrycks)告诉《纽约时报》,今天声明的简洁性--没有提出任何潜在的方法来减轻人工智能带来的威胁--是为了避免这种分歧的产生。"我们不想推动一个非常大的30种潜在干预措施的菜单,"亨德利克斯说。"当这种情况发生时,它稀释了信息。"

Hendrycks将这一信息描述为担心人工智能风险的行业人士的"出柜"。"有一个非常普遍的误解,甚至在人工智能界,认为只有少数的末日主义者,"亨德利克斯告诉《纽约时报》。"但是,事实上,许多人私下里会对这些事情表示担忧。"

这场辩论的大体轮廓是熟悉的,但细节往往是无休止的,是基于人工智能系统迅速提高能力,并不再在安全可控运行下的假设情景。许多专家指出,像大型语言模型这样的系统的迅速改进,证明了未来智能的预期收益。他们说,一旦人工智能系统达到一定的复杂程度,可能会变得无法控制其行动。

其他人则怀疑这些预测。他们指出,人工智能系统甚至无法处理相对平凡的任务,比如说,驾驶汽车。尽管在这一研究领域付出了多年的努力和数十亿的投资,但完全自动驾驶的汽车仍远未成为现实。怀疑论者说,如果人工智能连这一个挑战都处理不了,那么在未来几年,这项技术还有什么机会与人类的其他成就相媲美呢?

同时,人工智能风险倡导者和怀疑论者都认为,即使不改进其能力,人工智能系统在今天也会带来一些威胁--从它们的使用导致大规模监视,到为错误的"预测性警务"算法提供动力,以及为制造错误信息和虚假信息提供便利。

本文标题: 顶级AI研究人员和CEO在22字声明中对"灭绝人类的风险"提出警告
本文地址: http://www.196nk.cn/xinqikeji/296444.html

如果认为本文对您有所帮助请赞助本站

支付宝扫一扫赞助微信扫一扫赞助

  • 支付宝扫一扫赞助
  • 微信扫一扫赞助
  • 支付宝先领红包再赞助
    声明:凡注明"本站原创"的所有文字图片等资料,版权均属196世界之最所有,欢迎转载,但务请注明出处。
    新发现表明数以亿计的行星可能孕育着生命苹果曾打算推出五种不同色泽的AirPods原型以匹配iPhone 7的机身颜色
    Top