顶级科技专家22字声明 AI可能“灭绝人类”(图)

发表:2023-05-31 21:36
手机版 正体 打赏 1个留言 打印 特大

一旦接受研究人员的适当训练,生成式AI可以非常有效地学习新事物。
一旦接受研究人员的适当训练,生成式AI可以非常有效地学习新事物。(图片来源:Adobe stock)

【williamhill官网 2023年5月31日讯】(williamhill官网 记者程帆编译综合报导)近日,多位世界顶级人工智能(AI)研究员、IT工程师和不少科技公司首席执行长再次联名,就生成式AI对人类构成的生存威胁发出了严厉警告。

据路透社的报导,5月30日(周二)在美国非营利组织AI安全中心(Center for AI Safety)网站上发布了一份只有22个英文单词的声明,即“减轻AI可能带来的灭绝威胁是整个(人类)社会需要面对的一个优先事项,与应对大流行病和核战争等其它重大风险并列。”

到目前为止,有超过超过300名AI领域从业人员签名并表示支持以上声明。他们包括世界领先人工智能实验室之一的谷歌DeepMind首席执行官哈萨比斯(Demis Hassabis)、聊天机器人ChatGPT研发公司OpenAI首席执行官奥特曼(Sam Altman),以及AI奠基人辛顿(Geoffrey Hinton)和本希奥(Youshua Bengio)等等。

值得一提的是,曾担任谷歌副总裁的知名教授辛顿与加拿大蒙特利尔大学教授本希奥是2018年计算机领域最高奖项“图灵奖”的得主、被业内人士称为“深度学习三巨头”中的两位。他们不但是深度神经网络(deep neural network)的开创者,还为深度学习(deep learning)算法的发展和应用奠定了基础。而这些正是导致计算机视觉(Computer Vison)、语音识别(Speech Recognizing)、自然语言处理(Natural Language Processing)和机器人研究等方面迅速崛起、乃至掀起全球科技浪潮的主要原因。

不过,一同获得该奖项的纽约大学教授兼Meta首席人工智能科学家杨立昆(Yann LeCun)尚未签名。

辛顿在接受媒体采访时表示,对自己毕生所研究的东西,现在感到后悔了。他在离开谷歌后不久就形容,AI聊天机器人所带来的某些危险“相当恐怖”!他指出,像GPT-4这样的系统一旦接受研究人员的适当训练,就可以非常有效地学习新事物。

目前,最令他担心的是,通过利用AI,网络上会出现很多虚假的图片、视频或文字,可能让人分不清真伪。其次,他还担心AI将改变就业市场,让律师助理、私人助理、翻译等不需要直接与人打交道的岗位消失。

AI安全中心执行主任亨德里克斯(Dan Hendrycks)对《纽约时报》表示,新的声明很简洁有力,旨在尽可能地被广泛接受。此外,内容中没有提及如何减轻AI潜在威胁的任何方法,也是避免意见分歧。他说,“我们没想要去推一个包含了30种干预手法的庞大菜单... 因为那样会淡化(想传达的)信息。”

本次的部分支持者在今年3月发布在未来生命研究所(Future of Life)的另一封公开信上也签了名。他们呼吁所有AI实验室立即暂停训练比GPT-4更强大的智能系统,为期至少6个月。不过,该信后来受到了多方批评,有些专家认为它夸大了AI带来的风险,还有一些人则赞同存在这种风险,却不同意信中建议的措施。

(文章仅代表作者个人立场和观点)

来源:williamhill官网

短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.



【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《williamhill官网 》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。
荣誉会员

看完这篇文章您觉得

评论



加入williamhill官网
会员
donate

williamhill官网 版权所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意