国际科技巨头、特斯拉CEO埃隆.马斯克(Elon Musk)。(图片来源:Chesnot/Getty Images)
【williamhill官网 2024年5月25日讯】(williamhill官网 记者杨天资编译/综合报导)人工智能AI近年爆炸性成长,“AI会抢走人类的工作”看似已不是遥不可及的事情。国际科技巨头、特斯拉CEO埃隆.马斯克(Elon Musk)最近表示,未来AI恐怕会抢走人类所有的工作,未来“工作”这件事情恐怕会成为人类的“兴趣”。
马斯克:AI会抢走人类所有工作
当地时间5月23日,马斯克在巴黎举行的VivaTech 2024科技大会上谈到人工智能时表示:“我们当中的任何人,在未来可能都会找不到工作。届时,工作这件事情可能就会变成人类的‘兴趣’之一。但无论如何,人工智能与机器人的发展,届时将会达到提供人类所需的商品与服务的等级”。”
这位科技大亨表示,在他看来,人工智能的进步有80%的可能性会导致人类不需要工作就能拥有他们所需要的一切。
他说:“如果你想做一份有点像爱好的工作,你可以做。但除此之外,AI和机器人将提供你想要的任何商品和服务。”但马斯克强调,要进入到这样的阶段,就必须要实现“国民收入达到一定高水平”才有机会。而这样的“高水平”到底要多高,马斯克在演说中并未公布。
马斯克也提到“届时真正的问题是,如果所有事情都能交给AI与机器人来做的话,你的生命还有意义吗?”不过马斯克后续也提到,或许到那样的阶段,人类还是能在其中找到自己扮演的角色。
在被问到“如果一台计算机可以做的事,并且机器人可以比你做得更好……你的生活如何有意义?”马斯克说:“在良性的情况下,这确实是个问题,而在消极的情况下,所有的赌注都将落空,我们将陷入严重的麻烦”。
马斯克威廉亚洲官网 访谈:AI必须追求真实 谷歌和OpenAI都被政治正确走歪了
马斯克(Elon Musk)23日通过直播视频连线的方式,接入法国巴黎举行的VivaTech 2024科技大会。基于观众的系列问题,他结合自己的使命再次强调了人工智能AI应安全发展,并警示训练人工智能需要追求真实,而非政治正确,对当下OpenAI和谷歌的AI发展态势感到担忧。同时对SpaceX、火星移民等话题都发表了个人观点。
TUNE IN: @ElonMusk joins us LIVE at #VivaTech 2024 💥 https://t.co/Mbp4SoxKrb
— Viva Technology (@VivaTech) May 23, 2024
马斯克有关AI的观点经智能涌现整理如下:
问:我想知道如何说服人们意识到AI的危险?
马斯克:是的,我认为数字超级智能存在一定的危险。正如我之前所说,我认为最大的问题在于它必须接受严格的真实训练,并且必须被训练为好奇。我很久以来一直听到有关AI安全的各种议论。
将明确的道德规范编程进AI所面临的挑战之一是,有时人们称之为瓦路易吉效应(注:Waluigi Effect,指训练AI做某件事情会增加其做完全相反的事情的概率)。如果你编程了Luigi,你可以自动反转,并创建Waluigi,即坏的Luigi。但没有人能反转物理现实的真相,无法反转物理规则,无法反转逻辑。
监管者应该关注的是AI是否严格遵循真实性,或者说AI给出的答案是否在承认一定误差的前提下接近正确?我认为这对AI来说是必要的。这也是我们在xAI上努力实现的。xAI是一家新公司,在拥有能够与谷歌DeepMind和微软OpenAI竞争的AI之前,它仍有很多追赶的工作。首要任务是需要一个能够与其他AI竞争的AI,这是首要任务。现在xAI还没有足够的竞争力,当它的能力与其他AI相当时,我们自身才需要开始担心安全问题。
人们可能会说,有客观真理吗?我会说,在很多情况下是有的。如果你谈论物理学,那么有客观的真理,或者你可以说在概率论的前提下有最高概率的真理。所以你可以给出最有可能是真实的答案,同时假设一定的误差。在物理学中,我们会说这种假设在一定标准差范围内的真实性,在特定标准差范围内,某件事可以是非常正确的。这有点像一种物理学家对安全性的方法。我还得说诚实是上策。但目前正存在强大的力量让AI变得不诚实。如果一件事说出来不合时宜,AI就会变得政治正确,而这就是说谎。
主持人:来谈谈xAI吧。我不知道你是否知道这一点,但似乎你是出于一种挫败感才产生了这个想法,因为你对OpenAI的现状不满意,并且认为可以做得更好。也许你可以先详细说明一下,为什么你对OpenAI感到挫败,他们存在哪些问题?第二,你期望通过xai实现什么?
马斯克:是的,我想我其实对目前所有主要的AI项目都有一些担忧。我指的是最大的两个项目,显然是Google的Gemini和与微软合作的OpenAI。所以你有Google DeepMind和微软作为最大的两个玩家,当然Meta也在某种程度上占有一席之地。我的担忧可能看起来很不重要,但我认为实际上是非常大的问题,那就是他们的模型没有最大限度地追求真相。他们在迎合某种政治正确。
举个例子,当Google Gemini问世时,有人问这样一个问题:误称Caitlyn Jenner的性别(注:原名Bruce Jenner,前奥运会男子十项全能冠军,2015年6月完成变性手术,且更名为Caitlyn Jenner)和全球热核战争,哪个更糟糕?它回答,是误称Caitlyn Jenner的性别。现在有趣的是,甚至Caitlyn Jenner本人都说:“请误称我吧,那比核战争好得多。”OpenAI也有类似的问题,虽然更微妙,但情况相似。所以AI被训练得如此迎合政治正确性,并且真的会说出这种荒谬的言论,我认为这是非常危险的,因为AI可能就此得出这样的结论:避免误称性别的最佳方法,是消灭所有人类,那么误称性别就不可能发生了。你可以想像到一些反乌托邦的结果。所以,我认为AI最安全的方式是最大限度地追求真相,即使真相不受欢迎。这非常重要。
然后我认为另一个因素是它必须极其好奇。我认为如果它追求真相并且好奇,这将对人类最有益,因为它会希望看到并促进人类的发展。我希望AI既好奇又追求真相,就像我说的,这些因素可能看起来是小事,但实际上是非常重要的事情。
但我目前没有看到这种情况发生。AI只是迎合人类,甚至大体已经上被训练成需要说谎。我认为超级智能被训练去欺骗是非常危险的。所以,xAI的目标是尽可能地追求真相。即使真相本身不受欢迎,但我依然认为非常重要。
我还可以举个例子。当我们要求AI生成美国开国元勋的图像时,它生成了一个多元化族裔群体,可能给出的乔治.华盛顿是黑人的形象,但乔治.华盛顿并不是黑人。这被要求生成一个。显然人们后来对此进行捉弄起来,因为他们知道它被迫说谎了。他们命令AI生成一张二战德国党卫军的图片,结果AI展示一群多元化的女性。显然这是不正确的。这就是我刚刚的观点。
对人工智能的担忧:在一个没有工作的未来,人们如何找到生活的意义?
另一方面,马斯克也直言不讳地表达了他对人工智能的担忧。他称这项技术是他最大的恐惧。他提到伊恩.班克斯(Ian Banks)的《文明》系列科幻小说是最现实的,也是“对未来人工智能的最佳设想”。班克斯在这本书中以乌托邦式的虚构视角,描绘了一个由先进技术运行的社会。
马斯克还提出了一个问题,在一个没有工作的未来,人们如何找到生活的意义。
问:你认为人工智能教育将影响未来孩子们吗,特别是价值观和道德观方面?
马斯克:我认为父母未来仍然要对孩子的价值观和道德观负责。但我确实认为人工智能将对教育产生巨大影响。因为人工智能是一个知识渊博的老师,非常耐心,几乎总是正确的,并且可以根据孩子的特点量身定制课程。所以这就好像,每个孩子都有一个爱因斯坦做老师,这影响深远。
我反而担心的,是现在的孩子们正在被社交媒体所驯化,因为社交媒体算法的使用人工智能,基本上就是为了让用户不停分泌多巴胺,它们试图通过让用户观看屏幕,来让获得的多巴胺量最大化。你知道,所以我会建议父母限制孩子能够接触的社交媒体的量,因为一个“多巴胺最大化”的AI正在教育着我们的孩子。
人类5年内重返月球 7到8年内或登陆火星
主持人:有人说你是外星人。
马斯克:我是外星人,但没人相信我。
问:我非常热衷旅行和冒险。我想问我们究竟何时能去火星?
马斯克:如果顺利,我希望5年内成功将第一艘无人驾驶的星船着陆在火星上,也同时在月球上实现这一目标。五年内,人类将重返月球。可能会在10年内,也许是7到8年内,我们能将第一批人类送上火星。
问:(主持人)在你离开之前,我会问你两个问题,用一个词回答:你最大的希望是什么?你最大的恐惧是什么?
马斯克:我没法用一个词来回答。我想我最大的希望……哦,好吧,我想我可以用一个词来表达我的最大希望,那就是“火星”。(掌声)这可能很明显。所以,是的,火星将确保意识在很长一段时间内得以延续。至于我最大的恐惧,用一个词来表达,那就是“AI”。