马斯克曾多次表达对AI的担忧,并警告开发不受限制的AI风险危险比核弹还大。(图片来源: Getty Images)
【williamhill官网 2023年4月2日讯】(williamhill官网 记者程帆编译综合报导)近日,特斯拉首席执行官马斯克协同上千名AI(人工智能)专家、企业高管共同签署并发表了一封公开信,呼吁在人类对人工智能产品可控之前,应先暂停对强大智能系统的开发。
据路透社的报导,3月29日(周三),非营利组织未来生命研究所(Future of Life)发表了《暂停大型人工智能研究》公开信,所有AI实验室立即暂停训练比GPT-4更强大的智能系统,为期至少6个月。因为这类系统对社会构成了潜在危险。
GPT-4是由人工智能开发商OpenAI公司在3月中旬推出的,它除了比前一代GPT-3更聪明、有更高的准确性外,还可应用于各种领域,例如支持图像辨识、文本输入/输出、语言翻译、对话生成、自然语言理解、搜索引擎等。
尽管该模型在许多现实世界场景中的能力仍然远低于普通人,但其专业和学术水平不亚于人类。在美国律师执照统考模拟中,GPT-4的表现甚至超过90%的人类。
信中提到,在暂停实验期间,需要开发和实施一套为高级AI系统设计的共享安全协议,并由外部的独立专家进行严格审计和监督,以确保该系统是安全的。“只有在确信它们的效果是积极的,风险是能掌握的情况下,才可以继续进行开发工作。”
与此同时,信上还说明AI系统恐怕会以经济和政治破坏的形式,给社会和文明带来威胁。因此,开发者与政策制定者需要在限制方面与监管机构合作。
除马斯克(Elon Musk)外,苹果公司联合创办人沃兹尼亚克(Steve Wozniak)、Stability AI创办人穆斯塔克(Emad Mostaque)、谷歌AI部门DeepMind的一队研究人员,以及AI领域重量级人物本希奥(Yoshua Bengio)和罗素(Stuart Russell)等在内的1100多名人士都在信上签了名。
此前,马斯克就曾多次表达对AI的担忧,并警告开发不受限制的AI风险危险比核弹还大。
CNBC报导称,马斯克在2月15日参与迪拜的“世界政府高峰会(World Government Summit)”时说,AI是把双刃刀,是人类文明未来面临的最大风险之一。“它有积极的一面,也有消极的一面,有巨大的前景也有巨大的能力,但随之而来的危险也是巨大的。”他还建议,政府需要通过立法对其监管。
OpenAI首席执行官阿尔特曼(Sam Altman)在上周接受媒体采访时也表示,他对AI技术及其对劳动力、选举和虚假信息传播的影响“有点害怕”。在与MIT研究科学家弗里德曼(Lex Fridman)的威廉亚洲官网 对话中,他透露,“从ChatGPT开始,AI出现了某种推理能力,但没人能解读这种能力出现的原因。”并承认,“AI杀死人类”不是完全不可能。
这公开信发表之际,欧洲刑警组织(Europol)3月27日也对ChatGPT等先进AI提出了道德及法律疑虑。该组织示警,AI系统恐被滥用于网络钓鱼、虚假讯息及网络犯罪等。
来源:看完这篇文章觉得
排序