AI教父示警:人類恐落後 殺手機器人10年內成真(圖)


被稱為「AI教父」的英裔加拿大認知心理學家和電腦科學家傑弗裡·辛頓(Geoffrey Hinton)(圖片來源:GEOFF ROBINS/AFP via Getty Images)

【williamhill官网 2024年3月25日讯】(看中國記者王君綜合報導)有「AI教父」之稱的加拿大多倫多大學的名譽教授辛頓(Geoffrey Hinton),他於接受日媒採訪之時,談到了人工智能(AI)的威脅。他說,有很多人都以為,如果要防止AI失控,只要將電源開關關掉就可以了。但有超越人類智慧的AI能夠用語言來操縱我們,或者會試圖說服我們不要關掉開關。

辛頓是一個「深度學習」(Deep Learning)與神經網路(指模仿人腦的數學模型)先驅,他的研究幫助奠定了AI發展基礎。2023年,他突然從已經工作10多年的美國谷歌辭職,並開始談論AI的威脅。

3月22日,《日本經濟新聞》刊出了對於辛頓的專訪內容。他表示,若給AI設定目標,以作為解決對策,那麼它可能會找出對於人類不利的方法。比如,假設對AI下達遏制氣候變化的指令。此時AI將會意識到為達到目的,而有必要把人類清除,他擔憂真的會付諸實施的風險。

辛頓表示,今後還可能出現不同的AI之間相互競爭的局面。比如,若AI之間發生爭奪數據中心等資源,這將會是一個像生物體般推動進化的過程。我們面對透過競爭而變得更聰明的AI,人類將落在後面。

辛頓還預測,在未來10年內,將會出現自主殺死人類的機器人武器(或稱殺手機器人)。他稱,機器人武器或許遲早也會遭到限制,可是這可能要等到真正於戰場上遭使用、人類已認識到會帶來多麼悲慘的結局之後才能夠實現。

辛頓又談及,若從主觀經驗這個角度來進行說明,他認為AI能夠擁有與人類一樣的感覺,且人類也會經歷了與客觀事實不符的事件。比如我喝了很多酒,在早上醒來之時,眼前因幻覺而出現粉紅色小象,但我並不會相信小象的存在,而會認為自己的感知系統未正常工作,所以這只是內在的體驗。

他表示,透過了照相機收集視覺訊息的AI,也能夠產生同樣的情況。將物體放於相機前,並用稜鏡使光線彎曲,而形成產生物體在遠處的錯覺。若對話式AI解釋稱感知系統因稜鏡而不能夠正常工作,我們就可以說它有著與人類一樣的感覺。

報告:AI恐造成人類滅絕

最近美國國務院委託民間公司展開人工智能(AI)的研究,其報告指出現今快速發展的人工智能將會帶來「災難性」的國安風險,且警告政府的時間已經不多,必須來進行干預。經一名美國國務院官員證實,這份報告是由美國政府委託調查的,用來評估人工智能如何保護國家的利益。但該官員強調,此報告並不代表美國政府觀點。

根據《CNN》報導指出,美國國務院在最近委託民間公司Gladstone AI來進行人工智能(AI)研究報告,該公司直接表示,最先進人工智能系統,於最壞的情況之下,將可能對人類構成了「滅絕等級的威脅」,此項調查是1年多來對於200多人的採訪結果,而受訪者來自於人工智能公司高層、大規模殺傷性武器的專家、網路安全的研究人員,以及政府內部的國家安全官員。

Gladstone AI的執行長兼聯合創始人哈里斯(Jeremie Harris)在接受《CNN》採訪之時指出,人工智能已是一項經濟變革的技術,它可能夠使我們治癒疾病、可做出科學發現,甚至克服我們曾經認為無法克服的挑戰。可是也有可能會帶來嚴重風險,在世界頂級人工智能會議上所發表的實證研究和分析等,已有越來越多的證據表明,當超過一定閾值,人工智能將可能變得不可控。

Gladstone AI認為,最先進的人工智能系統能夠武器化,並造成不可逆轉傷害。其次,報告中稱,人工智能實驗室內部存在著隱憂,因為研究人員可能會失去對於正在開發的系統控制權,而對全球安全釀成了毀滅性後果。另外,人工智能的興起,也有可能會破壞全球安全穩定,就有如核武一樣,各國將可能會開始於人工智能領域上展開新一輪軍備競賽。

Gladstone AI在報告中呼籲美國政府迫切需要展開干預,而採取重大的新措施應對此一威脅,包括了成立新的人工智能機構,或者採行緊急監管保障措施,甚至限制運用電腦訓練人工智能模型的能力。

Gladstone AI稱,有一些人工智能公司的員工私下也有類似的擔憂,有一家知名人工智能實驗室的人士指出,若某一個特定的人工智能模型開放給大眾使用,那麼將會非常糟糕,因為其可能會用在干預選舉或者操縱選民,而破壞民主。

本文留言

相關文章


近期讀者推薦