人工智慧無法識別香蕉的成熟度,因其無法理解香蕉上黑色斑點的含義。(圖片來源:公有領域)
【看中國2018年1月23日訊】人工智慧已成為當今的熱門話題,也有人擔憂其會對人類造成威脅。但發展人工智慧的工程師指出,其實人工智慧並上沒有想像中那麼強,只要使用一點小技巧,就能夠將它「駭掉」,使它計算錯誤。
1月22日,根據《科學美國人》報導,目前人工智慧因程序的性能越來越強,能製造以假亂真的視頻,使人面畫像維妙維肖,還可虛擬人聲,讓人真偽難辨等。因此有人擔憂,人工智慧達到完全取代人,甚至取代人們的工作了。
不過,開發深度學習網路的工程師們認為示,無論有多麼的聰明,也是非常脆弱的。人類只要施點小技巧,就可擾亂它的判斷功能。
據美國麻省理工大學的一位人工智慧學研究生阿瑟葉(Anish Athalye)表示,電腦神經網路在某些方面,的確能超越人的本領,讓人覺得好像贏過人的能力。可是,它們有一個奇怪的特性,就是很容易地被人騙過。
阿瑟葉(Anish)等人發現一個有趣的事,他們能夠讓深度學習系統將滑板判斷成小狗;把烏龜看成是步槍。
阿瑟葉說,拿一張香蕉圖片,它的背景是普通的土地。若在香蕉旁邊放著一張引起人幻覺的烤麵包機彩色廣告貼,則谷歌的圖片識別系統就會把它們識別成烤麵包機,而不再是香蕉了。
紐約大學的心理學教授馬庫斯(Gary Marcus)也說,人工智慧程序會犯此種可笑的錯誤,是由於機器並不理解場景的整體意義;亦即機器不懂得圖形所代表的含義是什麼,所以才無法理解「物體或事物之間的內在因果關係」。
有關近期的人工智慧閱讀器SQuAD,表現出比人還要強的閱讀能力。對此,馬庫斯於推特上評論稱,由SQuAD顯示出,機器能注重相關文欄位落內容,可是,它並不明瞭這些段落的真正意義。
責任編輯: 王君 --版權所有,任何形式轉載需看中國授權許可。
看完那這篇文章覺得
排序