人工智慧AI機器人示意圖(圖片來源: Adobe stock)
【williamhill官网 2022年7月26日讯】日前俄羅斯莫斯科舉行了國際西洋棋比賽,有一名7歲男童在與AI機器人對戰之時,疑似因下棋的速度太快,已經超過AI機器人的預期,竟然當場將他的手指打斷,嚇得現場民眾立刻幫忙將他救出,事發影片已於網路上瘋傳,並引發外界關注。
該事件發生在19日於莫斯科所舉行之西洋棋大賽中,從影片中可以看到,AI機器人和7歲男童克里斯托弗(Christopher)於對戰之時,機械手臂突然緊緊地壓住克里斯托弗的手指,儘管克里斯托弗非常疼卻無法抽手,後來才在多位成人之幫忙下,才終於脫困。
All acquisition that advanced AI will destroy humanity is false. Not the powerful AI or breaching laws of robotics will destroy humanity, but engineers with both left hands :/
— Pavel Osadchuk 👨💻💤 (@xakpc) July 21, 2022
On video - a chess robot breaks a kid's finger at Moscow Chess Open today. pic.twitter.com/bIGIbHztar
據莫斯科國際西洋棋總會的主席拉扎列夫(Sergey Lazarev)表示,該台機器人是在7月13日到21日舉行之比賽中使用,在此之前它也曾於多場比賽中使用過,但從未發生過類似的事件。
副主席斯馬金(Sergey Smagin)認為,AI機器人是在這名7歲男童拿走一個棋子之後,才突然攻擊的,因此懷疑與此男童沒有等待AI完成動作後,就突然伸手來移動棋子有關,「使用上有一定之安全規定,非常明顯地男童違反了這些規定,其實當他在採取行動之前,男孩應該先等待一下,這是一起十分罕見的案例」。
拉扎列夫說,雖然男童手指受傷,但隔天上了石膏後,仍然回到會場來完成比賽,目前家長已經向警方報案,而莫斯科體育局也已經收到了通報,他們會盡可能地為這家人來提供幫助,且對AI機器人採取措施,以避免類似情況再次發生。
Google工程師宣稱機器人有「自主情感」遭停職
據英國《衛報》與美國《華盛頓郵報》報導,有一名美國谷歌 (Google) 公司的軟體工程師於6月初公佈一項吸引全世界圍觀之驚人發現,指稱谷歌公司以人工智慧演算法搭建的智慧聊天機器人程式,竟然發現有了「自主情感」。
布萊克·萊莫因 (Blake Lemoine)是該軟體工程師,已經於谷歌工作了7年之久,並參與了演算法定制及人工智慧等專案。去年秋季,他開始參與了谷歌的LaMDA智慧聊天機器人程式之研究工作中,其主要內容是通過與該程式展開互動,以判斷這個智慧聊天機器人程式是否有存在使用歧視性或者仇視性的語言,而及時做出修正。
不過當萊莫因與LaMDA談到關於宗教問題之時,卻驚訝地發現該人工智慧程式居然開始談論起了自己之權利和人格,甚至還會害怕自己遭到關閉,其表現出了一個在萊莫因看來就好像一個7、8 歲兒童一般的「自主情感」。
萊莫因立刻將自己的發現彙報給谷歌公司之領導層,可是後者認為萊莫因之發現並不實在。後經谷歌的其他研究人員亦對萊莫因所拿出的證據進行分析,而認為並沒有證據證明LaMDA擁有了「自主情感」,反而是有很多證據證明該程式無「自主情感」。
萊莫因不認為自己的發現有錯,而將一段他和LaMDA之間的內部聊天記錄直接傳到網路上,且找媒體曝光此事。
該段聊天記錄很快就吸引全世界的研究者,若僅從該記錄來看,該谷歌智慧聊天機器人程式確實將自己當成了一個「人」,且似乎表現出了「自主情感」,而有自己的「喜好」。
但谷歌方面和其他人工智慧專家、以及人類心理認知學的專家們皆都認為,LaMDA之所以能夠進行了這樣的對話交流,主要是因為其系統是把網路上的百科大全、留言板及論壇等互聯網上人們交流之大量資訊皆搜集過來,而後通過了「深度學習」來進行模仿的,但這並不意味著該程式能夠理解人們交流的這些內容之含義。
他們認為谷歌之人工智慧聊天機器人僅是在模仿或者複讀人和人之間交流中所使用的語言與資訊,而並非像人類那樣真的能夠瞭解這些語言及資訊之含義,所以不可因此就指稱人工智慧有了「自主情感」。
責任編輯: 王君 --版權所有,任何形式轉載需看中國授權許可。
看完那這篇文章覺得
排序