AI技術被用來製作兒童「不實」色情內容 勒索青少年(圖)
社媒專家提醒家長密切關注孩子的興趣動向,以便及時給予指導。(圖片来源: Adobe stock)
【看中國2023年7月4日訊】(看中國記者程帆編譯綜合報導)自人工智能機器人ChatGPT問世後,許多人將它作為輔助工作的工具。但也因生成式AI技術可以製作極似真人的影像,被不法份子利用製作色情、甚至兒童色情產品,對青少年進行敲詐。
據福克斯新聞的報導,社交媒體家長控制應用程序Canopy公司的數字安全專家利特文(Yaron Litwin)近日指出,詐騙者將網際網路上擷取的影像加工成非法圖片或視頻,向受害者進行勒索或騷擾的情況逐漸增多。他提醒家長們密切關注孩子的興趣動向,以便及時給予指導。
利特文舉了一個真實的例子:一位15歲男孩在網路上加入了某健身愛好群組,並向群裡分享了一張自己鍛練後袒露上身的照片(他認為是無害且安全的)。結果,這張照片被犯罪份子編輯成了裸照,並拿來勒索這位青少年。
今年6月6日,美國史丹佛大學(Stanford University)聯合《華爾街日報》發布的一份威廉亚洲官网 調研顯示,長期以來,Meta旗下社群媒體Instagram(IG)不僅允許眾多戀童癖者在該平台上存在,而且其演算法還促進了這些人的活動,使之演變為一個「龐大的」販賣未成年人性虐待內容的最主要平臺。
史丹佛大學網路政策中心(Cyber Policy Center)研究員說,IG將戀童癖們連接起來,通過推薦系統引導他們找到內容賣家或感興趣的買家。研究人員通過關鍵詞搜索,輕鬆發現了405個自稱是兒童自己管理的賬戶賣家,公開出售自製未成年人不法視頻及圖像。
據美國聯邦調查局(FBI)透露,最近一段時間,遭受合成影像的受害者普遍呈現上升趨勢。有受害者指出,許多影像是從他們的社媒帳號、私訊或視訊聊天中擅自擷取,並被加工成色情影像,藉以用來勒索他們。
FBI表示,一旦假造的圖片被上傳,很難阻止其在網路上流傳。這些圖片多數看起來極其逼真,不管成人或兒童都是罪犯下手的目標。
目前,FBI尚未揭示這些偽造的色情圖片是用什麼手法製成的,但隨著AI技術的迅速進步,無疑將令生成的產品越來越讓人難以分辨。
除了IG外,2022年主要社媒網站報告稱,其平台上涉嫌非法兒童性材料還來自臉書(Facebook)和智能手機應用程序WhatsApp等,他們均是由Meta開發的。
今年3月,多個持有Meta股票的退休金基金和投資基金對Meta提訴,指控其對臉書和Instagram上的人口販運和兒童性剝削影像內容「視而不見」。
《華爾街日報》稱,Meta坦承其執行操作中存在漏洞,並表示已成立一個專門工作小組來解決所提出的問題。
利特文認為,社媒的使用引起了一系列社會問題。由於網路威脅漸多,為了保護孩子,父母對他們在手機上下載智能社交監控應用程序也變得尤其重要。因為您永遠不知道孩子們何時會被捲入某些不當行為。