近期,全國兩會期間,小米集團創(chuàng)始人雷軍公開表達了對AI換臉技術的擔憂。他透露,自己的形象被頻繁用于制作各類視頻,這些視頻通過AI技術模擬他的聲音和面部表情,成為網絡上的“嘴替”和“臉替”。雷軍表示,盡管他有意通過法律手段維權,但當前缺乏專門立法,只能依靠隱私權、肖像權和名譽權等相關法律,而這些都需要量化損失,讓他深感困擾。
社交平臺上,AI生成的真人形象已屢見不鮮,其逼真程度足以以假亂真。雷軍并非唯一的受害者,中老年人群體更是成為了這些AI視頻的易感人群。他們往往缺乏識別AI創(chuàng)作的能力,對這些“AI真人”的話語深信不疑。
例如,一位化名陸俊的年輕人提到,他的奶奶自從春節(jié)開始每天都觀看一個胖小孩的短視頻,盡管視頻中的小孩形象明顯經過AI處理,但奶奶卻毫不在意,只覺得這些視頻能讓她開心。這種“AI寶寶”現象,實際上瞄準了中老年群體被忽視的情感需求,一些網友甚至將AI寶寶視為懷孕許愿池。
更令人擔憂的是,一些AI賬號利用中老年人的信任進行帶貨或詐騙。例如,一個名為“·古元·”的視頻號,通過AI生成的真人形象,以溫柔的“弟弟”口吻向高齡女性推銷產品,其櫥窗商品的銷量已突破三位數。
不僅中老年人,年輕人同樣面臨著AI造假的威脅。有報道指出,詐騙犯利用Deepfake深度偽造技術,制作出公司高層發(fā)言視頻,誘導職員轉賬。還有用AI換臉真人制作色情影片、盜刷醫(yī)保等違法案例。
針對AI技術的濫用,全國政協(xié)委員和科技公司高管紛紛提出治理建議。全國政協(xié)委員齊向東提議,要從技術保障、制度保障、成果應用三方面入手,系統(tǒng)提升安全能力。360集團創(chuàng)始人周鴻祎則認為,傳統(tǒng)網絡安全的解題方法解決不了人工智能的安全問題,應由既懂安全又懂AI的企業(yè)牽頭,打造安全大模型來解決大模型的應用安全問題。
各社交平臺也在加強對AI內容的治理。抖音、視頻號、小紅書等平臺都推出了針對AI治理的管理政策。同時,一些互聯網公司正在研究檢測AIGC的第三方工具,以支持文本、圖片等AI生成內容的檢測。然而,隨著生成內容越來越逼真,檢測工具的模型學習難度也在增加。
為了應對AI技術的挑戰(zhàn),國家互聯網信息辦公室發(fā)布了《人工智能生成合成內容標識辦法(征求意見稿)》,以規(guī)范人工智能生成合成內容標識,維護國家安全和社會公共利益。隨著多項規(guī)定和監(jiān)管政策的相繼落地,未來社交平臺上的內容生態(tài)或將發(fā)生顯著變化。