AI詐騙背后:用照片生成你“露臉說話”的視頻僅需30元左右-世界觀焦點
某天,你的一位熟人發來借錢的請求,隨后對方打來了視頻。視頻接通后你確認長相和聲音就是熟人“本人”,你
某天,你的一位熟人發來借錢的請求,隨后對方打來了視頻。視頻接通后你確認長相和聲音就是熟人“本人”,你沒有懷疑把錢轉了過去。沒過多久,你發現自己被騙了,剛才視頻里那位“熟人”并不是真的他。
這可不是鬼故事,而是已經發生在多位受害者身上的真實案例。
【資料圖】
只需一張照片、10分鐘聲音素材
近日,一則10分鐘被AI騙走430萬元的新聞刷屏。據警方通報,受害人郭先生遇到的就是上述情形,騙子通過智能AI換臉技術,佯裝成好友對他實施了詐騙。
尤其值得警醒的是,據公開報道顯示,利用AI 技術實施詐騙,此前已有多起相似案例。而這些案件背后,均涉及了AI換臉以及聲音合成技術。
目前,AI換臉隨處可見,在短視頻平臺,不少用戶都體驗過換臉帶來的新鮮感。這項技術也越來越成熟,僅需提供一張照片,就可以讓你變成視頻中人,或直接生成會眨眼、張嘴的視頻。
七七(化名)專門在網上接單用AI幫別人生成視頻,“只需提供一張背景干凈的正面照,我就能生成視頻,不僅眼睛、嘴巴都會動,還能時不時動動頭,非常自然。另外如果你提供文字,我還可以讓視頻中的人物口型對上,配合度很高,可以連續播放1分鐘。”七七說,他目前做這個工作已經非常熟練,“一個晚上就能完工”。
除了快速AI換臉,用AI手段合成或克隆聲音也越來越常見。
一位商家向中新經緯介紹,只需要提供某人一段10分鐘至30分鐘的聲音素材,要求沒有雜音,就能用2天左右時間生成一個專屬模型,后續輸入任何文字,發出的都是這個人的聲音。
“這個辦法屬于一勞永逸,而且這個模型不僅能讀文也能唱歌。一般來說,提供的素材時間越長,最終相似度越高。”上述商家介紹。
成本低至數十元
據中新經緯了解,目前制作一套“露臉且說話”的視頻成本不高。七七表示,用照片生成一段1分鐘時長的視頻僅需30元左右,如果視頻時間比較短,且畫面質量要求不高,這個價格可以再降,幾塊錢一段都可以。上述商家也表示,生成一個專屬模型也只需要幾十元。
這意味著,如果有人蓄意生成你的長相搭配你的聲音的視頻,花費也僅需數十元。
不過,對于前述警方通報的案例,網友們也有疑問。比如不法分子是如何獲得的郭先生好友的照片及聲音素材?本應是即時的視頻聊天,郭先生的手機里為何播放的是合成好的視頻?
電信分析師付亮對中新經緯表示,假冒某人聲音、圖像實施詐騙在十多年前就已經出現,嚴格說目前AI詐騙并不是新類型。“通報中沒有詳細說明不法分子是如何獲取郭先生好友個人信息的,但有一點可以肯定,這位好友的社交媒體賬號被盜了。不法分子可能是從社交媒體里直接獲取了個人信息,也可能之前以騷擾電話的方式與郭先生的好友聯系過,獲取了其聲音信息。”付亮分析。
而至于為什么接通視頻通話,播放的卻是已經合成好的視頻,付亮分析認為可能是通過插件實現的。
據中新經緯了解,目前虛擬攝像頭就可以做到這一點。利用一個程序,可以在視頻通話中讓對方看到任何你想播放的視頻,其中也包括通過AI換臉和聲音克隆合成的視頻。
應對“高端”詐騙往往還得靠最樸素的手段
蓄意制作別人人臉、聲音的視頻是否違法?
北京嘉維律師事務所律師趙占領對中新經緯表示,目前未經他人許可使用其肖像,即使不以營利為目的,也侵犯肖像權。但對于聲音來說,目前則不受著作權法保護。“但有些具有顯著性的聲音申請注冊了商標,這種情況下是聲音是受法律保護的。”趙占領說,如果將合成的視頻用于詐騙,且達到一定的數額標準,那就涉嫌刑事犯罪。
目前,針對AI詐騙,包括北京反詐在內的各類平臺已向公眾發出提醒,甚至稱“詐騙成功率接近100%”,并給出了一些提示。值得注意的是,由于對新技術辨別能力不強,這種新型AI詐騙給中老年人更是帶來挑戰。
在日常生活中,公眾除了要注意個人信息保護,不輕易提供人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻外,還要增強意識,尤其是涉及財務往來,務必通過電話、見面等最樸素的途徑核實確認,不要未經核實隨意轉賬匯款,不要輕易透露自己的身份證、銀行卡、驗證碼等信息。
此外,也要進一步提高和掌握辨別AI合成視頻的能力、技巧,目前AI合成的視頻雖已比較逼真,但在細節處如色彩分布、肌膚紋理、表情自然連貫性仍有較為明顯的瑕疵。
(原標題:《AI詐騙背后:生成你“露臉說話”的視頻僅需數十元》)