作者:趙甜怡
編輯:曾憲天
當人們把2023年看作是AI元年時,2024年的目光自然地聚集在了AI套用的落地上。然而,在商業化之前,AI已經變成了某些灰色產業的斂財工具。
莫名其妙的電話、熱情的異國美女、謠言、詐騙……在你無意識的時候,AI騙局就已經來到你身邊。PConline收集整理了四大AI新騙局,來看看你最「眼熟」哪一個?
常見範圍:微信、電話
目標人群:覆蓋所有,其中家長居多
面對陌生的號碼你可能會直接掛掉,但是如果是家人打來的「求救電話」呢?
根據中國新聞網的報道,去年11月,王欣的母親突然接到一通「王欣」打來的電話,聲稱自己被綁架,讓母親轉賬30萬元,否則「後果自負!」著急的王欣母親立馬就打算給對方轉錢,被同事攔了下來。同事建議先給王欣打電話,確認情況。結果,真實的王欣正在睡午覺,啥事也沒。而那通「求救電話」就是騙子利用王欣的AI複制聲音制作的。
近幾年,AI語音合成技術有了顯著的發展,一些C端的套用也逐漸成熟。像Voice AI、剪映等套用中都提供生成AI複制音色的功能。只要念兩個例句,人人都能輕松生成自己的AI音色。不僅如此,現在的技術已經可以在保證聲音的高保真度的同時,模擬你的音色,甚至細致到你說話時的口音、重音、換氣的節奏等等,完全可以滿足即時的互動需求。
先前在網路上爆火的「AI孫燕姿」就曾引得一眾討論。Up主用孫燕姿的AI複制音色翻唱【發如雪】【Melody】等眾多知名歌曲。該視訊合集獲得了2000多萬的播放量。網友們都在驚嘆,AI甚至會改變原曲中的部份旋律,依照孫燕姿的曲風特點進行調整,幾乎能做到以假亂真的水平。同時,網友們也都開始擔心,技術一旦被濫用,防詐騙的成本就更高了。
這樣的擔心不無道理。據網友分享,自己曾接到過一通莫名其妙的電話。一接通,對方就問「你家在哪」。一頭霧水的網友回答「不知道」,徑直掛斷了電話。然而就在幾天後,網友的家人就接到了「網友」的求救電話——騙子僅憑一句話就能生成網友的AI複制聲音,實施詐騙。
如果你認為,耳聽為虛,眼見為實。視訊資訊才能確認身份,那麽接下來這個騙局,將會顛覆你的想法,讓你驚呼「防不勝防!」
常見範圍:微信、線上會議、FaceTime
目標人群:覆蓋所有,熟人關系、女性居多
如今,眼見為實的「鐵律」也會面臨意外的情況。 福州市的郭先生就曾因為這條「鐵律」狠狠吃了虧。
「平安包頭」曾公布一起案例:在去年4月份,郭先生的朋友突然打來微信視訊電話,說自己在外地投標,需要430萬的保證金,想借郭先生公司的帳戶走一下帳。這位「朋友」隨即將錢打到了郭先生的帳戶上,並且截圖讓郭先生確認。雖然還未等來銀行的通知資訊,但郭先生還是先把錢轉了過去。結果,跟他視訊的,是用AI換了臉的騙子,佯裝成郭先生的朋友來騙錢。
郭先生報警後,還專門表示:「我在視訊中確認了面孔和聲音,才放松了戒備。」
其實,「眼見為虛」的換臉技術我們早就見過。這種技術名叫Deepfake深度偽造,是一種將圖片/視訊合並疊加到源圖片/視訊上,生成虛假的個人表情、動作的AI技術。在2023年上映的【流浪地球2】中,就是利用這個技術,將62歲的劉德華還原到我們印象中年輕的華仔模樣。
據【流浪地球2】的視覺特效徐建的分享,在電影中,Deepfake的技術方案是用要替換的目標演員的海量素材訓練AI替換拍攝素材的一種方式,相對省時省力省錢。在好萊塢電影制作中,這樣的操作很常見。漫威的年輕版鋼鐵俠和年輕版黑豹都是基於Deepfake和演員年輕時的2D素材訓練AI得出的。
但先進的技術往往是一把雙刃劍。落到居心叵測的人手裏,就變成了傷人的利刃。
前不久,數百萬網友在推特上看到了由AI生成的美國著名女歌手Taylor Swift的不雅照。這一組在推特上被檢視了4700萬次的照片,就是由Deepfake生成的。影響之惡劣,以至於推特直接禁止搜尋#Taylor swift#的詞條。然而,Taylor並不是第一個受害的女明星。開啟某些成人網站,甚至會有專門的「名人明星」分類,裏面充斥著各種AI換臉的女明星。
根據專註於檢測Deepfake的情報公司Sensity AI的一份報告,目前網上超過 96%的Deepfake影像都具有色情性質,而且幾乎所有影像都針對女性。
釋出在社交媒體上的照片,可能被別有用心的人拿來「餵」AI。普通人也隨時面臨著被「開盒」(指網路上公開曝光他人私密的行為)的風險。根據奇安信集團釋出的【2024人工智慧安全報告】,「2023年基於AI的深度偽造(Deepfake)欺詐暴增了3000%」。
利用換臉技術來招搖詐騙固然可怕,然而更深的套路是「攻心計」。
常見範圍:視訊號、抖音、小紅書等社交媒體平台
目標人群:覆蓋所有,其中男性居多
一個俄羅斯大美女向你發來視訊,說想嫁到中國,你會支持她嗎?相信90%的人都會表示支持。
外國人的面孔、些許生硬的中文,再配上濃厚的濾鏡,就組成了龐大的異國美女隊伍。這些「小姐姐」來自全球各地(近兩年以俄羅斯居多),#中俄友誼#是她們一定會帶的視訊標簽詞。在她們釋出的視訊中,首當其沖的主題就是「想要嫁到中國」。
在這一主題下,「小姐姐們」的視訊敘事采取了豐富多樣的角度:
「雖然我是xx國人,但中國是我的家。」
「朋友家人都不理解,但我知道我遲早是中國媳婦。」
「你願意娶一個不要彩禮的俄羅斯女生嗎?」
……
如果你對美女這個賽道不感興趣,也沒關系。還有認知思維賽道、軍事賽道、時事評論賽道等等,各式各樣的「外國人」都任你選擇。
這就是AI的新套路。視訊全部都是由AI合成的假人,再配上機器語音,打著「促進國際友誼」的旗號,出售商品。這些「外國人」談論著中國社會的方方面面,評論區收獲了許多真心實意的支持。不少粉絲評論留言:「你比中國人還了解中國!」「為你的中文點贊!」
即使視訊中,「外國友人」把「了(liǎo)解」念成了「le」解,仍能收獲10萬+的點贊,櫥窗中19.9元的雜糧粥仍能賣出30萬的驚人銷量。
在這背後操刀的是自媒體團隊。他們的商業思路十分清晰:先透過視訊來積累粉絲——到達一定粉絲量後,開櫥窗帶貨——實作變現。由於制作成本低,在起號階段,一人往往能營運數十個帳號,視訊的指令碼也是通用的。無所謂單個帳號是否有爆款,「廣撒網,多斂魚」,商品銷量才是最終目的。
即使常有文案「撞車」的情況發生,這類視訊還是吸引了大量來自三四線城市的中老年粉絲群體,紛紛為了「國際友誼」下單。
如果你認為,這是對下沈市場的招數,你絕不會上當。那麽下一個騙局,就是專門針對年輕群體的AI套路。
常見範圍:微博、抖音、小紅書等社交媒體平台
目標人群:積極學習的年輕群體
「現在不學AI,第一波失業的就是你!」「AI工作年薪200萬,入門方法免費教你!」「AI是普通人逆襲的最後機會!」你一定沒少看到這樣的標語。
從2022年底,OpenAI釋出ChatGPT開始,學習AI就成了新風潮。隨著科技巨頭們不斷推陳出新,各行各業的內容創作者們也鉚足了勁,在自己的帳號、社群中釋出越來越多的AI課程——「零基礎學AI」「AI繪畫教程」,甚至還有「教你如何做AI課程」的課程。
但大水漫灌的結果,必然是泥沙俱下。
不少年輕粉絲奔著學習新知識去,卻領了「吃一塹,不長智」的教訓。許多內容創作者利用資訊差,將國外免費開放的官方AI教學轉譯過來,就成了自己的課件,美美賣課。像許多「零基礎AI」課程中常見的「prompt使用技巧」,其實是來自OpenAI官網釋出的教學內容。這些標價199、299元的課程還贈送了「免費AI體驗」。但實際上,是本就免費開放的大模型,再加上一個套殼包裝罷了。
一些粗制濫造的AI課程絲毫不影響這個市場的火熱程度。不少焦慮的年輕人仍在直播間瘋狂下單。在抖音,一個4萬粉絲的博主,近800元的AI錄播課竟有2000+人學習,這意味著,單課程銷售額至少160萬元。
這些授課人就是透過傳播焦慮的方式來促進課件的下單量。一不小心你就會成為「韭菜園裏最靚的一棵」。
上面四種AI騙局,你被哪個絆住了腳?
其實,現在互聯網上的AI騙局遠不止這些。網路安全公司Fortinet釋出的【2024全球安全威脅預測】中提到,AI已經成為「頭號關註」。假視訊被頻繁用於傳播謠言,一張朋友圈照片也有可能被拿去換臉。有些人借著AI技術的發展,炮製了一個又一個新騙局。不明真相的我們,一不小心就會走入這「量身客製」的套路。
雖然關於AI的法制監管都在積極的推進中,但政策只是保護的一方面。另一方面還在於我們自身。擦亮眼睛、審慎思考,才是我們面對騙局的有效出路。
(本篇文章中的案例均為真實事件,化名。)
END
都看到這裏了,拜托點贊+「在看」