当前位置: 欣欣网 > 资讯

315曝光的AI诈骗,到底该如何避坑?

2024-03-15资讯

作者:赵甜怡

编辑:曾宪天

当人们把2023年看作是AI元年时,2024年的目光自然地聚集在了AI应用的落地上。然而,在商业化之前,AI已经变成了某些灰色产业的敛财工具。

莫名其妙的电话、热情的异国美女、谣言、诈骗……在你无意识的时候,AI骗局就已经来到你身边。PConline收集整理了四大AI新骗局,来看看你最「眼熟」哪一个?

常见范围:微信、电话

目标人群:覆盖所有,其中家长居多

面对陌生的号码你可能会直接挂掉,但是如果是家人打来的「求救电话」呢?

根据中国新闻网的报道,去年11月,王欣的母亲突然接到一通「王欣」打来的电话,声称自己被绑架,让母亲转账30万元,否则「后果自负!」着急的王欣母亲立马就打算给对方转钱,被同事拦了下来。同事建议先给王欣打电话,确认情况。结果,真实的王欣正在睡午觉,啥事也没。而那通「求救电话」就是骗子利用王欣的AI克隆声音制作的。

近几年,AI语音合成技术有了显著的发展,一些C端的应用也逐渐成熟。像Voice AI、剪映等应用中都提供生成AI克隆音色的功能。只要念两个例句,人人都能轻松生成自己的AI音色。不仅如此,现在的技术已经可以在保证声音的高保真度的同时,模拟你的音色,甚至细致到你说话时的口音、重音、换气的节奏等等,完全可以满足实时的互动需求。

先前在网络上爆火的「AI孙燕姿」就曾引得一众讨论。Up主用孙燕姿的AI克隆音色翻唱【发如雪】【Melody】等众多知名歌曲。该视频合集获得了2000多万的播放量。网友们都在惊叹,AI甚至会改变原曲中的部分旋律,依照孙燕姿的曲风特点进行调整,几乎能做到以假乱真的水平。同时,网友们也都开始担心,技术一旦被滥用,防诈骗的成本就更高了。

这样的担心不无道理。据网友分享,自己曾接到过一通莫名其妙的电话。一接通,对方就问「你家在哪」。一头雾水的网友回答「不知道」,径直挂断了电话。然而就在几天后,网友的家人就接到了「网友」的求救电话——骗子仅凭一句话就能生成网友的AI克隆声音,实施诈骗。

如果你认为,耳听为虚,眼见为实。视频信息才能确认身份,那么接下来这个骗局,将会颠覆你的想法,让你惊呼「防不胜防!」

常见范围:微信、线上会议、FaceTime

目标人群:覆盖所有,熟人关系、女性居多

如今,眼见为实的「铁律」也会面临意外的情况。 福州市的郭先生就曾因为这条「铁律」狠狠吃了亏。

「平安包头」曾公布一起案例:在去年4月份,郭先生的朋友突然打来微信视频电话,说自己在外地投标,需要430万的保证金,想借郭先生公司的账户走一下帐。这位「朋友」随即将钱打到了郭先生的账户上,并且截图让郭先生确认。虽然还未等来银行的通知信息,但郭先生还是先把钱转了过去。结果,跟他视频的,是用AI换了脸的骗子,佯装成郭先生的朋友来骗钱。

郭先生报警后,还专门表示:「我在视频中确认了面孔和声音,才放松了戒备。」

其实,「眼见为虚」的换脸技术我们早就见过。这种技术名叫Deepfake深度伪造,是一种将图片/视频合并叠加到源图片/视频上,生成虚假的个人表情、动作的AI技术。在2023年上映的【流浪地球2】中,就是利用这个技术,将62岁的刘德华还原到我们印象中年轻的华仔模样。

据【流浪地球2】的视觉特效徐建的分享,在电影中,Deepfake的技术方案是用要替换的目标演员的海量素材训练AI替换拍摄素材的一种方式,相对省时省力省钱。在好莱坞电影制作中,这样的操作很常见。漫威的年轻版钢铁侠和年轻版黑豹都是基于Deepfake和演员年轻时的2D素材训练AI得出的。

但先进的技术往往是一把双刃剑。落到居心叵测的人手里,就变成了伤人的利刃。

前不久,数百万网友在推特上看到了由AI生成的美国著名女歌手Taylor Swift的不雅照。这一组在推特上被查看了4700万次的照片,就是由Deepfake生成的。影响之恶劣,以至于推特直接禁止搜索#Taylor swift#的词条。然而,Taylor并不是第一个受害的女明星。打开某些成人网站,甚至会有专门的「名人明星」分类,里面充斥着各种AI换脸的女明星。

根据专注于检测Deepfake的情报公司Sensity AI的一份报告,目前网上超过 96%的Deepfake图像都具有色情性质,而且几乎所有图像都针对女性。

发布在社交媒体上的照片,可能被别有用心的人拿来「喂」AI。普通人也随时面临着被「开盒」(指网络上公开曝光他人隐私的行为)的风险。根据奇安信集团发布的【2024人工智能安全报告】,「2023年基于AI的深度伪造(Deepfake)欺诈暴增了3000%」。

利用换脸技术来招摇诈骗固然可怕,然而更深的套路是「攻心计」。

常见范围:视频号、抖音、小红书等社交媒体平台

目标人群:覆盖所有,其中男性居多

一个俄罗斯大美女向你发来视频,说想嫁到中国,你会支持她吗?相信90%的人都会表示支持。

外国人的面孔、些许生硬的中文,再配上浓厚的滤镜,就组成了庞大的异国美女队伍。这些「小姐姐」来自全球各地(近两年以俄罗斯居多),#中俄友谊#是她们一定会带的视频标签词。在她们发布的视频中,首当其冲的主题就是「想要嫁到中国」。

在这一主题下,「小姐姐们」的视频叙事采取了丰富多样的角度:

「虽然我是xx国人,但中国是我的家。」

「朋友家人都不理解,但我知道我迟早是中国媳妇。」

「你愿意娶一个不要彩礼的俄罗斯女生吗?」

……

如果你对美女这个赛道不感兴趣,也没关系。还有认知思维赛道、军事赛道、时事评论赛道等等,各式各样的「外国人」都任你选择。

这就是AI的新套路。视频全部都是由AI合成的假人,再配上机器语音,打着「促进国际友谊」的旗号,出售商品。这些「外国人」谈论着中国社会的方方面面,评论区收获了许多真心实意的支持。不少粉丝评论留言:「你比中国人还了解中国!」「为你的中文点赞!」

即使视频中,「外国友人」把「了(liǎo)解」念成了「le」解,仍能收获10万+的点赞,橱窗中19.9元的杂粮粥仍能卖出30万的惊人销量。

在这背后操刀的是自媒体团队。他们的商业思路十分清晰:先通过视频来积累粉丝——到达一定粉丝量后,开橱窗带货——实现变现。由于制作成本低,在起号阶段,一人往往能运营数十个账号,视频的脚本也是通用的。无所谓单个账号是否有爆款,「广撒网,多敛鱼」,商品销量才是最终目的。

即使常有文案「撞车」的情况发生,这类视频还是吸引了大量来自三四线城市的中老年粉丝群体,纷纷为了「国际友谊」下单。

如果你认为,这是对下沉市场的招数,你绝不会上当。那么下一个骗局,就是专门针对年轻群体的AI套路。

常见范围:微博、抖音、小红书等社交媒体平台

目标人群:积极学习的年轻群体

「现在不学AI,第一波失业的就是你!」「AI工作年薪200万,入门方法免费教你!」「AI是普通人逆袭的最后机会!」你一定没少看到这样的标语。

从2022年底,OpenAI发布ChatGPT开始,学习AI就成了新风潮。随着科技巨头们不断推陈出新,各行各业的内容创作者们也铆足了劲,在自己的账号、社群中发布越来越多的AI课程——「零基础学AI」「AI绘画教程」,甚至还有「教你如何做AI课程」的课程。

但大水漫灌的结果,必然是泥沙俱下。

不少年轻粉丝奔着学习新知识去,却领了「吃一堑,不长智」的教训。许多内容创作者利用信息差,将国外免费开放的官方AI教学翻译过来,就成了自己的课件,美美卖课。像许多「零基础AI」课程中常见的「prompt使用技巧」,其实是来自OpenAI官网发布的教学内容。这些标价199、299元的课程还赠送了「免费AI体验」。但实际上,是本就免费开放的大模型,再加上一个套壳包装罢了。

一些粗制滥造的AI课程丝毫不影响这个市场的火热程度。不少焦虑的年轻人仍在直播间疯狂下单。在抖音,一个4万粉丝的博主,近800元的AI录播课竟有2000+人学习,这意味着,单课程销售额至少160万元。

这些授课人就是通过传播焦虑的方式来促进课件的下单量。一不小心你就会成为「韭菜园里最靓的一棵」。

上面四种AI骗局,你被哪个绊住了脚?

其实,现在互联网上的AI骗局远不止这些。网络安全公司Fortinet发布的【2024全球安全威胁预测】中提到,AI已经成为「头号关注」。假视频被频繁用于传播谣言,一张朋友圈照片也有可能被拿去换脸。有些人借着AI技术的发展,炮制了一个又一个新骗局。不明真相的我们,一不小心就会走入这「量身定制」的套路。

虽然关于AI的法制监管都在积极的推进中,但政策只是保护的一方面。另一方面还在于我们自身。擦亮眼睛、审慎思考,才是我们面对骗局的有效出路。

(本篇文章中的案例均为真实事件,化名。)

END

都看到这里了,拜托点赞+「在看」