Note

AI正成为“诈骗助手”!2024是AI大规模诈骗年?

· Views 202

AI诞生以后,我们经常在思考:哪些工作会被AI替代?这篇文章是ChatGPT所作吗?以后会不会AI明星……当我们还在认识AI的时候,有的诈骗分子已经将AI用到了骗局之中。本文,天网查要提醒大家警惕AI骗局。

 受骗者泰勒相信了AI生成的马斯克 

近日,加拿大多伦多CTV新闻报道了一位自闭症患儿母亲泰勒遭遇到的AI骗局。泰勒在 TikTok看到了一则投资报道称:“投资250美元,每月可赚28000美元”。当时诈骗视频里还有马斯克以及其他多位名人也在推荐这个投资项目。这使她相信了这个有“名人代言”的投资,于是就联系了投资平台。

AI正成为“诈骗助手”!2024是AI大规模诈骗年?

之后,泰勒在平台的指导下开始投资加密货币,资金从250美元逐渐追加到7250美元。当她想取出部分投资款却发现无法提现时,才意识到自己是遇到了骗局,而当时在投资报道看到的“马斯克”后来被证实是用AI技术深度伪造而成。

遭遇诈骗让泰勒非常沮丧且压力剧增,她说:“我本来是想用这笔投资来帮助我的孩子的”。

AI能做的或许已经比你我认知到的多很多:AI既能能换脸也能制造“活生生”的人,替换声音这种更是不在话下。小编在刷小视频的时候,就看到过AI制造的主播以及“掌握”多国语言的女明星,“名人”被用于诈骗视频也就不难理解了。

 多国提醒民众警惕AI生成的诈骗 

上周,《FOX Business》在一篇发文中称:“网络安全专家警告‘2024年将是AI生成大规模诈骗的一年’”。

网络安全公司 Arkose Labs 的首席执行官 Kevin Gosschalk 称,非法行为者正将AI技术渗透到社交媒体中,他们可以借用AI大量创建技术,通过AI的学习能力以趋于真实的方式与诈骗对象聊天,筛选出有较大可能落入陷阱的对象,并将他们转移给诈骗分子,让他们完成最后的诈骗工作。

马来西亚网络安全(CSM)首席执行官阿米鲁丁博士介绍说:一些常见的AI驱动诈骗技术包括深度伪造、语音克隆、电子邮件钓鱼和短信以及社交媒体操纵。深度伪造是经过处理的视频或音频录音,使其看起来或听起来像是其本人在说或做实际他们从未做过的事情。诈骗者可以使用深度伪造来冒充值得信赖的个人,例如朋友或家人,以欺骗受害者给他们金钱或个人信息。

校对:找茬

Disclaimer: The content above represents only the views of the author or guest. It does not represent any views or positions of FOLLOWME and does not mean that FOLLOWME agrees with its statement or description, nor does it constitute any investment advice. For all actions taken by visitors based on information provided by the FOLLOWME community, the community does not assume any form of liability unless otherwise expressly promised in writing.

FOLLOWME Trading Community Website: https://www.followme.com

If you like, reward to support.
avatar

Hot

No comment on record. Start new comment.