福利姬系 AI音频成骗取神器!讼师傅亲险被骗走21万,3秒原声即可克隆声息

樱井莉亚主演的电影

樱井莉亚主演的电影

  • 首页
  • xiao77图片
  • xiao77小说
  • sex8.cc
  • www.sex8.cc
  • 春暖花开sex8
  • 你的位置:樱井莉亚主演的电影 > 春暖花开sex8 > 福利姬系 AI音频成骗取神器!讼师傅亲险被骗走21万,3秒原声即可克隆声息

    福利姬系 AI音频成骗取神器!讼师傅亲险被骗走21万,3秒原声即可克隆声息

    发布日期:2024-10-13 13:31    点击次数:74

    福利姬系 AI音频成骗取神器!讼师傅亲险被骗走21万,3秒原声即可克隆声息

    【新智元导读】Deepfake到底有多可怕?外洋又名讼师的父亲福利姬系,险些堕入一场巨大AI骗局。骗取者借助AI克隆其女儿的声息,伪造车祸事故威迫3万保释金。GenAI时间罪犯泛滥同期,科学家们也在寻找破魔之说念。

    AI车载斗量的期间,真假孰能差异?

    最近,外洋一位专科讼师Jay Shooster自曝,我方的父亲堕入了一场巨大的AI骗局。

    骗取者诈欺AI克隆了Shooster声息,然后给他的父亲拨去电话:您孩子因酒驾开车被捕,需3万好意思元保释出狱。

    国产视频在线看385

    险些,这位父亲被AI欺骗。

    图片

    我不细目这事发生在我的声息出咫尺电视上只是几天后是否只是恰好。短短15秒的声息,就足以制作一个可以的AI克隆。

    手脚又名销耗者保护讼师,我也曾就这种骗取作念过演讲,在网上发过帖子,也和家东说念主指摘过,但他们如故差点上圈套。这些骗取之是以如斯灵验,就是这个原因。

    不巧的是,Shooster近一次在电视中露脸的15秒视频,恰被骗取者钻了空子。

    而且,即就是在Shooster曾领导过家东说念主此类骗取情况下,他的父亲依旧被诱惑了。

    只可说AI模拟东说念主类的声息,还是强到令东说念主发指。

    另有伦敦大学学院一项议论佐证,岂论任何语种,东说念主们在27%情况下,齐无法识别AI生成的声息。

    而且,反复凝听,也并不成升迁检测率。

    这意味着,表面上,每四个东说念主当中就有一东说念主可能被AI电话骗取,因为东说念主类的直观并不老是那么可靠。

    岂论是图像、视频、声息,凭借AI生成时间,任何一个东说念主齐能纰漏伪造,Deepfake还是深深影响每个东说念主的生涯。

    AI时间罪犯进程,现如今到了咱们无法想象的地步。

    AI声息克隆,3秒原声足矣

    Shooster的共享宅心,告诉大家这种骗取技巧之是以灵验,部分原因在于——

    东说念主类无法可靠地识别出AI的声息。

    IBM一项实验中,安全内行展示了若何结束「音频劫抓」的一幕。

    他们设备一种形状,将语音识别、文本生成、声息克隆时间磨灭,去检测对话中的触发词「银行账户」,然后将底本账户替换成我方的账号。

    议论东说念主员称,替换一小段翰墨,比AI克隆语音对话要愈加容易,而且还能推广到更多的鸿沟。

    图片

    而关于弥散好的语音克隆时间,只有3秒原声就弥散了。

    另外,文本和音频生成中的任何蔓延,齐可以通过桥接句来弥补,或有弥散处治才能情况再放手。

    对此,议论东说念主员陶冶,过去袭击还可能会主宰及时视频通话。

    而这种时间也不单是被滥用在欺骗,配音演员Amelia Tyler称,AI克隆的声息在未经我方允许下,被用来诵读不宜儿童的内容。

    Deepfake车载斗量

    AI克隆声息以外,还有AI换脸视频、AI演叨图像生成,这么案例早已数见不鲜。

    前段时期,韩国国内掀翻「N号房2.0」事件,Deepfake被用到了未成年东说念主身上,激励东说念主们巨大的急躁。

    甚而,全网一度开启了「Deepfake到底有多可怕」的热议话题。

    图片

    图像生成Midjourney、Flux,视频生成Gen-3、声息生成NotebookLM等等,齐成为潜在的作案用具。

    前年,Midjourney生成的穿羽绒服走在大街上的教皇,许多东说念主信以为真,豪恣转发。

    而到了本年,AI图像王者Flux出世,各式TED演讲者的传神像片,再配上AI视频用具动起来,险些骗过了悉数东说念主。

    image.png

    而在AI视频及时换脸上,本年外洋网友们还是设备出许多开源用具了。

    比如,Facecam仅需添加一张图,就可以立即生成及时视频,而且一部手机即可操作。

    图片

    名堂作家展示了,我方若何轻减弱松无缝换脸到Sam Altman、马斯克,脸上悉数器官根蒂无死角。

    还有整夜爆火的AI换脸名堂Deep-Live-Cam福利姬系,一样亦然只有一张像片,平直换脸马斯克开直播了。

    而这两天炒的比较热的AI声息生成,当属谷歌NotebookLM了。它偶然飞速把翰墨内容,生成播客视频。

    就连AI大佬Karpathy如获至珍地试玩,并力荐称有可能会迎来它的ChatGPT时刻。

    图片

    不外,外洋一位扫雷游戏内行,在听了AI将我方书生成播客声息,却惊呼我方被吓到了。

    而且,更令东说念主惊悚的是,两位NotebookLM播客「主抓东说念主」发现,我方是AI而不是东说念主类,还堕入了存在方针崩溃的旯旮。

    如若这么强劲的AI,被应用到现实骗取中,只会带来更严重的后果。

    「邪不压正,说念高一丈」

    在DeepFake从容酿成「恶龙」的同期,议论界也在积极研发「屠龙」用具。

    要么从源泉为GenAI生成的内容添加水印,或者对实在内容栽培护栏以驻扎滥用,要么发展出能检测自动生成内容的系统。

    不久前,中科院一位工程师曾开源了偶然识别伪造图像的AI模子,去对抗DeepFake。

    图片

    刚一发布,这个名堂便登上了Hacker News热榜,其受宽宥进程可见一斑。

    图片

    咫尺,完竣的代码和文档还是发布在了GitHub仓库上。

    图片

    设备者暗示,我方从2023年毕业后就一直在从事DeepFake检测算法方面的议论职责,让悉数有需要的东说念主齐可以免费使用模子来对抗deepfake。

    此外,还有许多业界科学家们,在这条路上作念出了诸多孝敬。

    Antifake

    在2023年11月丹麦哥本哈根举行的ACM研究机与通讯安全会议上,好意思国圣路易斯华盛顿大学的博士生Zhiyuan Yu展示了他和Ning Zhang教师互助设备的AntiFake。

    通过一种蜕变性的水印时间,AntiFake可以提供创造性的形状,保护东说念主们免受深度伪造声息的骗取。

    图片

    论文地址:https://dl.acm.org/doi/pdf/10.1145/3576915.3623209

    创建DeepFake语音只需要实在的音频或视频中有东说念主话语。时常,AI模子只需要粗陋30秒的语音,就能通过创建「镶嵌」(embedding)学会效法某东说念主的声息。

    这些embedding向量就像是在悉数声息的巨大数字舆图中指向话语者身份的地址,听起来相似的声息在这个舆图中的位置更接近。

    诚然,东说念主类并不是用这种「舆图」来识别声息的,而是通过频率。咱们更柔和某些频率的声波,而对其他频率的柔和较少,而AI模子则诈欺悉数这些频率来创建精良的镶嵌。

    AntiFake通过在东说念主们不太柔和的频率上添加一些杂音来保护语音灌音,这么东说念主类听众如故能听懂,但会严重喧阗AI。

    图片

    最终,AntiFake会让AI创建出低质料的镶嵌,绝顶于一个指向舆图造作部分的地址,这么生成的任何DeepFake齐无法效法原始声息。

    为了测试AntiFake,Yu的团队上演「骗取者」的变装,使用5种不同的AI模子生成了6万个语音文献,并为其中600个片断添加了AntiFake保护。

    闭幕漫现,添加保护后,跨越95%的样本无法再欺骗东说念主类或语音认证系统。

    原始音频,新智元,3秒

    得手的Deepfake,新智元,1秒

    经AntiFake保护的音频,新智元,2秒

    失败的Deepfake,新智元,1秒

    值得一提的是,AntiFake的生息版块DeFake,还在本年4月初好意思国联邦营业委员会举办的语音克隆挑战赛中取得了一等奖。

    图片

    SafeEar

    无特有偶,浙江大学智能系统安全实验室(USSLAB)与清华大学也议论了一种内容隐秘保护的语音伪造检测形状——SafeEar。

    图片

    名堂主页:https://safeearweb.github.io/Project/

    SafeEar的中枢想路是,瞎想基于神经音频编解码器(Neural Audio Codec)的解耦模子,该模子偶然将语音的声学信息与语义信息分离,而况仅诈欺声学信息进行伪造检测,从而结束了内容隐秘保护的语音伪造检测。

    图片

    闭幕披露,该框架针对各种音频伪造时间展现精良的检测才能与泛化才能,检测等造作率(EER)可低至2.02%,与基于完竣语音问息进行伪造检测的SOTA性能接近。

    同期,实验还讲授袭击者无法基于该声学信息归附语音内容,基于东说念主耳与机器识别形状的单词造作率(WER)均高于93.93%。

    图片

    图片

    具体来说,SafeEar收受一种串行检测器结构,对输入语音获取研究突破声学特征,进而输入后端检测器。

    图片

    虚线方框内的④Real-world Augmentation仅在检修时出现,推理阶段仅有①②③模块

    1. 基于神经音频编解码器的前端解耦模子(Frontend Codec-based Decoupling Model, Frontend CDM)

    模子包括编码器(Encoder)、多层残差向量量化器(Residual Vector Quantizers, RVQs)、解码器(Decoder)、辩认器(Discriminator)四个中枢部分。

    其中,RVQs主要包括级联的八层量化器,在第一层量化器中以Hubert特征手脚监督信号分离语义特征,后续各层量化器输出特征累加即为声学特征。

    图片

    2. 瓶颈层和浑浊层(Bottleneck & Shuffle)

    瓶颈层被用于特征降维表征和正则化处治。

    浑浊层对声学特征进行固定时期窗范围内的随即打乱重置,从而升迁特征复杂度,确保内容窃取袭击者即便借助SOTA的语音识别(ASR)模子,也无法从声学特征中强行索要出语义信息。

    最终,经过解缠和浑浊双重保护的音频可以灵验招架东说念主耳或者模子两方面的坏心语音内容窃取。

    图片

    3. 伪造检测器(Deepfake Detector)

    SafeEar框架的伪造音频检测后端瞎想了一种仅基于声学输入的Transformer-based分类器,收受正弦、余弦函数瓜代款式对语音问号在时域和频域上进行位置编码。

    图片

    4. 实在环境增强(Real-world Augment)

    鉴于现实宇宙的信说念各样性,收受具有代表性的音频编解码器(如G.711、G.722、gsm、vorbis、ogg)进行数据增强,模拟现实环境中带宽、码率的各样性,以执行到不可见通讯场景。

    效果如下:

    中语-原始音频,新智元,6秒

    中语-SafeEar保护后的音频,新智元,6秒

    英语-原始音频,新智元,2秒

    英语-SafeEar保护后的音频,新智元,2秒

    不外,即使有了许多的弘扬和服从,凝视DeepFake依旧是一项相等具有挑战性的任务,东说念主们需要悉数可能的匡助来保护他们在网上的身份和信息免受侵害。

    窥察用AI侦破尘封悬案

    除了用「魔法」对抗「模子」以外,英国的一个窥察局最近也在测试一套能极大诽谤侦查时期,并匡助破解陈年旧案的AI系统。

    具体来说,这个名为「Soze」的用具,可以同期分析视频片断、金融往复、酬酢媒体、电子邮件和其他文档,从而识别在东说念主工搜索笔据经由中可能未被发现的潜在陈迹。

    评估披露,它偶然在短短30小时内分析完27起复杂案件的笔据材料,比拟之下,东说念主类需要长达81年的时期才能完成这项职责。

    彰着,这关于在东说念主员和预算适度方面可能衣衫破烂的王法部门来说诱惑力巨大。

    对此,英国国度窥察局长委员会主席Gavin Stephens暗示:「你可能有一个看起来不可能完成的悬案审查,因为材料太多了,但你可以把它输入这么的系统,系统可以汲取它,然后给你一个评估。我合计这会相等相等有匡助。」

    咱们生涯在了一个Deepfake泛滥的宇宙,或者说,是一个「矩阵模拟」的宇宙。

    在这个宇宙中,莫得实在,一切全是AI。

    参考而已:

    https://the-decoder.com/scammers-use-15-second-clip-to-create-ai-voice-clone-nearly-dupe-lawyers-father-out-of-30000/

    https://www.snexplores.org/article/ai-deepfake-voice-scams-audio-tool

    https://safeearweb.github.io/Project/

    https://futurism.com/the-byte/police-department-ai-powered-detective-unsolved-crimes

    (举报)福利姬系



    栏目分类