预防AI诈骗典型案例诈骗手段科普增强防范意识公益宣传_第1页
预防AI诈骗典型案例诈骗手段科普增强防范意识公益宣传_第2页
预防AI诈骗典型案例诈骗手段科普增强防范意识公益宣传_第3页
预防AI诈骗典型案例诈骗手段科普增强防范意识公益宣传_第4页
预防AI诈骗典型案例诈骗手段科普增强防范意识公益宣传_第5页
已阅读5页,还剩14页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

预防AI诈骗全民反诈·你我同行为切实保障广大群众财产安全,严厉打击电信诈骗犯罪,让我们共同提高识骗防骗能力,谨防上当受骗!AI诈骗|诈骗手段|典型案例|防范意识PreventingAIfraudYOURLOGO主讲:xx时间:20XX目录PART.01什么是AI诈骗PART.02常见诈骗手段PART.03典型诈骗案例PART.04提高安全意识PreventingAIfraudYOURLOGO什么是AI诈骗PART.01为切实保障广大群众财产安全,严厉打击电信诈骗犯罪,让我们共同提高识骗防骗能力,谨防上当受骗!全民反诈·你我同行什么是AI诈骗诈骗分子用AI技术换脸,伪装成任何人。他们会利用AI技术,将他人的脸换成指定人的脸,冒充诈骗对象的亲人、朋友等重要关系人。通过合成视频或照片来“以假乱真”,扰乱诈骗对象的视线进而实施诈骗。什么是AI诈骗“AI诈骗”是一种利用智能AI技术实施诈骗的诈骗手段。2023年5月24日,中国互联网协会公众号发文提示“AI换脸”新骗局。2023年5月24日,中国互联网协会公众号发文提示“AI换脸”新骗局。2023年以来,伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频,进行诈骗、诽谤的违法行为屡见不鲜。什么是AI诈骗针对技术手段日益更新的AI诈骗事件,2022年11月25日,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》(以下简称规定),自2023年1月10日起施行。规定要求深度合成服务提供者对使用其服务生成或编辑的信息内容,应当添加不影响使用的标识。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。要求任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。2023年4月11日,国家网信办起草了《生成式人工智能服务管理办法》(征求意见稿),提出AI内容必须真实准确,其中也明确提到,禁止非法获取、披露、利用个人信息和隐私、商业秘密。常见诈骗手段PART.02为切实保障广大群众财产安全,严厉打击电信诈骗犯罪,让我们共同提高识骗防骗能力,谨防上当受骗!全民反诈·你我同行常见诈骗手段骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。例如,某公司财务接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,该财务信以为真,在1小时内转款完成,后发现被骗。第一种是声音合成常见诈骗手段因为人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。第二种是AI换脸值得一提的是,这些骗局中,骗子不是漫无目的地全面撒网,而是根据所要实施的骗术,通过AI技术筛选受骗人群,别有用心地锁定特定对象。例如,当进行金融诈骗时,经常搜集投资信息的小伙伴就会成为他们潜在的目标。第三种是AI筛选受骗人群常见诈骗手段除了AI换脸、合成语音外,还有一些诈骗手段也可谓防不胜防,就在前不久就有骗子通过转发微信语音的方式行骗。在盗取微信号后,骗子便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),可实现语音转发。第四种是转发微信语音典型诈骗案例PART.03为切实保障广大群众财产安全,严厉打击电信诈骗犯罪,让我们共同提高识骗防骗能力,谨防上当受骗!全民反诈·你我同行典型诈骗案例网友这般跟风“创作”,虽然大多数是把马保国的头像当作“搞笑”素材,但这背后反映出AI应用走偏带来的风险隐患,值得人们严肃讨论。正如马保国本人在其个人短视频账号中所作的普法提示,网友在未经其本人允许情况下大肆使用其个人头像,已涉嫌侵犯公民肖像权。我国民法典中明确规定,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。除非是法律另有规定,未经肖像权人同意,不得制作、使用、公开肖像权人的肖像。必须看到,AI换脸应用技术的泛滥,正给我们的生活带来已知或未知的严重后果,由此引发的案件已多次发生。典型诈骗案例就在今年3月,广州一女子在地铁上乘车照片被AI“一键脱衣”,相关造谣图迅即在网络广泛传播,事实上,这张裸体照并非真实照片,原图中她衣着正常,完全没有任何不妥之处,但却被有心之人用AI软件“一键脱衣”故意全网散播,对个人已造成巨大伤害。女子地铁照被AI“一键脱衣”典型诈骗案例“AI换脸”诈骗防不胜防近日,内蒙古包头警方发布一起利用AI实施电信诈骗的典型案例。基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生在10分钟内,先后分两笔把430万元转到了对方的银行账户上。来自福建的郭先生是一家科技公司的法人代表。今年4月,他的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万元保证金,想借用郭先生公司的账户走账。事后,郭先生拨打好友电话才得知被骗,原来骗子通过AI换脸和拟声技术,佯装好友对其实施诈骗。“当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生事后说。这类案件虽与马保国所遭遇的被换脸恶搞属于不同性质,但人们必须要警惕在这种泛娱乐氛围中大家会逐渐失去对AI换脸的风险意识。如果AI换脸能够被轻松应用,这将大大降低侵权、诈骗行为的门槛,也将令所有人陷入防不胜防的悲催境地。提高安全意识PART.04为切实保障广大群众财产安全,严厉打击电信诈骗犯罪,让我们共同提高识骗防骗能力,谨防上当受骗!全民反诈·你我同行提高安全意识保护隐私信息从源头着手,不要轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;不提供可供复制模拟的信息,骗子自然无法得逞。陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等社交软件被盗号。提高安全意识陌生人的电话要时刻保持警惕,对不认识人的禁止转账。如果有人自称“熟人”通过社交软件、短信以各种理由诱导你汇款,务必要通过回拨对方手机号、见面等渠道核验对方身份,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。一旦发现风险,及时报警求助。除了常规的电话和视频,还可以在通话的过程中,加入一些只有你们两知道的人和事。像上述案例中的AI换脸,我们可以在视频的过程中,要求对方将手放在脸部,确认视频画面是否有变形。“AI换脸”诈骗防不胜防提高安全意识公检法没有安全账户,警察不会网上办案,如果有网络警察说你犯事了,让他联系你当地的派出所,也可以主动打110咨询。提高安全防范意识如不慎被骗或遇可疑情形,请注意保护证据立即拨打报

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论