预防AI诈骗全民反诈·你我同行为切实保障广大群众财产安全,严厉打击电信诈骗犯罪,让我们共同提高识骗防骗能力,谨防上当受骗!AI诈骗|诈骗手段|典型案例|防范意识PreventingAIfraudYOURLOGO主讲:xxx时间:20XX目录PART.01什么是AI诈骗PART.02常见诈骗手段PART.03典型诈骗案例PART.04提高安全意识PreventingAIfraudYOURLOGO什么是AI诈骗PART.01为切实保障广大群众财产安全,严厉打击电信诈骗犯罪,让我们共同提高识骗防骗能力,谨防上当受骗!全民反诈·你我同行什么是AI诈骗诈骗分子用AI技术换脸,伪装成任何人。他们会利用AI技术,将他人的脸换成指定人的脸,冒充诈骗对象的亲人、朋友等重要关系人。通过合成视频或照片来“以假乱真”,扰乱诈骗对象的视线进而实施诈骗。什么是AI诈骗“AI诈骗”是一种利用智能AI技术实施诈骗的诈骗手段。2023年5月24日,中国互联网协会公众号发文提示“AI换脸”新骗局。2023年5月24日,中国互联网协会公众号发文提示“AI换脸”新骗局。2023年以来,伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频,进行诈骗、诽谤的违法行为屡见不鲜。什么是AI诈骗针对技术手段日益更新的AI诈骗事件,2022年11月25日,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》(以下简称规定),自2023年1月10日起施行。规定要求深度合成服务提供者对使用其服务生成或编辑的信息内容,应当添加不影响使用的标识。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。要求任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。2023年4月11日,国家网信办起草了《生成式人工智能服务管理办法》(征求意见稿),提出AI内容必须真实准确,其中也明确提到,禁止非法获取、披露、利用个人信息和隐私、商业秘密。常见诈骗手段PART.02为切实保障广大群众财产安全,严厉打击电信诈骗犯罪,让我们共同提高识骗防骗能力,谨防上当受骗!全民反诈·你我同行常见诈骗手段骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。例如,某公司财务接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,该财务信以为真,在1小时内转款完成,后发现被骗。第一种是声音合成常见诈骗手段因为人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。第二种是AI换脸值得一提的是,这些骗局中,骗子不是漫无目的地全面撒网,而是根据所要实施的骗术,通过AI技术筛选受骗人群,别有用心地锁定特定对象。例如,当进行金融诈骗时,经常搜集投资信息的小伙伴就会成为他们潜在的目标。第三种是AI筛选受骗人群常见诈骗手段除了AI换脸、合成语音外,还有一些诈骗手段也可谓防不胜防,就在前不久就有骗子通过转发微信语音的方式行骗。在盗取微信号后,骗子便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),可实现语音转发。第四种是转发微信语音典型诈骗案例PART.03为切实保障广大群众财产安全,严厉打击电信诈骗犯罪,让我们共同提高识骗防骗能力,谨防上当受骗!全民反诈·你我同行典型诈骗案例网友这般跟风“创作”,虽然大多数是把马保国的头像当作“搞笑”素材,但这背后反映出AI应用走偏带来的风险隐患,值得人们严肃讨论。正如马保国本人在其个人短视频账号中所作的普法提示,网友在未经其本人允许情况下大肆使用其个人头像,已涉嫌侵犯公民肖像权。我国民法典中明确规定,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。除非是法律另有规定,未经肖像权人同意,不得制作、使用、公开肖像权人的肖像。必须看到,AI换脸应用技术的泛滥,正给我们的生活带来已知或未知的严重后果,由此引发的案件已多次发生...