昨日,公安部网安局发文提醒用户,应该注意防范利用AI人工智能等新型手段诈骗。
公安部网安局称,AI诈骗常用手法包括了,合成声音、AI换脸等方式。
合成声音案例中,骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。而AI换脸中,骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。
对此,公安部网安局提醒用户,面对AI诈骗应该在涉及钱款时,尽量通过电话询问具体信息,确认对方是否为本人。同时,加强个人信息保护意识,对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。
此外,做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。
文章来源于网络,如有侵权请联系删除。