如何防范AI声音冒充亲人诈骗?
更新时间:2023-07-26 02:27:27
为你总结了以下几点:AI声音冒充亲人诈骗是一种利用AI语音生成软件来模仿目标人物的声音,然后给他们打电话,编造一些紧急情况或者借口,让他们汇钱或者做一些危险的事情的诈骗方式¹²³。
AI声音冒充亲人诈骗已经在美国和加拿大多发,老年人是主要受害者。
据报道,近日,加拿大犯罪分子利用AI技术合成亲人声音实施诈骗,3天内至少8人上当,受害者多为老年人¹²³。
美国联邦贸易委员会公布的数据显示,电信诈骗是美国最常见的诈骗形式,2022年相关涉案金额已达26亿美元,其中很多案件都借助了AI技术。
防范AI声音冒充亲人诈骗的方法有以下几个: - 不要轻信陌生电话。
如果接到一个自称是亲人或者朋友的电话,要求你汇钱或者做一些危险的事情,一定要保持警惕,不要轻易答应¹²³。
- 与对方核实身份信息。
如果对方声称是你认识的人,你可以问一些只有你们两个才知道的问题,比如生日、密码、昵称等。
如果对方回答不上来或者支支吾吾,那就有可能是骗子¹²³。
- 联系真正的亲人或者朋友。
如果对方说他们遇到了紧急情况或者困难,你可以先挂断电话,然后用其他方式联系真正的亲人或者朋友,比如微信、QQ、短信等。
如果真正的亲人或者朋友说他们没有打过电话给你,那就说明你刚才接到的是一个诈骗电话¹²³。
- 向警方报案。
如果你发现自己遭遇了AI声音冒充亲人诈骗,或者有人试图用这种方式骗你,你应该立即向警方报案,提供相关的证据和信息,帮助警方追踪和抓捕犯罪分子¹²³。
希望以上内容对你有所帮助。
请注意保护好自己的财产安全和个人信息安全,不要被骗子欺骗。