“妈,给我转1.5万元吧。”一位母亲正和女儿视频聊天,听着在外地上学的女儿在视频里撒娇抱怨“生活费不够用了”,她心疼不已打算立刻给孩子转账。就在这时,家门打开了,她的“真女儿”走了进来。而另一头,视频里的“假女儿”还在央求妈妈“给生活费”。
这是一则AI反诈视频。在这条反诈视频评论区中,不少网友反映自己也有过类似的被骗经历,“骗子来电,声音容貌和我家人一模一样”。

随着AI技术发展,AI换脸图片和视频成为热门现象,娱乐之余,让人真假莫辨,风险与困扰也不少。一张“人像照片”、一段近距离的人物视频,都有可能成为不法分子犯罪的新手段和新工具:有人用“AI换脸”软件冒充名人,骗观众打赏或购买产品;有人将他人照片合成淫秽影像,用到色情行业;有人用AI制造假新闻进行传播……
运用先进的AI技术制作换脸视频或仿真声音进行违法活动,确实容易让人上当受骗,这不仅对个人隐私保护提出了新的挑战,更凸显了相关法规和反制技术的重要性。

网络安全专家提示,AI换脸等违法行为的最关键原因是个人隐私信息的泄露。因此,在日常上网过程中,要尽量避免人脸、指纹等个人生物信息的过度公开和分享。如果接到“家人”“领导”等转账、汇款的视频,一定要仔细甄别真伪。如在视频通话中,要注意观察对方视频当中的面部轮廓、光线背景这样的细节,看看是否有异常。有必要可要求对方做快速地抬头、点头、转头的动作,进一步判断视频是否有异常的细节,来确认视频的真实性。
同时,可以通过人工智能检测技术来识别视频是否有伪造的内容。另外也可以结合身份认证、数字水印的手段来加大伪造难度。从管理方面,需要加快相关法律法规以及监管措施的制定和落实,来规范AI应用的使用方式和应用场景。