AI既可以换脸还可以拟声,逼真到视频聊天也看不出破绽。近日,包头警方发布一起利用AI实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生10分钟内被骗430万元。
类似案例在多个省份都有出现。骗子往往通过有偿收购等手段,获取他人音频素材等基础“物料”,利用AI技术合成声线、“活化”照片,然后“骗过”验证、登录他人社交平台并联系“好友”诈骗获利。深度合成技术正瓦解“眼见为实”的信任逻辑,一张正脸静态照片,经过“活化”处理之后,可以呈现丰富表情、生成流畅视频。同样,经处理后的声音也可呈现真人音效。
目前,人工智能的深度学习和算法越来越先进,深度合成应用呈指数级增长,滥用该技术的行为正带来肉眼可见的伦理问题。除了用AI换脸诈骗,还有人用它制作他人不雅视频、冒充明星带货等。在支付场景日益丰富的今天,人类的面部、声音、指纹、虹膜等生物信息的使用越来越广泛,隐私泄露等风险隐患也随之增多。恰如那句网络流行语:你永远不知道网络的对面是一个人还是一条狗。如果不对此类技术加以限制,AI技术不仅容易威胁到人身财产安全、伤害个人尊严和隐私,还可能构成更大社会危害。
英国科幻剧《黑镜》通过若干小故事带领观众思考未来数字化生存的挑战。要防止坠入技术滥用的深渊,当然需要公众提升防护意识、避免网络“踩坑”,不过在技术优势面前,个人自我防护效果毕竟有限,因而更需要相关部门和企业积极引导技术向善,完善风险治理体系。
面对有可能击穿安全底线的技术风险,有必要出台法律明确监管框架,给AI技术套上缰绳。当前,AI合成技术还属新生事物,立法和监管应当紧跟实际甚至具备一定前瞻性。相关平台要加大力度研发防骗反诈监测系统和应急软件,同时基于自身大数据能力和安全防护能力,对侵权行为及时采取删除、屏蔽、终止交易和服务等必要措施,以科技防骗杜绝科技诈骗。