本帖最后由 氼乚 于 2023-5-30 08:56 编辑
AI换脸被骗引发的一些思考
近日,一则10分钟被AI骗走430万元的新闻刷屏。据警方通报,受害人郭先生遇到的就是上述情形,骗子通过AI换脸技术,佯装成好友对他实施了诈骗。由于郭先生通过视频确认了对方的面孔和声音,便毫无怀疑地把430万元分两笔转账过去,最终上当受骗。庆幸的是,在福州和包头警方的联动下,郭先生追回了被骗的资金336万元。 AI换脸,是指通过AI人工智能技术,把别人的脸换成自己的脸。AI换脸技术在初期多用于各种娱乐场景,比如歌迷把自己的脸换成歌星的脸,借此“过把歌星瘾”。不过,随着AI换脸技术的迭代更替,换脸效果愈发逼真,一些“空手套白狼”的不法之徒也看到了敛财商机,致使AI换脸技术沦为诈骗的道具。 相比于普通的诈骗手法,借助AI换脸技术实施的诈骗伎俩,具有非接触性、能精准锁定受害对象等特点,隐蔽性强,也最容易得逞。同时,AI换脸技术运用简单,可复制性强,违法成本低,更是给受害者识别真假带来了难度,令人防不胜防。因此,如何不让AI换脸技术沦为诈骗犯罪的道具,需要创新治理手段。 首先个人应该多重验证,确认身份。AI换脸难以肉眼区分,因此在确认涉及钱款时,尽量通过电话询问具体信息,确认对方是否为本人。尽量使用银行汇款,避免通过社交软件转账,同时将到账时间设置为“24小时到账”,以预留处理时间。其次,保护信息,避免诱惑。加强个人信息保护意识,对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。更为重要的是,要为AI换脸技术划定红线,明确研发、应用、监管等各方的权利、义务。一是有必要设定准入门槛,禁止不符合资质者随意使用该技术。二是明确合法、正当、必要原则,非经消费者同意或非必要不得采集“人脸信息”,无论将该技术用于任何场所,都应取得消费者明确同意。特别是,对随意使用该技术实施违法犯罪活动的,势必从严惩处,甚至有必要追究其刑事责任。 因此,非常有必要严格管控AI换脸技术。而有了制度还需要具体的执行。有关部门要提高公众对AI换脸技术的认知,除了显著标识之外,更要让他们了解到技术可能带来的风险,让公众一起参与到对技术的治理中。互联网服务提供者也必须明白自己的义务,对涉及用户隐私的信息必须做到充分保护,任何一个产品功能和营销手段都不能凌驾于安全底线之上。
|