爱宠屋0379 发表于 2025-3-6 10:06

靳东建议AI换脸立 法

在昨天的政 协小组讨论上,全 国 政 协 委 员靳东回应了AI换脸导致的诈骗问题。他说:“一些喜欢我影视剧的观众,被AI换脸视频骗得很惨,这个性质非常恶劣。希望能建立更好的规 则。”




AI诈骗正在全 国呈现爆发趋势,手段多样且危害巨大,以下是相关情况:


常见诈骗手段


• AI换脸诈骗:不法分子分析网上信息筛选目标人群,利用AI技术进行换脸,伪装成受害人亲朋好友通过视频方式骗取信任,诱导转账。如福州郭先生被好友通过AI换脸的微信视频骗走430万元。


• 声音合成诈骗:通过骚扰电话录音等非法获取声音素材,进行声音合成,利用伪造声音行骗。例如诈骗团伙克隆留 学生声音向其家长诈骗。


• 伪造客服电话诈骗:用AI技术合成客 服电话,拨打大量电话诱导受害者充值或进行其他操作。


典型案例


• 冒充公司代表诈骗员工:湖南常德李某收到名字和头像与公司代表曾某一致的微信好友申请,经8秒视频通话后,“代表”以开会为由指示李某转账4.8万元,李某转账后发现遭遇AI诈骗。


• 名人“被带货”:部分商家通过AI换脸、合成人声等技术手段,将张文宏的面容与声音移花接木用于直播带货;还有人用AI合成北 京大学国 家发展研究院教授李玲的视频推荐书籍。


防范措施


• 谨慎提供个人信息:不轻易提供人脸、指纹等个人生物信息,不透露身份证、银行卡等重要信息。


• 仔细甄别通讯信息:视频通话时仔细观察对方脸部表情是否自然、光线是否正常,要求对方做一些动作辅助判断;语音通话留意语气,过于平静无熟悉口音要警惕。


• 多渠道核实身份:收到涉及利益的照片或视频,通过电话或视频通话与对方求证;遇到可疑情况多与身边人商量。

走进大自然 发表于 2025-3-6 15:31

该立法,不然老爱转眼成了千年前的罗马角斗士了,很容易让涉世未深的虚荣女孩上当

劳力2019 发表于 2025-3-6 15:44

只是听说,没有见过。

小叶儿 发表于 2025-3-6 16:26

铺天盖地的来了,防不胜防。

快乐的老汉子 发表于 2025-3-6 16:29

嗮图的,都开始谨慎起来

锄禾11 发表于 2025-3-6 16:31

这个可以有

奔跑鐵腿 发表于 2025-3-6 20:49

身正不占小便宜,谁的亏也不吃。

虚拟世界 发表于 2025-3-7 03:02

同意支持

sootaa 发表于 2025-3-7 09:59

靳东的脸成为欺骗大妈大婶的最佳脸;P;P;P;P

爱宠屋0379 发表于 2025-3-7 10:06

奔跑鐵腿 发表于 2025-3-6 20:49
身正不占小便宜,谁的亏也不吃。

这不是占便宜的事,骗子用你孩子的脸,声音,说出了意外让你转点钱,那么很多老人肯定毫不犹豫的转账,因为毕竟那是自己的孩子,脸和声音都是,慌乱之中会还会再去辨认真假呢,特别是老年人更是无法辨别真假。
页: [1]
查看完整版本: 靳东建议AI换脸立 法