最近,#广州地铁#登上热搜。起因竟是一女子在地铁上的裸体照片被疯传,事实上,这张裸体照并非真实照片,而是被AI技术一键脱衣生成的……
红星新闻
,赞 34
记者发现,网络上仍存在不少非法网站提供“一键脱衣”的AI技术,并且这些技术主要针对女性。
记者注意到,这名女网友是一名穿搭博主。2022年7月8日,她在社交平台发布了一组在地铁列车上拍摄的穿搭照片。
不过,近日有人将该照片上人物的衣物去除后,在网上恶意传播,称有人在地铁上拍摄裸照。不少网友对此十分愤慨。
该照片的背景和博主上传的照片背景一致,头像也一致,唯一不同的是博主原本穿的衣服却不见了。
记者注意到,已有不少网友涌入该博主照片的评论区,称有人恶意使用这张照片P图并传黄谣。该女网友在评论区回应,“会进行相关的维权处理。”
值得欣慰的是,在这则图文分享的评论区,已经有众多网友评论提醒博主被造谣的事实,催促其尽快报警,也有人热心地帮助其辟谣澄清。
展开全文
AI“一键脱衣”技术让不少网友感到气愤,有网友在评论区十分担忧地表示:“AI犯罪要来了吗?”
记者在网上查询发现,尽管“AI一键脱衣”相关软件早已被封禁,但在网络上并不难找出替代品。
非法网站公然宣告提供“脱衣服”功能
有些非法在线网站甚至公然介绍,该网站可以“使用AI算法的强大功能为照片脱衣服”,并提供“免费下载,免费试用”的功能。
更为恶劣的是,即使上传的是男性的照片,这些网站仍会将照片上的人物P上女性的裸体。
有博主发视频表示,在现今AI强大的算法下,时间、地点都对得上的情况下,伪造的谣言让普通人百口莫辩。
AI换脸换装,或涉嫌刑事犯罪
近年来,“AI换脸”走红网络,一些“AI换脸”的App使用明星的图片制作换脸视频进行推广,其趣味性背后暗藏不少法律风险和侵权纠纷。
明星刘昊然就曾在2021年8月26日发博打假,控诉网上流传的某淫秽视频为AI换脸技术伪造,并向警方报案。
专家表示,在《网络安全法》第二十七条的规定当中,特别强调,明知他人实施危害网络安全活动的,不能够为他提供技术支持,如果情节严重,还会构成帮助信息网络犯罪活动罪等刑事犯罪。
红星评论:
女子地铁照被AI“一键脱衣”,不能让AI打开潘多拉魔盒
技术本身是中性的,被拿来干侵权违法的事,就是一种危险的走偏,它会将所有人都置于危险境地。这次不少网友呼吁科技不该用在这上面,实际已经反映出了一种比较现实的担心。因此,对这个问题的处理绝不应该只满足于鼓励受害者维权,在社会治理角度,也应该给予更全方位的回应。
据了解,早在2019年,国外程序员就开发出了一款AI技术“脱衣”的应用。后因广泛的舆论争议,开发团队选择将该项目关闭。但现实表明,这并不代表真正终结了该技术的应用。时至今日,在网站搜索“AI去衣软件”,仍会出现“替代品”。显然,这样一个可以随时被用于侵权作恶的应用软件,能如此轻易地被获取,无异于是对相关侵权行为的直接纵容。它们到底是否应该继续存在,相关平台是否应该加以限制乃至予以彻底屏蔽,监管部门和平台是时候作出更明确的决断了。
其实,从为AI技术营造健康的发展环境的角度,也应该对借AI技术作恶的跑偏行为进行更具针对性的预防和规制。要知道,若AI“一键脱衣”这样的违法操作能够轻而易举做到,不仅对所有人的权益保障构成了一种风险隐患,也不可避免地影响到社会对AI技术本身的认同,继而很可能误伤一些正常的AI应用。对此,不仅监管部门要强化对相关违法行为的打击力度,整个AI行业也应该主动趋利避害,对那些违背科技伦理底线的行为坚决说不,在技术规制和伦理规则等方面都构建起更牢固的篱笆,防止打开“潘多拉魔盒”。
此外,借AI“换脸”“脱衣”等违法操作的频频发生,也在提醒AI时代的每个人,应该进一步提高辨假的意识和识假的能力。比如,“有图有真相”的说法就不应该再被奉为“真理”。尤其是当一些涉及个人权益风险的图片和视频出现后,理应提高警惕并谨慎传播,避免给违法行为推波助澜。
当然,仅就AI“一键脱衣”这类操作而言,对它的治理其实可以纳入打击网络谣言的行动中去。类似前段时间被曝光过的多起造黄谣事件,利用AI“一键脱衣”在本质上其实就是对受害者的“造黄谣”,只不过借助了一种智能化手段。它的出现,实际给网络谣言的治理提出了新的、更高的要求。比如,受害者如何维权,相关证据如何确定等等,都还需要在法律机制上给出更明确的回应。
红星新闻特约评论员 朱昌俊
红星视频(记者:张桂芳、张馨月)、极目新闻、新闻晨报、央视网、网友评论
顾客被理发师杀害,警方:嫌疑人已被控制!
河北一废弃冷库发生火灾,致11人死亡!
高管涉嫌性侵被查?蚂蚁集团回应