女人体摄影(女子地铁内“裸照”被疯传?网友怒了)

更新时间:2023-05-06 15:21:43 来源:互联网 作者:网友网民

近日,

一位女网友在网上晒出

自己在地铁列车的照片

被别有用心的网友下载,

并用AI技术“一键脱衣”,

且将“除衣”后的照片

广泛传播。

女子地铁内“裸照”被疯传?网友怒了!

女网友表示将维权处理


记者发现,网络上仍存在不少非法网站提供“一键脱衣”的AI技术,并且这些技术主要针对女性。


记者注意到,这名女网友是一名穿搭博主。2022年7月8日,她在社交平台发布了一组在地铁列车上拍摄的穿搭照片。


不过,近日有人将该照片上人物的衣物去除后,在网上恶意传播,称有人在地铁上拍摄裸照。不少网友对此十分愤慨。


该照片的背景和博主上传的照片背景一致,头像也一致,唯一不同的是博主原本穿的衣服却不见了。


记者注意到,已有不少网友涌入该博主照片的评论区,称有人恶意使用这张照片P图并传黄谣。


AI“一键脱衣”技术让不少网友感到气愤,有网友在评论区十分担忧地表示:“AI犯罪要来了吗?”


死灰复燃的AI脱衣

伪造谣言百口莫辩


早在2019年,国外程序员就开发出了DeepNude这款使用AI技术“脱衣”的应用,通过使用类似deepfakes的深度学习技术,DeepNude使用女性裸照训练之后可将图像中女性身上的衣服替换掉,创造出几可乱真的合成裸照,也就是大家所说的“一键脱衣”。


后因广泛的舆论争议,开发团队选择将该项目关闭。


但记者发现在网上搜索“AI脱衣软件”仍然会出现众多“替代品”。


女子地铁内“裸照”被疯传?网友怒了!


有些非法在线网站甚至公然介绍,该网站可以“使用AI算法的强大功能为照片脱衣服”,并提供“免费下载,免费试用”的功能。


更为恶劣的是,即使上传的是男性的照片,这些网站仍会将照片上的人物P上女性的裸体。


女子地铁内“裸照”被疯传?网友怒了!

非法网站公然宣告提供“脱衣服”功能


有博主发视频表示,在现今AI强大的算法下,时间、地点都对得上的情况下,伪造的谣言让普通人百口莫辩。


AI换脸换装

或涉嫌刑事犯罪


近年来,“AI换脸”走红网络,一些“AI换脸”的App使用明星的图片制作换脸视频进行推广,其趣味性背后暗藏不少法律风险和侵权纠纷。


明星刘昊然就曾在2021年8月26日发博打假,控诉网上流传的某淫秽视频为AI换脸技术伪造,并向警方报案。

女子地铁内“裸照”被疯传?网友怒了!


专家表示,在《网络安全法》第二十七条的规定当中,特别强调,明知他人实施危害网络安全活动的,不能够为他提供技术支持,如果情节严重,还会构成帮助信息网络犯罪活动罪等刑事犯罪。






网友评论


女子地铁内“裸照”被疯传?网友怒了!

女子地铁内“裸照”被疯传?网友怒了!

女子地铁内“裸照”被疯传?网友怒了!

女子地铁内“裸照”被疯传?网友怒了!

女子地铁内“裸照”被疯传?网友怒了!





恶心的不是技术而是人


隐私不雅照片在互联网上被曝光,对于任何人而言,都是对个人权益的肆意侵犯,也可能带来一连串的不良后果,严重的时候,可能导致当事人“社会性死亡”。


而利用偷拍加软件处理,就可以制造他人的不雅照片和视频,这种极度轻易的造假,无疑是非常邪恶和可怕的,可以说是诛心之举。


被“一键脱衣”造谣的人,可能在毫不知情,也没有任何不当之举的情况下,被人以恶意的眼光审视和意淫,名誉被损毁,社会评价被降低,可能还会影响到正常生活和工作等等,简直可以说是无妄之灾。


技术本身并没有善恶之分,但是一旦有人恶意地使用技术,就可能造成非常可怕的后果。


今年1月10日开始施行的《互联网信息服务深度合成管理规定》中提出,要对深度合成技术应用提出规范。那么,法律规范是至关重要的一环。


希望各地的公安机关和监管部门都能尽快出手,打击和清理不法软件,依法惩处违法犯罪分子,斩断背后的黑灰产业链,让新技术能在法治轨道上健康发展,为人类生活谋福利,而不是让新技术成为伤害无辜者、污染社会风气的定时炸弹。



来源:极目新闻、泾渭视频、央视网、新闻晨报、网友评论

编辑:龚紫珺

相关美图推荐

更多>