推广 热搜: page  数据  小红  红书  考试  论文  数据分析  关键词  哪些  搜索 

女子地铁内“不雅照”被疯传?网友怒了

   日期:2024-12-20     移动:https://sicmodule.kub2b.com/mobile/quote/9015.html

  最近,#广州地铁#登上热搜。起因竟是一女子在地铁上的裸体照片被疯传,事实上,这张裸体照并非真实照片,而是被AI技术一键脱衣生成的……

  记者发现,网络上仍存在不少非法网站提供“一键脱衣”的AI技术,并且这些技术主要针对女性。

  记者注意到,这名女网友是一名穿搭博主。2022年7月8日,她在社交平台发布了一组在地铁列车上拍摄的穿搭照片。

  不过,近日有人将该照片上人物的衣物去除后,在网上恶意传播,称有人在地铁上拍摄裸照。不少网友对此十分愤慨。

  该照片的背景和博主上传的照片背景一致,头像也一致,唯一不同的是博主原本穿的衣服却不见了。

女子地铁内“不雅照”被疯传?网友怒了

  有些非法在线网站甚至公然介绍,该网站可以“使用AI算法的强大功能为照片脱衣服”,并提供“免费下载,免费试用”的功能。

  更为恶劣的是,即使上传的是男性的照片,这些网站仍会将照片上的人物P上女性的裸体。

  有博主发视频表示,在现今AI强大的算法下,时间、地点都对得上的情况下,伪造的谣言让普通人百口莫辩。

  AI换脸换装,或涉嫌刑事犯罪

  近年来,“AI换脸”走红网络,一些“AI换脸”的App使用明星的图片制作换脸视频进行推广,其趣味性背后暗藏不少法律风险和侵权纠纷。

  红星评论:

  女子地铁照被AI“一键脱衣”,不能让AI打开潘多拉魔盒

  技术本身是中性的,被拿来干侵权违法的事,就是一种危险的走偏,它会将所有人都置于危险境地。这次不少网友呼吁科技不该用在这上面,实际已经反映出了一种比较现实的担心。因此,对这个问题的处理绝不应该只满足于鼓励受害者维权,在社会治理角度,也应该给予更全方位的回应。

  据了解,早在2019年,国外程序员就开发出了一款AI技术“脱衣”的应用。后因广泛的舆论争议,开发团队选择将该项目关闭。但现实表明,这并不代表真正终结了该技术的应用。时至今日,在网站搜索“AI去衣软件”,仍会出现“替代品”。显然,这样一个可以随时被用于侵权作恶的应用软件,能如此轻易地被获取,无异于是对相关侵权行为的直接纵容。它们到底是否应该继续存在,相关平台是否应该加以限制乃至予以彻底屏蔽,监管部门和平台是时候作出更明确的决断了。

  其实,从为AI技术营造健康的发展环境的角度,也应该对借AI技术作恶的跑偏行为进行更具针对性的预防和规制。要知道,若AI“一键脱衣”这样的违法操作能够轻而易举做到,不仅对所有人的权益保障构成了一种风险隐患,也不可避免地影响到社会对AI技术本身的认同,继而很可能误伤一些正常的AI应用。对此,不仅监管部门要强化对相关违法行为的打击力度,整个AI行业也应该主动趋利避害,对那些违背科技伦理底线的行为坚决说不,在技术规制和伦理规则等方面都构建起更牢固的篱笆,防止打开“潘多拉魔盒”。

  此外,借AI“换脸”“脱衣”等违法操作的频频发生,也在提醒AI时代的每个人,应该进一步提高辨假的意识和识假的能力。比如,“有图有真相”的说法就不应该再被奉为“真理”。尤其是当一些涉及个人权益风险的图片和视频出现后,理应提高警惕并谨慎传播,避免给违法行为推波助澜。

  当然,仅就AI“一键脱衣”这类操作而言,对它的治理其实可以纳入打击网络谣言的行动中去。类似前段时间被曝光过的多起造黄谣事件,利用AI“一键脱衣”在本质上其实就是对受害者的“造黄谣”,只不过借助了一种智能化手段。它的出现,实际给网络谣言的治理提出了新的、更高的要求。比如,受害者如何维权,相关证据如何确定等等,都还需要在法律机制上给出更明确的回应。

  红星新闻特约评论员 朱昌俊

本文地址:https://sicmodule.kub2b.com/quote/9015.html     企库往 https://sicmodule.kub2b.com/ , 查看更多

特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


0相关评论
相关最新动态
推荐最新动态
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号