(资料图)

近日,广州一女子在地铁上的照片被AI“一键脱衣”,造谣者说她在地铁上拍裸照,照片在网络广泛传播引发关注。

事实上,照片的女主角是小红书的一名博主,而所谓的“裸照”则是她去年7月在平台分享的一张照片。原图中她衣着正常,完全没有任何不妥之处,但却被别有用心之人通过AI技术移花接木造黄谣,并刻意在全网散播。目前当事人已在社交平台表示会进行维权。

用AI“一键脱衣”生成图片,是对女性的公开羞辱和无差别攻击,无异于“高科技作恶”。一张图片,就可以编出无数的谣言,贬损女性的名誉。而此类图片大量传播会给当事人带来何种恶劣的影响,是不难想象的。更令人气愤的是,被造黄谣的女性很难自证清白,就像《离骚》里的那句“众不可户说兮”,当事人很难挨家挨户地澄清事实。何况即使这么做,还有可能引来更多麻烦。此类图片对于好事者只是一键生成,但给当事人带来的可能是毁灭性的打击。因此,对此类科技作恶的行为必须严打。

所谓AI“一键脱衣”,其实早就是被封禁的技术,已成为地下黑产。问题在于,在互联网上找到类似的替代技术并不难,好事者的获取成本并不高。

另一方面,由于互联网的信息来源复杂,想找到当事人也并不容易。此前,有一位安徽女子在社交媒体上传了订婚照,却被污蔑为某按摩会所的“技师”。后来女子报警,并表示要依法追责,但至今尚未有公开报道的后续。

这可能正是此类事件层出不穷的原因——别有用心之人动动手指,就能凭借“先进”的技术手段在网络上作恶,与之形成鲜明对比的是,受害者的维权成本极高,让不少人只能无奈放弃。

据媒体报道,演员刘昊然也曾遭遇“换脸”后公开打假,向警方报案;前不久,还有人利用视频合成技术,将电视剧中与某知名女星亲吻的男主角换成自己,引发热议。可见,不管是普通老百姓还是名人明星,所有人都有可能受到此类地下黑科技的困扰。

在被造黄谣女子的社交平台下,有这样一则留言:“底下评论区小姐姐是保护你,也是为了保护她们自己。”确实如此,如果任由“科技作恶”泛滥,那么无论性别、职业、年龄,每一个人都可能成为下一个受害者。

因此,全社会都应参与到对此类AI黑科技的治理与抵制之中,只有形成合力才能更有效地打击此类“科技作恶”的行径。相关部门应当加大摸排巡查,封堵技术漏洞;同时各大应用、信息平台,也应当加强对上架应用和类似信息的查删,绝不给这些违规的产品留下生存空间。

当然,最重要的还是揪出始作俑者,只有让作恶之人付出肉眼可见的代价,才能真正起到震慑的效果。先进的科技手段给我们的日常生活带来的应该是便捷,而不是令人厌恶的黄谣。

推荐内容