“朋友在接ai绘画的散活,有人想让他用认识的女生出些图,朋友拒绝了这一单”

来源:微博@余车台Alex

周六播的时候说到,朋友在接ai绘画方面的散活儿,有人想让他用现实生活中认识的某个女生训练个模型,出些「nsfw」的图,即not safe for work——说白了就是不穿衣服的图。

朋友拒绝了这一单,并提出有意思的标准:70%相似度。这是个模糊的说法,但我大概明白是什么样的,即从技术上来说难易适中,配得上一两百块一单的价格;从伦理上说能清晰地识别出「不是同一人」,避免对现实中的女性造成伤害。其实70%的标准我也不敢轻易认可,毕竟想伤害一个人,连70%的相似度都用不着。哪怕只有三分像,都足够烂人在他们的论坛和小群里来一场狂欢,足够在一个社交圈里掀起波动。

我们都清楚,那位不知是何居心的客户一定会找到愿意为他训练尽可能接近十成相似度模型的人。紧接着,这几天朋友又收到了两个差不多的委托。都要求拿他们认识的女生发在社交媒体上的照片训练,都希望能尽可能逼真(「能直接发朋友圈那种程度」),都承诺绝不会非法使用造成风险……我难以想象,此时此刻到底有多少烂人正拿着他们从普通女孩社交媒体存来的图片,谋划着恶毒的攻击。

之前听劳东燕教授《网络暴力治理中的刑法立场》,深以为然。不能只指望受害者自己去维权、去告,她有这么一句灵魂拷问:在座各位都是学法律的,但如果是你遭遇了网络暴力,你觉得自己可以很好地解决这件事情吗?公权力必须主动参与进来。当然我觉得指望公权力也不完全牢靠,我认为作为公民,大家全得赶紧参与进来,参与方式非常简单——

从今天起,只要看到一张不穿衣服的照片在传播,不管双手多逼真、不管图片细节多实在,就立刻大声给图片定性:是AI吧!不要跟我解释什么褶皱阴影、真实景深,只要图上没穿衣服,肯定是AI。我有一百种方式证明一张照片是AI生成的,但你无法证明「不是AI」,就像无法证明魔鬼「不存在」。谁要是传播那张照片,那他要么是该被送进去蹲着的坏胚,要么是没见识的白痴。

悖论是,愿意用这种方式保卫她们生活的人,往往不会出现在那个论坛、那个小群,我们不太可能最早看到图片,于是无法阻断初期的传播,只能做一道大规模网络暴力前的防火沟。不过我想,灭火的英雄本就不该是我们这些普通人吧?在看见危险时,选择成为防火沟的一部分,便可以理直气壮地为自己骄傲一天了。

500

发表于海南省
2023-03-29
社会

观察者APP,更好阅读体验

“美国已非首选,中国才是未来”

洛杉矶抗议是如何被点燃的?

炮灰还是既得利益者?他俩的决裂警示硅谷精英

33年来首次调动!特朗普支持逮捕加州州长

日本突然发现:中国双航母首次同时现身西太