“前段时间,有人发私信说看到了我的照片,还问我‘接不接私人’。我仔细找了找,发现这个所谓的照片是AI合成的。”提起自己被“造黄谣”的经历,博主小K(化名)仍然心有余悸。
近年来,AI技术逐渐走入更多人的生活,但也被一些动了歪心思的人看到商机。贝壳财经记者调查发现,目前,黑灰产平台上存在不少售卖网红、女星的“AI脱衣”照片群组。黑灰产从业者口中,5元可以“去衣”,20元实现“视频换脸”。这条产业链上,还有从业者通过吸睛照片引流,再以“会员群”服务牟利。此外,B站、小红书等平台还有视频作者以“AI脱衣教程”等标题吸睛。
对此,北京市中闻律师事务所合伙人赵虎表示,售卖AI脱衣或者AI换脸的图片会违反《治安管理处罚法》的规定,行为人将面临拘留或者罚款的行政处罚,还有可能被追究刑事责任。若不售卖图片而只是传播,情节严重的,仍然将构成传播淫秽物品罪,会被依法追究相应的刑事责任。教授技术,则涉嫌帮助犯或者教唆犯。此外,行为人实施的AI去除衣物和AI换脸的行为还涉及侵犯公民个人信息。
“使用AI进行深度伪造与传统的技术伪造并没有本质区别,但效率要比传统伪造方式高得多,技术门槛又低得多,使得普通人也能轻松实现,深度伪造的‘作品’会进一步充斥互联网。”奇安信集团行业安全研究中心主任裴智勇对贝壳财经记者表示,应当积极探索和推广照片与视频的防伪技术。
多平台网红遭遇“脱衣”引流:5元定制照片
经过一番简单调查,小K最终找到了自己照片流出的源头:有人用自己的“AI脱衣”照片在国外社交平台、色情网站引流,并兜售AI编辑图片服务。
小K的遭遇并非个例。早在去年3月,一位小红书博主在地铁拍摄的照片被人为“AI脱衣”,并在微信群传播。这位博主的评论区中,不少女性吐槽类似经历,感同身受之外难掩心中阴影。
贝壳财经记者按线索搜索发现了一个从事“AI脱衣”的卖家。对方表示,提供任意照片,再花5元就可以提供“去衣”服务,照片不能实现效果再联系换图。另外,20元还可以接“视频换脸”。
这位卖家称,“最近‘去衣’的单子太多,顾不上做换脸”。
“AI脱衣”技术被滥用在色情方面,最早可追溯到2020年海外发布的一款软件,由于存在争议,很快被开发商下架。尽管如此,这一技术依然被某些不法分子用来敛财。
今年6月,北京警方侦破一起案件,曾在互联网公司任职的某技术员宣称 “电脑AI去衣,白菜价”“身边人、网红、明星皆可”,并以此赚起了外快,每张照片仅售1.5元。其通过网络向351人贩卖过相关图片,数量将近7000张。最终,其被北京市海淀区检察院以传播淫秽物品牟利罪提起公诉。
贝壳财经记者调查发现,当前,“AI脱衣”已经形成了一条产业链,包括售卖经过AI深度伪造的图片,有偿对正常照片进行AI“P图”,以及教授“技术”实现脱衣。
此外,黑灰产已经盯上女网红、女明星等知名人物,“AI脱衣”便成了流量密码。
贝壳财经记者在一黑灰产平台上名为“网红XX们的去衣交流群组”看到,该群成员达到近1.5万,其中,抖音、B站、微博、小红书上一些知名女性网红大多都有已被脱衣的图片。
贝壳财经记者注意到,这一群组起初仅对一些网红美女图片进行“AI脱衣”,后来逐渐扩大到演艺圈和体育圈。此类“交流群”的牟利方式也比较简单,黑灰产从业者先是在群组中抛出部分照片,以吸引成员购买“会员群”服务,会员费约为70元。
B站和小红书仍有“AI脱衣教程” 律师:教授技术或构成帮助犯
记者发现,AI生图大模型技术成熟后,相应的“一键脱衣”能力就被网友从国外某知名开源AI生图大模型中“开发”了出来,并逐渐泛滥。虽然随着各国监管规则的完善,该大模型已经修订了“脱衣”等指令。不过,贝壳财经记者在B站和小红书搜索发现,仍然存在一些“AI脱衣教程”视频,虽然有些实为AI“换衣”,但也意味着此类技术仍在被泛滥。
记者以“AI脱衣”等相关关键词在某视频网站搜索得到的结果。
对此,不少国内网红颇为无奈。去年5月,一粉丝数量超过50万的网红女博主发文吐槽,“好多人都经历过图片被盗放到外网上,拿去引流‘卖片’,以及把照片和其他色情图片放在一起的低级造谣手段,明眼人一看就知道是假的,我平时不在意这些,只是当私信突然变多发现‘节奏’起来时,才不得不辟谣。”
赵虎告诉贝壳财经记者,售卖AI脱衣或换脸的图片违反《治安管理处罚法》的规定,收费帮忙“定制”AI脱衣图片,可能构成制作、贩卖淫秽物品牟利罪。若不售卖图片而只是传播,情节严重的,仍然构成传播淫秽物品罪。而教授技术,可能构成帮助犯或者教唆犯。
“收费帮忙‘定制’AI脱衣图片可能构成制作、复制、出版、贩卖、传播淫秽物品牟利罪。”赵虎称,AI去除衣物和AI换脸的行为还涉及侵犯公民个人信息。这些信息一旦泄露或被滥用,将对个人隐私和安全造成严重威胁。
“必须明确的是,使用AI工具进行伪造,效率要比传统伪造方式高得多,技术门槛却又低得多。俗话说得好,造谣一张嘴,辟谣跑断腿。”裴智勇告诉贝壳财经记者,当前,通过专业技术手段或专家鉴定可以识别AI深伪视频和图片,但成本也很高,“随着技术不断进步,AI生成或合成的视频最终无法被鉴定真伪是必然的。”
在他看来,虽然想要阻止人们使用AI生成伪造视频或图片不现实,但这并不意味着对伪造视频或图片毫无办法。“国内对于网络色情视频和图片都有非常成熟的治理方法,即便不能用技术鉴别一张图片的真伪,但可以从平台一侧阻止色情内容的传播,定位色情内容的传播源头并实施打击。”
裴智勇称,互联网平台不能片面追求流量,而是应当在相应法律的指导下,积极参与网络治理,有效限制相关信息的传播范围,对于未经证实的重大信息,应当打上“未经证实”的标签,以适度减少普通群众被误导的风险。
裴智勇认为,应当积极探索和推广照片与视频的防伪技术,“比如使用某品牌、某型号、某序列号的特定手机拍摄照片,照片文件上就会带有一串肉眼看不见、但机器可识别的加密验证码。有人对这张照片进行修改,不论是AI修改,还是人工手动修改,验证系统都能识别出其不是原图,此方法并非什么新技术,而是成熟密码技术。需要的只是推广和深度普及。”
北京芯盾时代科技有限公司创始人、CTO孙悦在接受贝壳财经记者采访时表示,深度伪造技术泛滥,声音、人脸等生物特征失去了原有的高可信认证属性。如果想要通过技术预防其产生的危害,建议各大系统平台加强应用系统的身份认证,需进行强有力的认证措施抵御身份伪造风险,可通过多因素身份认证、终端风险感知、大数据分析等产品技术,结合用户行为建模、知识图谱因果推断等手段,有效抵御深度伪造带来的身份风险。
“未来股票杠杆网站平台,对于AI的健康发展来说,为应对深度伪造技术带来的风险,首先,政府和行业监管单位等应积极完善相关法律法规。其次,加大研发深度伪造检测、数字水印等技术的研发投入;再者,有关部门以及新闻媒体等也应加大反诈宣传力度,提高人民群众的安全意识,多方努力,共同保护人民群众人身和财产的安全。”孙悦告诉贝壳财经记者。
文章为作者独立观点,不代表全国股票配资观点