在科技与日常生活交织的时代,人工智能脱衣的出现标志着一种令人担忧的趋势。社交媒体分析公司Graphika揭示了一种令人不安的做法:使用人工智能(AI)生成工具,在未经个人同意的情况下,对图像中的个人进行数字脱衣,从而合成未经同意的亲密图像(NCII)。这种数字侵权行为不仅侵犯了隐私,还助长了剥削和滥用市场的繁荣。
Graphika'的报告提供了令人震惊的统计数据,说明Reddit和X(前推特)等平台上的评论和帖子数量增长了惊人的2408%,这些评论和帖子将流量引向了提供NCII服务的网站和Telegram频道。从 2022 年的 1 280 例到 2023 年的 32 100 多例,这不仅仅是一个数字,而是这种不道德做法迅速扩散的证明。
合成 NCII 通常作为明确生成的内容,利用人工智能的能力来创建逼真和令人痛苦的图像。这些工具简化了流程,使提供商更容易、更经济高效地大规模制作明确的内容。如果没有这些服务,个人将不得不面对管理定制图像扩散模型的复杂性和费用问题。
人工智能脱衣工具的激增描绘了一幅严峻的图景,有可能导致伪造露骨内容的产生。其影响是多方面的,助长了有针对性的骚扰、sextortion 和令人憎恶的儿童性虐待材料(CSAM)的制作。此外,人工智能的触角还延伸到了静态图像之外,涉足了视频深度伪造领域,正如在YouTube名人野兽先生和好莱坞演员汤姆-汉克斯等公众人物的操纵内容中观察到的那样。
总部设在英国的互联网观察基金会(IWF)仅在一个月内就在一个暗网论坛上发现了超过 20,254 张虐待儿童的图片,这凸显了情况的严重性。人工智能生成的儿童色情图片的出现构成了迫在眉睫的威胁,有可能使互联网充斥着难以分辨的内容,模糊了深度伪造色情图片与真实图片之间的界限。
为了应对这一不断升级的危机,联合国将人工智能生成的媒体称为对信息完整性的严重而紧迫的威胁,尤其是在社交媒体平台上。立法机构也在加紧行动,欧洲议会和欧盟理事会就欧盟内部使用人工智能的严格规则达成了协议。
随着数字领域的不断发展,人工智能脱衣和深度伪造技术的兴起需要立即引起人们的关注。当务之急是提高认识,坚持道德标准,执行监管措施。只有通过共同努力,我们才能在数字时代捍卫隐私、诚信和人类尊严的本质。