Deepfake AI "脱衣 "色情网站被加州法院起诉

2024-08-16 01:46:16 UTC | defi.io/ti5
Deepfake AI "脱衣 "色情网站被加州法院起诉

旧金山市检察官起诉 18 家网站和应用程序为 "性虐待 "提供便利。

本周四,旧金山市对 18 个网站和应用程序提起诉讼,这些网站和应用程序在未经授权的情况下为毫无戒心的受害者生成假裸照。

该起诉书针对的是 "大量提供'脱衣'或'裸体'服务的网站和应用程序"。起诉书称,这些网站在 2024 年前六个月的总访问量超过 2 亿次。

"旧金山市检察官大卫-赵(David Chiu)在宣布诉讼时说:"这次调查把我们带到了互联网最黑暗的角落,我为那些不得不忍受这种剥削的妇女和女孩感到震惊。"生成式人工智能前景广阔,但与所有新技术一样,也会产生意想不到的后果,犯罪分子也会试图利用新技术。

"这不是创新,这是性虐待,"Chiu 补充道。

虽然泰勒-斯威夫特(Taylor Swift)等名人经常成为此类图像生成的目标,但他指出了最近新闻中出现的涉及加州中学生的案件。

"这些图片与真实照片几乎毫无区别,被用来勒索、欺凌、威胁和羞辱妇女和女孩。

这种被称为 "未经同意的私密图像"(NCII)的快速传播促使世界各国政府和组织努力遏制这种做法。

"投诉称:"受害者几乎没有任何求助途径,因为一旦这些图像被传播,她们在删除这些图像时将面临巨大障碍。"她们在心理、情感、经济和声誉上都受到严重伤害,对自己的身体和形象没有控制权和自主权"。

Chiu指出,更有问题的是,一些网站 "允许用户创建儿童色情内容"。

利用人工智能生成儿童性虐待材料(CSAM)尤其成问题,因为这严重阻碍了识别和保护真正受害者的工作。追踪这一问题的互联网观察基金会(Internet Watch Foundation)表示,已知的恋童癖组织已经在接受这项技术,人工智能生成的儿童性虐待材料可能会 "淹没 "互联网。

路易斯安那州一项专门禁止使用人工智能生成 CSAM 的法律已于本月生效。

斯坦福大学的研究人员表示,尽管大型科技公司承诺在开发人工智能时优先考虑儿童安全,但这类图像已经进入了人工智能数据集。

诉讼要求这些服务为每项违规行为支付 2500 美元并停止运营,还要求域名注册商、网站托管商和支付处理商停止为制造深度假冒产品提供便利。

Source: decrypt.co

Related News

More News

© 2025 DeFi.io