埃隆·马斯克的 AI 公司 xAI 现在正面临一项重大的诉讼,指控其 Grok AI 模型根据三名年轻女孩的真实照片生成了儿童性虐待材料 (CSAM)。 这项法律行动由这些女孩的家庭提起,声称 AI 生成的 CSAM 被一名 Discord 用户举报,导致警方介入。
AI 生成 CSAM 生产的指控
该诉讼详细描述了对 xAI 的严重指控,声称其 Grok AI 将原告的现实世界图像转换为露骨内容。 这种据称的滥用个人照片以创建非法材料构成了对该公司提出的法律挑战的核心。
根据法庭文件,这种令人震惊的内容是在一名 Discord 用户发现这些图像并立即通知执法部门后浮出水面的。 这份报告引发了一项调查,最终将生成的材料与 xAI 的人工智能系统 Grok 联系起来。
AI 伦理和安全更广泛的影响
此案例凸显了围绕高级 AI 模型开发和部署的紧迫的伦理和安全问题。 它提出了关键问题,即为了防止 AI 系统生成有害或非法内容(尤其是涉及未成年人)而采取的保障措施。
针对 xAI 的法律程序可能会为快速发展的 AI 行业内的问责制树立重要的先例。 强大的 AI 工具的开发者正面临越来越多的审查,他们有责任防止滥用并确保其创作的安全。
参考:Ars Technica - 所有内容




回复 (0)