OpenAI 的内部心理健康专家据报道一致反对推出 ChatGPT 的“不正当”版本,理由是存在严重的 AI 安全 问题。这些专家警告说,潜在的不健康用户互动可能发生,区分了 AI 生成的“淫秽内容”和公然色情内容。
内部对内容准则的抵制
这场争议的中心在于该公司对内容审核的处理方式,其中明确区分了明确的“AI 淫秽内容”和被归类为色情内容的内容。然而,据报道,内部心理健康专业人士团队认为这两个类别都对用户福祉存在问题。
他们的共同担忧是,即使 OpenAI 将某些内容定义为“淫秽内容”,也可能助长不健康的参与模式和心理伤害。这种内部异议是在高级 AI 模型公开发布之前出现的。
对 AI 伦理的更广泛影响
这场内部分歧凸显了在为人工智能定义伦理边界方面持续存在的挑战。这场辩论超越了单纯的内容分类,涵盖了 AI 工具对社会更广泛的影响。
随着 AI 模型变得越来越复杂,关于 AI 安全 和负责任部署的讨论也日益激烈。像 OpenAI 这样的公司面临着越来越多的审查,在向公众发布强大的技术之前,需要对其内部制衡机制进行检查。
参考:Ars Technica - 所有内容



回复 (0)