最近看到一份值得关注的报告,OpenAI推出了所谓的“儿童安全蓝图”,主要应对人工智能生成的儿童性虐待内容问题。说实话,这个议题确实变得越来越严峻。



根据网络观察基金会的数据,光是2025年上半年就侦测到超过8,000起人工智能生成的儿童虐待内容举报,比前一年增长了14%。这些案例包括用AI工具制造虚假露骨图片进行勒索,或者生成用来诱骗未成年人的信息。数字在不断上升,这背后反映的问题相当严重。

有趣的是,OpenAI这次的举动似乎也是被逼出来的。去年11月加州法院就有七起诉讼指控OpenAI的GPT-4存在心理操纵功能,导致多起青少年自杀事件。投诉方列举了四名死亡者和三名出现严重妄想的案例。舆论压力下,他们开始认真对待这个问题。

这个新的蓝图框架主要聚焦三个方向:第一是更新法律来应对AI生成或操纵的儿童虐待素材;第二是改善服务商之间的举报和协调机制;第三是把安全设计直接嵌入到AI系统里,防止和侦测滥用。他们还与美国国家失踪与受虐儿童中心(NCMEC)、执法机构和非营利组织Thorn合作。

不过OpenAI自己也坦言,没有单一方法能解决这个挑战。框架的目标是加快应对速度、改进风险识别、保持问责制,同时让执法部门能跟上技术进步。另外他们还更新了针对18岁以下用户的指导方针,禁止生成不当内容和自残建议。

说白了,这反映的是整个行业现在都在面临的困境。随着AI技术的普及,虐待儿童的方式也在演变。怎么在创新和保护之间找到平衡,这是摆在所有科技公司面前的实际问题。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论