据NPR披露的内部文件,Meta正计划将多达90%的产品风险评估任务交由人工智能系统完成,涵盖青少年风险、暴力内容、虚假信息等“平台诚信”相关问题,取代长期以来依赖的人类审核机制。目前,产品团队需填写问卷,由AI快速给出判断并标示风险区域,开发者根据AI建议整改后方可上线。尽管Meta表示仍会在复杂问题中引入人类专业判断,但多位内部人士警告称,这种自动化流程可能忽视本可由人工识别的重大风险,增加平台滥用隐患。该转变发生在Meta更新内容审核与事实核查政策之后,最新季度报告显示违规内容下架量下降,校园霸凌和暴力图像略有上升,显示AI替代审核机制所带来的潜在后果已初现端倪。