儿童安全组织Thorn与Hive合作推出新型AI工具,可检测未知的儿童性侵害内容(CSAM),扩大在线平台的保护能力。该工具结合机器学习算法,提升了标记新型CSAM的精准度,同时保持人类审查监督。虽然当前尚未应对AI生成CSAM,但双方正研发相应解决方案,推动与AI企业合作以限制此类内容的生成,从而实现全方位的保护战略。
[较早]英国监管机构呼吁全面禁止利用AI制作未成年裸照的应用程序
[较早]苹果因取消iCloud CSAM检测系统遭起诉
[较早]OpenAI确认修复ChatGPT错误,防止未成年用户生成色情内容
[较早]氢弹爆炸事故后逆袭:21岁创始人成就红杉首个国防科技投资案