一项来自哥伦比亚新闻评论(CJR)的最新研究表明,许多AI搜索引擎在回答特定新闻事件时,常常捏造或错误描述信息。研究发现,AI模型如OpenAI和xAI的GroK,经常在查询中产生虚假数据,包括虚构文章的标题、出版社甚至是网址。该研究显示,AI模型在60%的测试查询中生成虚假信息,这一问题加剧了搜索引擎中存在的信息不准确和偏见,尤其是在涉及实时生成答案时。
[较早]xAI被指夸大Grok 3基准测试成绩 AI行业Benchmark争议升级
[较早]欧洲AI法案:全面解读欧洲新规,AI公司面临重大挑战
[近日]Meta借LlamaCon全力狙击OpenAI 推动“开源AI联盟”
[较早]谷歌AI瞎编俗语仍当真 回答荒谬短语引发担忧