Grokipedia是埃隆马斯克旗下人工智能公司xAI基于Grok创建的维基百科,即这个网站上的所有内容都是由GrokAI自主编写的,GrokAI在抓取互联网原始信息并加工后再次输出为百科条目。
现在ChatGPT就被发现有时候可能会引用来自Grokipedia的文章数据,引用的内容主要是某些不太常见的主题,例如涉及到伊朗政治以及英国历史学家理查德埃文斯爵士的生平事迹等。
问题在于很多用户会相信ChatGPT给出的回答,而ChatGPT引用的内容可能来自GrokAI编写的,GrokAI又是引用自互联网再进行加工,这其中难免涉及到事件真实性等问题。
这就像是此前在人工智能领域部分AI公司使用其他AI工具生成的数据来训练AI模型,这可能导致AI模型出现幻觉并降低模型质量,甚至出现所谓的模型崩溃,虽然ChatGPT只是引用Grokipedia给出回答而非训练模型,但这同样可能出现虚假信息的问题。
正常来说AI工具应当引用知名网站或媒体发布的信息,如果AI不对内容来源进行甄别就很容易掉进陷阱,例如有些网站使用AI生成海量没有实际意义的垃圾内容,这些内容可能包含虚假信息甚至是谣言,要是被AI引用就可能造成虚假信息的广泛传播。
尽管每个AI工具都会注明信息可能存在错误,但真正能做到对AI回答进行核实的用户少之又少,也就是大部分用户可能不会核实AI给出的内容,这就会加剧虚假信息的传播。
目前OpenAI和xAI都没有就此事发布回应,OpenAI或许要开发新机制来甄别不同信息来源的可靠性,否则未来AI引用AI生成的内容,别有用心的人就可以利用这个问题炮制虚假信息并借助AI传播。

相关文章

头条焦点
精彩导读
关注我们
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】