反对谣言和虚假新闻
虚构信息是新闻界的一个巨大问题。两个新项目旨在借助人工智能揭露虚假新闻。
由于乌克兰战争、新冠疫情和气候危机,虚假新闻的数量也急剧上升。然而,就像充斥在脸书和 Twitter 等社交媒体平台上的数以亿计的信息并不完全都是虚构信息,而是被故意传播的虚假新闻。换句话说,通过机器人或假账户传播的图片、文字、视频,难以辨别其真伪。其背后刻意为之的目标是:扩散恐惧,危及社会凝聚力。
虽然有人借助人工智能 (AI) 传播这种虚构信息,但人们也可以反其道而行之,使用人工智能揭露虚构信息例如,在德国,信息技术研究中心 (FZI) 在联邦教育和研究部 (BMBF) 的支持下设立了 DeFaktS 项目。DeFaktS 的意思是“通过披露因素和文体手段排除虚假信息”。
DeFaktS——人工智能对虚假信息发出警告
作为该计划的一部分,人工智能被训练成能够识别和警告可疑社交媒体服务和社群中的虚假信息。为此,研究人员从 Twitter 和 Telegram 通信中生成了许多数据集。通过这种方式,人工智能可以识别虚假新闻的典型文体手段,如情感极化。
在下一步,经过训练的人工智能被用于所谓的 XAI(可解释的人工智能)。根据 FZI 的说法,这种可解释的人工智能不应仅仅提示出可能存在敏感内容。它还应该让人理解是什么原因促使它发出这一警告。然而,研究人员的焦点并不在于过滤或审查内容。用户应该自己具备批判能力,质疑信息的可信度。“就社会的数字教育而言,这方面对我们非常重要。”FZI 专家乔纳斯·费格特解释说。
noFake——人类和人工智能之间的合作
Correctiv 研究中心还希望给人们提供一种工具,帮助他们识别虚假信息。它正在与波鸿鲁尔大学和多特蒙德工业大学一起开发“noFake”项目。人类和人工智能携手促进区分事实和虚假信息。为此,科学家们正在创建人工智能支持的协助系统,它不仅可以检测出潜在的错误信息,还可以帮助进行文本和图像分析。然后,参与其中的公民可以通过 “Correktiv.Faktenforum”平台以群众工作者的身份自己检查信息。为此,他们需事先接受这方面的培训。Correctiv 的出版商大卫·施拉文解释说:“我们正在建立一个事实核查社区,将参与和专业标准结合起来。”