Informationen sind heute jederzeit verfügbar, ob als Kurznachricht in Messengerdiensten, als Artikel im Internet, E-Mail oder Social-Media-Post. Doch manche Inhalte sind verfälscht oder unwahr. Über Messengerdienste und Social Media verbreiten sich Fake News teilweise rasant. Wie gefährlich solche Desinformation sein kann, hat sich in der Corona-Pandemie gezeigt: So kursierten viele falsche Informationen zur Krankheit Covid-19 oder auch zu den Impfstoffen. Das hat viele verunsichert und Ängste geschürt. Im schlimmsten Fall hat es dazu geführt, dass Menschen ihre Gesundheit gefährdet haben.
Durch neue technologische Entwicklungen verschärft sich das Problem Desinformation weiter. „Deepfakes“ etwa, also realistisch wirkende, aber gefälschte Audio- oder Videoinhalte, machen es immer schwieriger für uns, echte von unechten Inhalten zu unterscheiden. Die IT-Sicherheitsforschung arbeitet an Techniken, die uns helfen, solche Desinformation zu erkennen.
Mit KI den Durchblick behalten
Künstliche Intelligenz (KI) kann uns dabei unterstützen, Informationen richtig einzuordnen. IT-Sicherheitsforschende entwickeln Verfahren, um mittels Anwendungen der KI Fake News einfacher zu erkennen. Dabei macht sich die IT-Sicherheitsforschung beispielsweise Erkenntnisse aus der Sprachforschung zunutze: Demnach sind Texte mit Desinformationen häufig subjektiv und emotional geschrieben. KI-Anwendungen untersuchen Texte nach solchen und anderen Merkmalen und markieren Texte, die möglicherweise Desinformationen enthalten.