Prof.ⁱⁿ Dr.ⁱⁿ Nele Hansen ist Professorin für Medienmanagement an der IU Internationalen Hochschule. Im Interview ordnet sie wichtige Studienergebnisse ein, geht auf aktuelle Herausforderungen ein und gibt Einblicke in die Hintergründe von Themen wie Medienvertrauen, Meinungsbildung und Desinformation.

Etwas mehr als die Hälfte der Befragten gibt an, regelmäßig Fakten zu überprüfen. Das hat mich überrascht. Andere Studien, zeigen deutlich niedrigere Werte. Es könnte also sein, dass sich viele selbst positiver einschätzen, als sie tatsächlich handeln.
Interessant ist auch, dass über ein Drittel den Begriff „Deepfakes“ kennt. Für ein so technisches Thema ist das gar nicht schlecht und zeugt davon, dass sich recht viele Menschen mit dem Thema auseinandersetzen. Vor allem Jüngere scheinen hier gut informiert zu sein, was nicht überrascht, da sie mit solchen Technologien aufwachsen.
Einig sind sich die meisten, wenn es um Regeln für Künstliche Intelligenz geht. Besonders auffällig ist, dass die Verantwortung klar bei den Plattformen gesehen wird. Über 80 Prozent sprechen sich sogar für ein Verbot von Deepfakes aus – das ist ein deutliches Signal.
Falschmeldungen gibt es, seit es Medien gibt. Mit Fake News und Deepfakes erreicht Desinformation jedoch ein neues Ausmaß in Bezug auf Geschwindigkeit, Reichweite und Täuschungspotenzial. Dabei ist es wichtig, zwischen unbeabsichtigten Falschinformationen und gezielter Desinformation zu unterscheiden. Medienkompetenz bedeutet heute nicht nur, Quellen zu prüfen, sondern auch, Inhalte kritisch einzuordnen und digitale Manipulationstechniken zu erkennen. Medienkompetenz ist wichtiger als je zuvor, denn sie ist die Voraussetzung für informierte Entscheidungen und demokratische Teilhabe.
Fast täglich ereignen sich Vorfälle, bei denen vor allem Personen des öffentlichen Lebens in ihrem Ruf geschädigt werden sollen. Vor der diesjährigen Bundestagswahl etwa häuften sich Desinformationskampagnen, die von autoritären Staaten zielgerichtet gesteuert wurden, um extreme politische Positionen in Deutschland zu stärken und demokratische Parteien anzugreifen. Große Nachrichtenagenturen wie Reuters berichteten darüber. Was auch immer häufiger vorkommt: Es werden KI-generierte Bilder von Ereignissen geteilt, die so nie stattgefunden haben. Die immer realistischere Darstellung dieser Bilder macht es zunehmend schwierig, echte von gefälschten Bildern zu unterscheiden.
Desinformation greift das Fundament unserer Demokratie an. Oft haben diese Informationen nur ein Ziel: Sie sollen polarisieren und die Gesellschaft spalten. Werden Menschen systematisch mit falschen oder manipulativen Informationen konfrontiert, untergräbt das ihr Vertrauen in Medien, Institutionen und demokratische Prozesse. Wer nicht mehr weiß, was wahr ist, kann keine fundierten Entscheidungen treffen – weder politisch noch gesellschaftlich. Außerdem lenken Desinformationen von wahren Problemen oder wichtigen Themen ab.
Die Studienergebnisse bestätigen zahlreiche der bisherigen Erkenntnisse zum Umgang mit Desinformation: Das Bewusstsein für diese Problematik ist grundsätzlich vorhanden. Insbesondere die Sorge, dass Fake News und Deepfakes eine potenzielle Bedrohung für die Demokratie darstellen könnten, ist in der Bevölkerung weit verbreitet.
Gleichzeitig zeigen die Ergebnisse, dass beim Wissen und im Umgang damit noch Luft nach oben ist – was angesichts der technischen Komplexität und der schnellen Entwicklungen wenig überrascht.
Die schiere Menge an Informationen, die wir täglich konsumieren, überfordert viele Menschen. Genau hier liegt die Herausforderung: Informationen wirken oft unmittelbar und emotional auf uns. Aber nicht alles, was sichtbar ist, ist auch verlässlich. In einer digitalen Umgebung, in der jeder Inhalte veröffentlichen kann, sind kritisches Denken, Quellenprüfung und ein grundlegendes Verständnis darüber, wie Plattformen funktionieren und Inhalte ausgespielt werden, wichtiger denn je.
Langfristig benötigen wir daher eine Art digitale Mündigkeit, um Informationen nicht mehr nur passiv, sondern aktiver und bewusster zu konsumieren und zu hinterfragen.
Künstliche Intelligenz ersetzt zunehmend die klassische Suchlogik durch eigene, KI-basierte Mechanismen. Diese filtern nicht nur Informationen, sondern bewerten sie auch eigenständig. Dabei können sogenannte Halluzinationen entstehen, also plausibel klingende, aber falsche Inhalte, werden transportiert. In Kombination mit der enormen Verbreitungsgeschwindigkeit führt dies zu einer unkontrollierten Dynamik, bei der sich Falschinformationen kaum noch manuell überprüfen oder eindämmen lassen.

Beides spielt eine Rolle. Junge Menschen wachsen mit digitalen Technologien auf und bewegen sich ganz selbstverständlich in sozialen Netzwerken sowie auf Plattformen wie TikTok oder YouTube. Dadurch entwickeln sie offenbar früh ein Gespür dafür, wie Inhalte im Netz funktionieren – auch dafür, wie manipulativ oder irreführend sie sein können.
Hinzu kommt, dass sich die Mediennutzung zwischen den Generationen deutlich unterscheidet. Wie unsere Studie zeigt, greifen ältere Menschen häufiger auf klassische Medien wie Fernsehen oder Printmedien zurück, während Jüngere ihre Informationen vor allem online beziehen. Das bedeutet jedoch auch, dass junge Menschen stärker mit Desinformationen in digitalen Räumen konfrontiert sind und womöglich sensibler oder wachsamer darauf reagieren.
Die Informationsflut, mit der wir täglich konfrontiert sind, führt schnell dazu, dass wir mental abschalten und Inhalte nur noch überfliegen. Das ist ein bedeutender Unterschied zum früheren Medienkonsum, bei dem Inhalte, beispielsweise in Zeitungen und im Fernsehen, langsamer und gezielter aufgenommen wurden. Ein entscheidender Punkt ist auch, dass Fake News oft sehr professionell aussehen. Auf Social-Media-Kanälen wirken die Beiträge durch oft gut gestaltete Grafiken, Logos und eine insgesamt professionell wirkende Aufmachung zunächst seriös.
Gefühle sind der Treibstoff der Desinformation. Was emotional berührt, verankert sich tief – unabhängig davon, ob es wahr ist. In sozialen Medien dominieren daher nicht unbedingt Fakten, sondern vor allem Inhalte, die Empörung, Angst oder Wut auslösen und dadurch maximale Aufmerksamkeit erzeugen.
In den sozialen Medien wird nicht Qualität, sondern Reichweite belohnt – und diese wird vor allem durch Engagement bestimmt. Beiträge, die häufig geliked, kommentiert oder geteilt werden, werden vom Algorithmus sichtbarer gemacht.
Inhalte, die starke Emotionen auslösen, verbreiten sich schneller und weiter als sachlich fundierte Informationen. Dadurch erhöht sich das Aufkommen von Falschinformationen massiv.
Der Europäische Auswärtige Dienst (EAD) ist der derzeitigen Hohen Vertreterin der EU für Außen- und Sicherheitspolitik, derzeit Kaja Kallas, unterstellt. Auf seiner Website EUvsDisinfo.eu listet der EAD aktuelle Fälle von Desinformation auf und widerlegt falsche Behauptungen – insbesondere im Zusammenhang mit aktuellen Konflikten, an denen autoritäre Staaten beteiligt sind, die gezielt Falschinformationen verbreiten. Die Bundesregierung, die Landesregierungen und NGOs in Deutschland leisten durch Websites, Projekte usw. viel Aufklärungsarbeit. Das ist alles wichtig und gut. Langfristig wird jedoch nur die gezielte Förderung von Medienkompetenz in Schulen, Bildungseinrichtungen und gesellschaftlichen Institutionen wirksamen Schutz vor destruktiven Informationen bieten. Wir dürfen nicht vergessen: Nicht nur die junge Generation, sondern alle Generationen sind betroffen.
Bei jeder großen technologischen Entwicklung erleben wir zunächst ein bekanntes Muster: Sie löst Angst, Unsicherheit und oftmals auch Überforderung aus. So war es auch in der Vergangenheit, als die ersten Züge fuhren und die Menschen glaubten, dass Geschwindigkeiten über 30 km/h tödlich seien. Heute lächeln wir darüber, doch es zeigt: Der Umgang mit neuen Technologien braucht Zeit, Erfahrung und Regeln.
Genauso stehen wir bei KI-generierten Inhalten, wie etwa Deepfakes, am Anfang einer Phase des gesellschaftlichen Lernens. In den nächsten fünf Jahren wird sich der Umgang damit voraussichtlich professionalisieren. Wir werden bessere Erkennungsmechanismen entwickeln und rechtliche Standards etablieren. Der einzige Unterschied zu früheren Entwicklungen ist die Geschwindigkeit. Durch KI scheint alles schneller als je zuvor zu geschehen. Das macht genaue Vorhersagen schwierig.
Zunächst sind dies natürlich die Rückschlüsse aus den Studienergebnissen. Die in Deutschland lebenden Menschen scheinen größtenteils über die Grundproblematik aufgeklärt zu sein. Dazu muss man Folgendes verstehen: Früher waren die Bürger:innen vor allem passive Konsument:innen von Fernsehen oder Printmedien. Heute produzieren sie selbst Inhalte, vernetzen und organisieren sich und nehmen so am politischen Diskurs teil. Wenn die Menschen in Deutschland informiert und reflektiert bleiben, ergibt sich dadurch eine große Chance für mehr Teilhabe am demokratischen Prozess. Das macht Hoffnung.
Dennoch zeigen die Ergebnisse auch, dass die Menschen über die Entwicklungen durch KI besorgt sind. Aufgrund der rasanten Entwicklung in diesem Bereich ist das nachvollziehbar. Und hier liegt die große Gefahr. Die Politik ist sehr bemüht, was sich beispielsweise in der EU-Verordnung über künstliche Intelligenz (kurz: AI Act) zeigt. Diese Verordnung ist der erste Rechtsakt weltweit zur umfassenden KI-Regulierung. Dennoch scheint auch die Politik immer einen Schritt hinterher zu sein – nicht, weil der politische Wille fehlt, sondern weil die Technik schneller voranschreitet, als sie reguliert werden kann.