Falschnachrichten gibt es schon immer. Desinformation, die bewusste Verbreitung von falscher Information zur Manipulation und Beeinflussung des öffentlichen Diskurses, nehmen immer mehr zu und „Fake News“ werden zu einer Gefahr. In dem digitalen Dschungel, den die sozialen Netzwerke heute darstellen, wird es immer schwieriger zu erkennen, ob jemand, der eine Meinung äußert, eine Person oder eine Maschine ist. Die neue Generation von Bots – Programme, die sich als echte Nutzer ausgeben – hat gelernt, sich wie wir zu verhalten. Sie posten rund um die Uhr, verwenden gängige Redewendungen, imitieren Emotionen und kommentieren sogar in mehreren Sprachen. Das Ziel: Desinformation, Beeinflussung, Verwirrung. Dieses Phänomen ist nicht nur in Großmächten zu beobachten. Besonders in Diktaturen wie Venezuela und Kuba, aber auch in Brasilien oder der Dominikanischen Republik, werden seine Auswirkungen immer sichtbarer. Die spanische Zeitschrift Ciberseguridad hat vor den „grauen Bots“ gewarnt, die von künstlicher Intelligenz angetrieben werden, um ohne Verdacht zu erregen irreführende Botschaften zu verbreiten. Ihr Realismus hat die Grenze zwischen Authentizität und Manipulation verwischt.
Das Dominikanische Institut für Telekommunikation (Indotel) hat begonnen, dieser Bedrohung mit Vorschlägen zur digitalen Bildung entgegenzuwirken. Auf dem Forum „Soziale Netzwerke, Journalismus und Demokratie“, das gemeinsam mit der Universidad Iberoamericana (Unibe) veranstaltet wurde, wurden besorgniserregende Daten veröffentlicht: 67 % der Informationen, die in dominikanischen Netzwerken zirkulieren, sind falsch, und 77 % der Nutzer teilen sie, ohne sie zu überprüfen. Als Reaktion auf diese Vertrauenskrise hat Indotel „Teo“ ins Leben gerufen, einen virtuellen Assistenten, der Bürger über Telekommunikationsdienste und Cybersicherheit informiert. Ein Tool, das Technologie von der richtigen Seite näherbringen soll. Doch während die Öffentlichkeit aufgeklärt wird, werden die Bots weiterentwickelt. Laut dem Unternehmen Barracuda Networks machten sie 2024 rund 24 % des globalen Datenverkehrs im Internet aus. Fast die Hälfte davon war so fortschrittlich, dass sie CAPTCHAs, IP-Filter und andere Sicherheitssysteme umgehen konnten.
Diese „fortschrittlichen Bots“ imitieren nicht mehr nur die menschliche Sprache, sondern auch Navigationsmuster und soziale Interaktion. Tushar Richabadas, Sprecher von Barracuda, warnt vor einer weiteren, subtileren Bedrohung: Bots, die nicht direkt angreifen, sondern massive Datenmengen von Websites für unethische oder zweifelhafte Zwecke extrahieren. Im politischen Bereich der Dominikanischen Republik hat ihr Einsatz Kontroversen ausgelöst. Im Jahr 2022 beschuldigte Senator Yván Lorenzo die Regierung, „Bot-Farmen“ zu betreiben, um Oppositionelle anzugreifen und Trends zu manipulieren. Obwohl es keine formelle Untersuchung und keine schlüssigen Beweise gab, spiegelte die Anschuldigung eine latente Sorge wider: die Manipulation der öffentlichen Debatte durch digitale Anonymität.
Neben der Desinformation werden viele Bots auch dazu eingesetzt, Hassreden zu verstärken. Diese Profile sind so programmiert, dass sie anonym und massiv agieren und frauenfeindliche, rassistische, fremdenfeindliche oder politisch intolerante Botschaften verbreiten. Sie wollen nicht nur angreifen, sondern auch polarisieren, emotionale Reaktionen hervorrufen und kritische Stimmen delegitimieren. So vergiften sie den digitalen Raum und machen die Netzwerke zu einem fruchtbaren Boden für symbolische Radikalisierung. Bots täuschen und machen Lärm. Sie verwenden Techniken wie die Synchronisierung von Beiträgen, den massiven Einsatz von „Likes“ und Retweets sowie die strategische Einfügung beliebter Hashtags, um Inhalte viral zu verbreiten. Sie erstellen sogar gefälschte Konten, die miteinander interagieren und aktive Communities vortäuschen, die Narrative verstärken oder aus verschiedenen Blickwinkeln angreifen.
Dieses Verhalten manipuliert die Algorithmen der Plattformen, die die Inhalte mit den meisten Interaktionen priorisieren, und trägt zur Polarisierung bei, indem es Botschaften verbreitet, die Empörung, Angst oder schnelle emotionale Zustimmung hervorrufen sollen. Obwohl es schwierig ist, sie auf den ersten Blick zu erkennen, gibt es Anzeichen. Kontinuierliche Aktivität ohne Pausen, allgemeine Nachrichten wie „Was für eine gute Nachricht“, Profile ohne Gesicht oder echte Biografie, mit anderen Accounts synchronisierte Beiträge und Übersetzungsfehler sind deutliche Hinweise. Medien wie Wired, die MIT Technology Review und das Reuters Institute haben praktische Leitfäden zur Erkennung automatisierter Konten veröffentlicht. Dennoch warnen Experten wie Dr. Samuel Linares, dass es ohne spezielle Tools fast unmöglich sein kann, einen ausgeklügelten Bot zu erkennen. Eine globale HerausforderungDer Digital News Report 2024 des Reuters Institute bestätigt, dass diese Sorge nicht nur lokal begrenzt ist. Dem Bericht zufolge befürchten 59 % der Befragten in 47 Ländern, dass sie nicht in der Lage sind, zwischen echten und falschen Nachrichten im Internet zu unterscheiden. Und mit dem Einsatz künstlicher Intelligenz bei der Erstellung von Inhalten verschärft sich diese Herausforderung noch.
„Die Menschen fürchten um die Zuverlässigkeit von Inhalten, insbesondere bei Themen wie Politik“, sagt Nic Newman, Autor der Studie. Eine Warnung, die in einer Welt nachhallt, in der Täuschung mit Profilbild, einem gängigen Namen und fast perfekter Formulierung einhergehen kann. Denn wenn sich Täuschung als Mensch tarnt, erscheint Desinformation nicht mehr wie Fiktion. Und die Netzwerke, die Verbindung und Pluralität versprachen, werden zu einem Schlachtfeld, auf dem auch die Wahrheit verteidigt werden muss.
Leider kein Kommentar vorhanden!