Drücken Sie „Enter“, um den Inhalte zu überspringen

„Kill Orban“: Eine Fake-Kampagne behauptet gescheitertes Attentat auf Orbán

Knapp zwei Wochen vor den entscheidenden Parlamentswahlen in Ungarn am 12. April schlägt eine Investigativgruppe Alarm. Ein hochkomplexes, russisches Desinformationsnetzwerk namens „Matryoshka“ flutet die sozialen Medien mit einer gefährlichen Erzählung: Ukrainische Terroristen planen angeblich die Ermordung von Ministerpräsident Viktor Orbán.

Budapest/Moskau. Experten der Investigativgruppe Antibot4Navalny warnen vor einer neuen Stufe der digitalen Kriegsführung. Im Zentrum der Kampagne steht ein täuschend echt wirkendes KI-Video, das das Branding der Deutschen Welle (DW) und United24 missbraucht. Darin wird behauptet, ukrainische Geflüchtete in Ungarn seien bei dem Versuch getötet worden, einen Sprengsatz in der Nähe von Orbáns Amtssitz zu zünden.

Die Clips verbreiteten sich rasend schnell. Über 100.000 Aufrufe generierte einer der Beiträge innerhalb weniger Stunden – befeuert durch tausende automatisierte Bot-Accounts, die die Kommentarspalten auf X und Telegram dominieren. Antibot4Navalny beobachten dabei einen strategischen Wandel: Während das Matryoshka-Netzwerk in der Vergangenheit meist reaktiv auf echte Nachrichten antwortete, agiert es nun proaktiv. „Sie erschaffen eine Bedrohung aus dem Nichts, um das politische Klima kurz vor der Wahl massiv zu emotionalisieren“, so die Aktivisten.

Die Kampagne kommt wenige Tage nachdem von de Washington Post ein Bericht über mögliche Scheinattentatspläne auf Orbán mit Quellenverweis auf westliche Geheimdienste veröffentlich worden war.

Der Bericht umfasst auch Recherchen des Investigativen Journalisten Szabolcs Panyi wonach Aussenminister Péter Szijjarto vertrauliche Informationsen aus dem EU-Rat an Russlands Aussenminister Sergeij Lawrow weitergegeben haben soll.

Es ist naheliegend, dass Matryoshkas digitale Kampagne Teil der weiteren Desinformations- und Wahlmanipulationskampagne Russlands zugunsten Viktor Orbáns Fidesz ist.

Wie „Matryoshka“ die Wahrnehmung kapert

Die Strategie des Matryoshka-Netzwerks basiert auf der Simulation einer künstlichen Mehrheit. Antibot4Navalny beschreibt diesen Prozess als dreistufiges Verfahren: Zuerst platzieren sogenannte Seeder-Accounts den manipulierten Inhalt. Unmittelbar danach treten tausende Verstärker-Bots in Aktion, die den Beitrag teilen und mit künstlich generierten Kommentaren versehen. Das Ziel ist ein psychologischer Effekt: Wenn ein Nutzer hunderte Kommentare liest, die alle ähnliche Ängste vor ukrainischen Attentätern teilen, beginnt er, die Information als gesellschaftlich relevanten Konsens wahrzunehmen – selbst wenn die Quelle zweifelhaft ist.

Eine im letztes Jahr im Fachmagazin Science veröffentlichte Studie von A. Dek enthüllt eine besorgniserregende Entwicklung: Die Kosten für die Verifizierung gefälschter Profile sind massiv gesunken und bewegen sich mittlerweile im minimalen Cent-Bereich. Gepaart mit der rasanten Verbreitung hochmoderner KI-Chatbots wird die massenhafte Automatisierung täuschend echter Diskussionsbeiträge immer einfacher.


Wie erkennt man professionelle KI Fakes?

Profil-Check: Bot-Accounts folgen oft einem Muster. Prüfen Sie das Erstellungsdatum (viele Bots im aktuellen Fall wurden erst vor wenigen Wochen registriert) und das Verhältnis von Followern zu gefolgten Personen. Bots folgen oft Tausenden, haben aber selbst kaum echte Follower. Häufig sind die Profile auf „privat“ gestellt.

Copy-Paste Test: Kopieren Sie einen markanten Satz aus einem Kommentar in die Suchfunktion der Plattform. Erscheint derselbe Wortlaut bei mehreren verschiedenen Accounts? Das ist ein sicheres Indiz für eine automatisierte Kampagne.

Linguistische Inkonsistenz: Viele Bots nutzen minderqualitative KI-Übersetzungen. Achten Sie auf unnatürliche Satzstellungen oder Begriffe, die im Ungarischen oder Deutschen unüblich sind, aber in anderen Sprachen womöglich Sinn ergeben. Wenn die sprache generisch Übersetzt wirkt, handelt es sich meistens um einen Bot.

Quellmedium genau prüfen: Bei den gefälschten DW oder United24-Beiträgen fehlen die typischen Merkmale echter Berichterstattung, wie etwa die Nennung der Korrespondenten. Zudem sind die Lippenbewegungen und andere Details bei Deepfakes häufig asynchron – wenn auch die Fortschritte in der Technologie rasant sind.

Das wirksamste Mittel um zwischen Nachrichten und manipulativen Inhalten zu unterscheiden ist die „digitale Pause“. Wenn eine Nachricht zu schockierend ist, um wahr zu sein, investieren Sie 60 Sekunden in die Quellenprüfung.

Bleiben Sie über Ungarn informiert – wir senden Ihnen monatlich einen kompakten NachrichtenspiegelAbonnieren sie unseren kostenlosen Newsletter

Pester Lloyd ist ein unabhängiges Medium
. Wenn Sie unsere Arbeit unterstützen möchten, hilft jeder Beitrag, freien Journalismus zu ermöglichen – Unterstützen sie den Pester Lloyd

Hier gehts zum LIVETICKER UNGARN WAHL 2026

Quellen: Studie von A. Dek https://www.science.org/doi/10.1126/science.adw8154#core-R1-1, Story via politico.eu https://www.politico.eu/article/pro-kremlin-bots-cry-murder-ahead-of-hungary-vote/
Photo: AI-Generierte Illustration von Viktor Orbán

0 0 Bewertungen
Beitragsbewertung
Abonnieren
Benachrichtigen bei
guest
0 Kommentare
Älteste
Neueste Meistbewertet
Inline-Feedbacks
Alle Kommentare anzeigen
© Alle Inhalte Copyright 2026 Pester Lloyd
0
Deine Meinung würde uns sehr interessieren. Bitte kommentiere.x