• Internationale Nachrichten
  • Lokalnachrichten
  • Politische Nachrichten
  • Sport Nachrichten
  • Unterhaltung
  • Wirtschaftsnachrichten
Nachrichtenportal Deutschland
  • Internationale Nachrichten
  • Lokalnachrichten
  • Politische Nachrichten
  • Sport Nachrichten
  • Unterhaltung
  • Wirtschaftsnachrichten
No Result
View All Result
  • Internationale Nachrichten
  • Lokalnachrichten
  • Politische Nachrichten
  • Sport Nachrichten
  • Unterhaltung
  • Wirtschaftsnachrichten
No Result
View All Result
Nachrichtenportal Deutschland
No Result
View All Result

Videos von weinenden ukrainischen Soldaten sind KI-Fälschungen

Elke by Elke
November 11, 2025
in Lokalnachrichten
Videos von weinenden ukrainischen Soldaten sind KI-Fälschungen


Faktenfinder

Stand: 11. November 2025 16:12 Uhr

Ein emotionales virales Video zeigt einen weinenden ukrainischen Soldaten, der behauptet, er sei erst 23 Jahre alt und müsse an der Front dienen. Doch das Video ist eine KI-Fälschung.

Karin König

Carla Reveland

„Hilf mir, ich will nicht sterben“, fleht ein junger ukrainischer Soldat in einem 15-sekündigen Video, das viral ging. Der Mann in Uniform schaut direkt in die Kamera und sagt unter Tränen, dass er an die Front in Chassiv Yar geschickt würde. Er spricht Ukrainisch und sagt, er sei erst 23 Jahre alt. Aber es ist nicht authentisch, sondern KI-generiert.

Das emotionale Video wurde in den sozialen Medien hunderttausendfach in verschiedenen Sprachen geteilt. In Deutschland wird es unter anderem mit den Worten geteilt: „Mir blutet das Herz bei den Worten des 23-jährigen ukrainischen Jungen, der verzweifelt sagt, er habe Angst und wolle nicht sterben.“ Ein anderer Account schreibt: „Das Video ist allen deutschen kriegsliebenden Politikern gewidmet. Merz und Co.“

Sachlich falsch

Das Video verbreitet sich nicht nur in Deutschland. Es ist auch in anderen Ländern mit Untertiteln in verschiedenen Sprachen im Umlauf, darunter Englisch, Französisch, Spanisch, Griechisch, Türkisch und Japanisch. Eine ungarische Version des Clips wurde mehr als 1,8 Millionen Mal angesehen.

Der angeblich eingezogene Soldat gibt im Video an, er sei 23 Jahre alt. Allerdings liegt das Wehrpflichtalter in der Ukraine derzeit zwischen 25 und 60 Jahren, auch Männer unter 25 Jahren können sich freiwillig melden. Im April letzten Jahres wurde das Mindestalter von 27 auf 25 Jahre gesenkt, um angesichts des anhaltenden Krieges mehr Soldaten mobilisieren zu können.

Mehrere Beweise für KI-Fälschung

Das Video ist nicht nur inhaltlich falsch, es gibt auch zahlreiche Hinweise darauf, dass es sich um eine mittels künstlicher Intelligenz erstellte Fälschung handelt.

Ukrainische Sprachexperten teilten der Verifizierungseinheit der Nachrichtenseite Euronews.com mit, dass die Aussprache von „Chasiv Yar“ nicht natürlich klinge und nicht der ukrainischen Muttersprache entspreche.

Laut Giorgio Patrini, CEO und Mitbegründer von Sensity AI, einem Unternehmen, das KI-generierte Videos identifiziert und analysiert, weist der Helm des mutmaßlichen Soldaten im Vergleich zu echter Militärausrüstung mehrere Anomalien auf. Die seitlichen Zubehörschienen und die Anordnung der Schrauben unterscheiden sich deutlich von gängigen Modellen, zudem entfallen die bei echten Helmen üblichen Klettverschlüsse.

Die Analyse von Sensity ergab außerdem, dass die Bilder mit Sora, dem Bildgenerator von OpenAI, erstellt wurden und das ursprüngliche Wasserzeichen anschließend entfernt wurde.

TikTok-Account mit zahlreichen weiteren Videos

Das Video ist nicht das einzige KI-generierte Video dieser Art. Zurückzuführen ist es ursprünglich auf ein inzwischen gelöschtes TikTok-Profil. Dort gibt es Dutzende weiterer Videos von vermeintlich weinenden jungen ukrainischen Soldaten, die in Militärfahrzeugen sitzen.

Auf einigen Videos ist Soras Wasserzeichen noch zu sehen. Die meisten Videos haben einige Tausend Aufrufe, einige erreichen jedoch bis zu 2,1 Millionen Aufrufe.

Eine Gesichtserkennungssuche legt nahe, dass es sich bei den Videos und hinter dem TikTok-Konto um den russischen Streamer Wladimir Jurjewitsch Iwanow aus St. Petersburg handelt, der unter dem Pseudonym Kussia88 auftritt.

Das Zentrum zur Bekämpfung von Desinformation, eine dem Nationalen Sicherheits- und Verteidigungsrat der Ukraine angeschlossene Einrichtung, bestätigte, dass „das im Video gezeigte Gesicht einem russischen Staatsbürger und nicht einem Ukrainer gehört“.

Hinter Kussia88 steckt offenbar ein russischer Streamer

„Kussia“ (ausgesprochen „kasha“) bedeutet auf Russisch „Brei“ (каша). Doch die Verwendung von „88“ (Neonazi-Code für „Heil Hitler“) und der lateinischen Transkription mit doppeltem „SS“ dürfte kein Zufall sein, wie Recherchen der „Deutschen Welle“ (DW) zeigen.

Ebenso wenig gilt die Verwendung der Buchstaben „IA“. In internationalen Neonazi-Kreisen wird „IA“ als „14“ verstanden – ein Code, der sich auf die „14 Wörter“ bezieht, die der amerikanische Neonazi David Lane propagiert: „Wir müssen die Existenz unseres Volkes und eine Zukunft für unsere weißen Kinder sichern.“ Diese 14 Worte sind zu einem verbindenden Slogan für Neonazis weltweit geworden.

Tatsächlich erscheinen die Nummern 1488 und 8814 in der URL und Profilbeschreibung von Ivanovs Konten auf TikTok und Boosty (einer russischen Plattform, die es Content-Erstellern ermöglicht, durch Abonnements und Spenden ihrer Community regelmäßige Einnahmen zu erzielen).

Mehreren Reddit-Chats zufolge wurde Ivanovs Twitch-Konto, das über 1,3 Millionen Follower hat, in den letzten Monaten mindestens einmal vorübergehend gesperrt.

Es ist unklar, ob Ivanov die Videos tatsächlich erstellt und die Neonazi-Codes bewusst verwendet hat. Auf eine Anfrage der DW antwortete er nicht. Allerdings reagierte er auf seinem Telegram-Kanal sarkastisch auf Hinweise, dass er an den KI-Videos beteiligt und ein „Pro-Putin-Nazi“ sei, indem er sagte: „Die Twitter-Community hat endlich gelernt, was ‚Lieferung‘ bedeutet“ – ein russischer Twitch-Slangbegriff, der bedeutet: „Sie sind endlich auf den Hype-Zug aufgesprungen.“

Auch auf Videos sind Kritiker Putins zu sehen

Ein weiteres Gesicht, das regelmäßig in Clips des TikTok-Kontos auftaucht, ist das von Alexei Gubanov, einem Kritiker des russischen Präsidenten Wladimir Putin. Gubanov, der heute in New York lebt, sagte der DW, er habe „absolut keinen Bezug“ zu den Clips. „Alle wurden von jemandem mithilfe von KI und ohne meine Zustimmung oder Beteiligung erstellt.“

Er fügte hinzu, dass er sein Publikum gewarnt habe, „dass jemand absichtlich versucht, öffentliche Empörung zu schüren, indem er diese Art von Inhalten erstellt. Diese Videos passen direkt in russische Propagandanarrative und gewinnen Millionen von Aufrufen. Um es klarzustellen: Ich habe keines dieser Videos erstellt, genehmigt oder daran teilgenommen, und ich verurteile aufs Schärfste die Verwendung von KI-generierten Fake-Medien für Manipulation oder Propaganda.“

Hinweis: Dieser Artikel ist im Rahmen der Kooperation der ARD-Faktenchecker ARD-faktenfinder, BR24 #Faktenfuchs und DW Faktencheck entstanden.

Previous Post

(S+) Donald Trump: US-Regierung erzwingt Preissenkungen für Diätspritzen – Spiegel

Next Post

„Apokalypse wie Mad Max“: Video bringt Putins Armee in Verlegenheit

Nachrichtenportal Deutschland

© 2024 Mix9P

  • Home
  • Conditions d’utilisation
  • Kontaktiere uns
  • DMCA
  • Datenschutzrichtlinie
  • Cookie-Datenschutzrichtlinie

Social icon element need JNews Essential plugin to be activated.
No Result
View All Result
  • Internationale Nachrichten
  • Lokalnachrichten
  • Politische Nachrichten
  • Sport Nachrichten
  • Unterhaltung
  • Wirtschaftsnachrichten

© 2024 Mix9P