Deepfake – wenn Politiker mit Vitali Klitschko telefonieren

  • Beitrags-Kategorie:Allgemein
  • Beitrag zuletzt geändert am:17. Juli 2022
https://futurezone.at/digital-life/deepfake-video-ludwig-klitschko-film-cheap-fake/402055045

Da telefonieren Staatsoberhäupter mit einem der Klitschko-Brüder und sprechen über die Lage in der Ukraine. Die Unterredung mit dem vermeintlichen Oberbürgermeister von Kiew, Vitali Klitschko, nahm einen ungewöhnlichen Verlauf. Berlins regierende Bürgermeisterin bricht das Gespräch ab. Bürgermeister Ludwig spricht ebenfalls mit dem falschen Vitali.

Deepfake – was ist das?

(engl. Kofferwort aus den Begriffen „Deep Learning“ und „Fake“) sind realistisch wirkende Medieninhalte (Foto, Audio und Video), die durch Techniken der künstlichen Intelligenz abgeändert und verfälscht worden sind. Obwohl Medienmanipulation kein neues Phänomen darstellt, nutzen Deepfakes Methoden des maschinellen Lernens, genauer künstliche neuronale Netzwerke, um Fälschungen weitgehend autonom zu erzeugen.

Das heißt, es gibt Videos von Menschen, die so manipuliert sind, dass sie ganz andere Botschaften vermitteln und sie so falsch dargestellt werden.
Im März 2022 gab es ein Deep-fake-Video von Wolodymyr Selenskyi mit dem Aufruf, dass sich die ukrainischen Soldaten ergeben sollten.

Daran lässt sich das Potential solcher Fakes erkennen oder besser, erahnen.

Im Falle des Videotelefonates dürfte es sich um einen Shallowfake oder Cheapfake gehandelt haben. Dabei wird ein Video in einem ganz anderen Zusammenhang gezeigt – oder es werden etliche Videos zusammengeschnitten. Beim Klitschko-Video wurde scheinbar diese Technik angewandt – es war da auch ein „Dolmetsch“ im Einsatz.

Wir werden keinen solchen Videoanruf erhalten. Aber es gibt viele Videos, die im Netz kursieren oder per Messenger geteilt werden.

WICHTIG: recherchieren, bevor man Videos liked oder weiterleitet. Genau hinschauen!

Im Fall des Klitschko-Videos gibt es eine „Autopsie“ von Daniel Laufer.

 

Für uns als Laien:

1. Auf Kontext achten
Sagt oder handelt eine Person komplett anderes als üblich, dann ist die Wahrscheinlichkeit sehr groß, dass es sich hier um einen Deepfake-Inhalt handelt.
2. Unnatürliches Gesicht
Gesicht weist eine seltsame Mimik auf, dann könnte es computergenerierten sein. Indiz: leerer Blick, unlogische Schatten in den Gesichtszügen oder fehlendes Blinzeln.
3. Unscharfe Stellen
Übergänge von Gesicht, Hals und Haaren. Die Übergänge sind oft sehr unscharf. Dies ist ein weiterer Anhaltspunkt.
4. Qualitätsunterschiede
Gesicht hat eine andere Qualität auf als das restliche Video bzw. der Hintergrund, dann ist das definitiv ein Alarmsignal.
5. Online Tools nutzen
kostenlose Online-Tools benutzen, um ein Video auf ihre Echtheit zu prüfen. Hier gibt es zum Beispiel den DeepFake-o-meter oder deepware.

Schreibe einen Kommentar

*

code