In unserer Rubrik „Splitblog“ greifen wir bekanntermaßen Themenvorschläge unseres Teams auf und setzen uns auch oft kritisch damit auseinander – auch, wenn es um künstliche Intelligenz geht. Diesen Monat durfte ich, Katha, selbst ein Thema wählen…
Schaut man dieser Tage nach rechts und links oder auch nur auf das Smartphone in der eigenen Hand, wird es einem immer häufiger Angst und Bange. Meldungen über Kriege, Krisen, innerdeutsche und weltweite Politik, Anschläge und sonstige Bedrohungen sind aus den Tagesmeldungen nicht mehr wegzudenken. Populismus in allen Formen und Farben beeinflusst uns mehr, als uns häufig bewusst ist (unsere Empfehlung: https://www.zdf.de/show/mai-think-x-die-show/maithink-x-folge-31-populismus-100.html ) .War es in den letzten Jahren schon schwer genug zu erkennen, was Fakt ist und was geschickt platzierte Fiktion, kommt nun immer häufiger eine weitere Herausforderung dazu: Deepfakes.
WAS SIND DEEPFAKES EIGENTLICH?
Deepfakes sind mittels künstlicher Intelligenz erstellte Falschmeldungen. Hierbei kann es sich um einfache Texte und Artikel, aber auch um Fotos, Audiodateien oder Videos handeln. Während insbesondere die (gelungene) Bildmanipulation bisher einiges an Expertise brauchte, wird es mit den massenhaften frei und kostenlos verfügbaren KI-Tools immer einfacher glaubhafte Fakes zu generieren. Deepfakes werden gezielt genutzt um Falschinformationen zu verbreiten – aus unterschiedlichen Gründen und aus unterschiedlichen Lagern.
WIE ERKENNE ICH DEEPFAKES?
Wirklich spannend wird es bei der Frage, wie man sich davor schützen kann, auf Deepfakes hereinzufallen. Das ist nämlich durch die ständige, rasante Verbesserung der Technologie gar nicht so einfach. Wer seine Fähigkeiten zur Unterscheidung von Mensch und Maschine testen möchte, kann dies zum Beispiel hier tun: https://www.humanornot.ai/. Es gibt diverse, ebenfalls KI-basierte Tools, die versprechen, KI generierte Inhalte entlarven zu können. Leider arbeitet bis dato keines von ihnen wirklich zuverlässig. Was kann man also noch tun?
FAKTEN CHECKEN:
Egal ob Text, (Bewegt-)bild oder Ton – versuchen Sie möglichst neutral zu bewerten, ob die enthaltenen Aussagen wahr sein können und logisch schlüssig sind. Ist eine eigenständige Bewertung nicht möglich, lohnt es sich, weitere Meldungen zu dem Thema zu suchen. Häufig hilft es schon, die vermeintlichen Fakten aus unterschiedlichen Blickwinkeln zu betrachten. Hilfreich sind hier zum Beispiel www.mimikama.org, www.correctiv.org oder andere Faktencheckportale.
QUELLEN PRÜFEN:
Ein weiteres wichtiges Indiz für die Verlässlichkeit ist die Herkunft der jeweiligen Meldung. Wer verbreitet diese Information? Handelt es sich um ein seriöses Medienportal oder ist die Herkunft unbekannt? (Schon gewusst: Unser Chatbot KOSMO liefert bei jeder generierten Antwort die genutzten Quellen gleich mit).
BEWEISE FINDEN:
Wie bei jeder Ermittlung gilt auch hier: Gibt es Beweise für die vorliegende Meldung beziehungsweise die enthaltenen Behauptungen und Thesen? Kann die gezeigte oder zitierte Person überhaupt vor Ort gewesen sein?
GENAU HINSEHEN:
Insbesondere bei Fotos und Videos sollte man genau hinschauen. Zumindest momentan sind KI generierte Bilder und Videos oft nicht perfekt. Es gibt überzählige Finger, unrealistische Zähne, unpassende Details, wie beispielsweise Schmuck, der aus dem Nichts auftaucht. Insbesondere bei Videos passen die Lippenbewegungen meist nicht zur Tonspur oder die Mimik wirkt auffallend unnatürlich. Auch der Bildhintergrund kann sehr aufschlussreich sein. Passt die Perspektive? Kann das Bild von diesem Standpunkt aus so gemacht aufgenommen worden sein? Besteht das vorliegende Bild oder Video die erste Einschätzung lohnt sich häufig dennoch eine Rückwärtssuche – Google Lens bietet zum Beispiel die Möglichkeit, Bilder vom Smartphone für die Internetsuche zu nutzen. Alternativ kann die URL des Bildes in eine beliebige Suchmaschine eingegeben werden. Häufig stößt man hierbei auf das Originalfoto, das Erstellen eines Fakevideos genutzt wurde. Handelt es sich bei der Meldung um ein großes Ereignis können Sie davon ausgehen weitere Bilder zu finden – schließlich hat heutzutage fast jeder ein Smartphone mit Kamera dabei.
UNSER FAZIT:
Wir alle werden in Zukunft immer häufiger mit immer glaubwürdigeren Deepfakes konfrontiert werden. Umso wichtiger ist es, sich darauf vorzubereiten und zu wissen, wie man Deepfakes erkennen kann.
Weitere Informationen zum Thema finden Sie beispielsweise in der Rubrik #Faktenfuchs des BR oder unter klicksafe.de. Das zdf hat dem Thema ebenfalls eine Folge der Serie logo! gewidmet und das Thema dort kinder-und jugendgerecht behandelt.