NASZ SPLITBLOG W LUTYM: DEEPFAKES I JAK JE ROZPOZNAWAĆ

W naszej rubryce „Splitblog” poruszamy znane propozycje tematów naszego zespołu i często poddajemy je krytycznej analizie – również, gdy chodzi o sztuczną inteligencję. W tym miesiącu ja, Katha, mogłam sama wybrać temat…

Jeśli rozejrzymy się w tych dniach na prawo i lewo lub choćby spojrzymy na smartfon w naszej dłoni, coraz częściej ogarnia nas strach i niepokój. Doniesienia o wojnach, kryzysach, polityce wewnętrznej Niemiec i polityce światowej, zamachach i innych zagrożeniach są nieodłączną częścią codziennych wiadomości. Populizm we wszystkich formach i kolorach wpływa na nas bardziej, niż często zdajemy sobie z tego sprawę (nasza rekomendacja: https://www.zdf.de/show/mai-think-x-die-show/maithink-x-folge-31-populismus-100.html). O ile w ostatnich latach wystarczająco trudno było rozpoznać, co jest faktem, a co sprytnie umieszczoną fikcją, teraz coraz częściej pojawia się kolejne wyzwanie: deepfakes.

CZYM WŁAŚCIWIE SĄ DEEPFAKES?

Deepfakes to fałszywe wiadomości tworzone za pomocą sztucznej inteligencji. Mogą to być proste teksty i artykuły, ale także zdjęcia, pliki audio lub wideo. O ile dotychczas (udana) manipulacja obrazem wymagała pewnej wiedzy specjalistycznej, o tyle dzięki masowo dostępnym, darmowym narzędziom AI coraz łatwiej jest generować wiarygodne fałszerstwa. Deepfakes są wykorzystywane w sposób celowy do rozpowszechniania fałszywych informacji – z różnych powodów i z różnych obozów.

JAK ROZPOZNAWAĆ DEEPFAKES?

Naprawdę interesujące staje się pytanie, jak można się uchronić przed nabraniem się na deepfakes. Ze względu na ciągłe, szybkie udoskonalanie technologii nie jest to wcale takie proste. Kto chce przetestować swoje umiejętności rozróżniania człowieka od maszyny, może to zrobić na przykład tutaj: https://www.humanornot.ai/. Istnieją różne, również oparte na AI narzędzia, które obiecują demaskowanie treści generowanych przez AI. Niestety, jak dotąd żadne z nich nie działa naprawdę niezawodnie. Co więc można jeszcze zrobić?

SPRAWDZAJ FAKTY:

Niezależnie od tego, czy jest to tekst, obraz (ruchomy) czy dźwięk – staraj się oceniać w sposób możliwie neutralny, czy zawarte w nim stwierdzenia mogą być prawdziwe i czy są logicznie spójne. Jeśli samodzielna ocena nie jest możliwa, warto poszukać dalszych doniesień na ten temat. Często pomaga już spojrzenie na rzekome fakty z różnych perspektyw. Pomocne są tutaj na przykład www.mimikama.org, www.correctiv.org lub inne portale sprawdzające fakty.

SPRAWDZAJ ŹRÓDŁA:

Kolejnym ważnym wskaźnikiem wiarygodności jest pochodzenie danej wiadomości. Kto rozpowszechnia tę informację? Czy jest to poważny portal medialny, czy pochodzenie jest nieznane? (Czy wiesz, że nasz Chatbot KOSMO do każdej wygenerowanej odpowiedzi dołącza od razu wykorzystane źródła?).

ZNAJDŹ DOWODY:

Jak w każdym śledztwie, również tutaj obowiązuje zasada: Czy istnieją dowody na przedstawioną wiadomość, a konkretnie na zawarte w niej twierdzenia i tezy? Czy pokazywana lub cytowana osoba w ogóle mogła być na miejscu?

PRZYJRZYJ SIĘ DOKŁADNIE:

Szczególnie w przypadku zdjęć i filmów należy się dokładnie przyjrzeć. Przynajmniej na razie obrazy i filmy generowane przez AI często nie są idealne. Występują nadliczbowe palce, nierealistyczne zęby, niepasujące szczegóły, takie jak na przykład biżuteria, która pojawia się znikąd. Szczególnie w przypadku filmów ruchy warg zazwyczaj nie pasują do ścieżki dźwiękowej lub mimika wydaje się nienaturalna. Również tło obrazu może być bardzo pouczające. Czy perspektywa pasuje? Czy zdjęcie mogło zostać zrobione z tego punktu widzenia? Jeśli istnieją wątpliwości co do pierwszej oceny, często warto przeprowadzić wyszukiwanie wsteczne – Google Lens oferuje na przykład możliwość wykorzystania zdjęć ze smartfona do wyszukiwania w Internecie. Alternatywnie można wprowadzić adres URL obrazu do dowolnej wyszukiwarki. Często można w ten sposób natknąć się na oryginalne zdjęcie, które zostało wykorzystane do stworzenia fałszywego filmu. Jeśli wiadomość dotyczy dużego wydarzenia, można założyć, że znajdzie się więcej zdjęć – w końcu prawie każdy ma dziś przy sobie smartfon z aparatem.

NASZE WNIOSKI:

W przyszłości wszyscy będziemy coraz częściej konfrontowani z coraz bardziej wiarygodnymi deepfakes. Tym ważniejsze jest, aby się na to przygotować i wiedzieć, jak rozpoznawać deepfakes.

WIĘCEJ NA TEN TEMAT:

Dalsze informacje na ten temat można znaleźć na przykład w rubryce #Faktenfuchs BR lub na stronie klicksafe.de. ZDF również poświęcił tematowi odcinek serii logo! i omówił go w sposób odpowiedni dla dzieci i młodzieży.