NOTRE SPLITBLOG DE FÉVRIER : LES DEEPFAKES ET COMMENT LES RECONNAÎTRE

Dans notre rubrique « Splitblog », nous reprenons, comme vous le savez, les suggestions de thèmes de notre équipe et nous les examinons souvent de manière critique, même lorsqu’il s’agit d’intelligence artificielle. Ce mois-ci, c’est moi, Katha, qui ai pu choisir un thème…

Si l’on regarde à droite et à gauche ces jours-ci, ou même simplement le smartphone que l’on a en main, on a de plus en plus souvent peur. Les informations sur les guerres, les crises, la politique intérieure allemande et mondiale, les attentats et autres menaces sont devenues incontournables dans les informations quotidiennes. Le populisme sous toutes ses formes et couleurs nous influence plus que nous ne le pensons souvent (notre recommandation : https://www.zdf.de/show/mai-think-x-die-show/maithink-x-folge-31-populismus-100.html). S’il était déjà assez difficile ces dernières années de reconnaître ce qui est un fait et ce qui est une fiction habilement placée, un autre défi s’ajoute de plus en plus souvent : les deepfakes.

QUE SONT LES DEEPFAKES AU JUSTE ?

Les deepfakes sont de fausses informations créées par l’intelligence artificielle. Il peut s’agir de simples textes et articles, mais aussi de photos, de fichiers audio ou de vidéos. Alors que la manipulation d’images (réussie) nécessitait jusqu’à présent une certaine expertise, il est de plus en plus facile de générer de faux contenus crédibles grâce aux outils d’IA disponibles gratuitement et en masse. Les deepfakes sont utilisés de manière ciblée pour diffuser de fausses informations, pour différentes raisons et par différents camps.

COMMENT RECONNAÎTRE LES DEEPFAKES ?

La question de savoir comment se protéger contre les deepfakes devient vraiment passionnante. En effet, en raison de l’amélioration constante et rapide de la technologie, ce n’est pas si simple. Ceux qui souhaitent tester leurs capacités à distinguer l’homme de la machine peuvent le faire par exemple ici : https://www.humanornot.ai/. Il existe divers outils, également basés sur l’IA, qui promettent de démasquer les contenus générés par l’IA. Malheureusement, aucun d’entre eux ne fonctionne de manière vraiment fiable jusqu’à présent. Que peut-on faire d’autre ?

VÉRIFIER LES FAITS :

Qu’il s’agisse de texte, d’image (animée) ou de son, essayez d’évaluer le plus objectivement possible si les affirmations contenues peuvent être vraies et logiquement cohérentes. S’il n’est pas possible de procéder à une évaluation indépendante, il vaut la peine de rechercher d’autres informations sur le sujet. Il est souvent utile de considérer les faits présumés sous différents angles. Les sites www.mimikama.org, www.correctiv.org ou d’autres portails de vérification des faits sont par exemple utiles.

VÉRIFIER LES SOURCES :

Un autre indice important de la fiabilité est l’origine de l’information en question. Qui diffuse cette information ? S’agit-il d’un portail médiatique sérieux ou l’origine est-elle inconnue ? (Le saviez-vous : notre chatbot KOSMO fournit directement les sources utilisées pour chaque réponse générée).

TROUVER DES PREUVES :

Comme pour toute enquête, la règle suivante s’applique ici aussi : existe-t-il des preuves de l’information présentée, respectivement des affirmations et des thèses contenues ? La personne montrée ou citée pouvait-elle être sur place ?

REGARDER DE PRÈS :

Il faut être particulièrement attentif aux photos et aux vidéos. Du moins pour le moment, les images et les vidéos générées par l’IA ne sont souvent pas parfaites. Il y a des doigts en surnombre, des dents irréalistes, des détails inappropriés, comme par exemple des bijoux qui apparaissent de nulle part. En particulier pour les vidéos, les mouvements des lèvres ne correspondent généralement pas à la bande sonore ou la mimique semble anormalement artificielle. L’arrière-plan de l’image peut également être très révélateur. La perspective est-elle correcte ? L’image a-t-elle pu être prise de ce point de vue ? Si la première évaluation de l’image ou de la vidéo est concluante, il est souvent utile d’effectuer une recherche inversée. Google Lens offre par exemple la possibilité d’utiliser des images du smartphone pour la recherche sur Internet. Il est également possible de saisir l’URL de l’image dans un moteur de recherche quelconque. On tombe souvent sur la photo originale qui a été utilisée pour créer une fausse vidéo. S’il s’agit d’un événement important, vous pouvez partir du principe que vous trouverez d’autres images, car presque tout le monde a aujourd’hui un smartphone avec un appareil photo sur lui.

NOTRE CONCLUSION :

Nous serons tous de plus en plus souvent confrontés à des deepfakes de plus en plus crédibles à l’avenir. Il est donc d’autant plus important de s’y préparer et de savoir comment reconnaître les deepfakes.

PLUS D’INFORMATIONS SUR LE SUJET :

Vous trouverez d’autres informations sur le sujet, par exemple dans la rubrique #Faktenfuchs de la BR ou sur klicksafe.de. La zdf a également consacré un épisode de la série logo ! au sujet et l’a traité de manière adaptée aux enfants et aux jeunes.