À une époque dominée par les médias numériques, l’émergence des deepfakes a suscité de vives inquiétudes quant à l’authenticité et à la fiabilité des contenus en ligne. Ces manipulations devenant de plus en plus sophistiquées, il devient crucial de comprendre et d’identifier les contenus artificiellement manipulés pour lutter contre la désinformation et préserver la confiance dans les médias numériques.
Qu’est-ce qu’un deepfake ?
Ces contenus s’appuient sur des algorithmes d’apprentissage profond, en particulier les réseaux adversaires génératifs (GAN), pour manipuler ou générer des images, du son et des vidéos hyperréalistes. En analysant et en synthétisant de grandes quantités de données, ces algorithmes peuvent modifier de manière convaincante les expressions faciales, les gestes et les caractéristiques de la voix.
Ils peuvent représenter des personnes disant ou faisant des choses qu’elles n’ont jamais faites en réalité. Développée à l’origine à des fins de divertissement, cette technologie a depuis été exploitée à des fins malveillantes, notamment pour diffuser de fausses informations, diffamer des personnes et commettre des fraudes.
Reconnaître les deepfakes
Pour détecter les contenus modifiés, il faut faire preuve de discernement et se familiariser avec les signes révélateurs de la manipulation. Voici quelques indicateurs clés à surveiller :
1. Mouvements faciaux non naturels : Les contenus artificiellement manipulés présentent souvent des irrégularités subtiles dans les expressions faciales ou les mouvements des lèvres, qui semblent légèrement décalés par rapport à l’audio. Recherchez des incohérences dans les clignements d’yeux, les mouvements des muscles du visage et la synchronisation des lèvres, qui peuvent être le signe d’une manipulation numérique.
2. Artefacts visuels : Lors de l’examen d’images ou de vidéos suspectées d’être des deepfakes, prêtez attention aux anomalies visuelles telles que la pixellisation, le flou ou la distorsion autour du visage ou du corps du sujet. Ces artefacts peuvent résulter de la reproduction imparfaite des caractéristiques et des mouvements naturels par les algorithmes d’IA.
3. Dans les contenus de deepfake avec synthèse audio, des divergences peuvent apparaître entre les mouvements des lèvres de l’orateur et les modèles de discours correspondants. Analysez si la voix de l’orateur s’aligne parfaitement avec ses mouvements de lèvres et ses expressions faciales, car des incohérences peuvent être le signe d’une falsification.
4. Analyse contextuelle : Examinez le contexte dans lequel le contenu est présenté. Évaluez la source du matériel, y compris la crédibilité de l’auteur du téléchargement et les métadonnées ou preuves corroborantes qui l’accompagnent. Les contenus artificiellement manipulés manquent souvent de sources ou de contexte vérifiables, ce qui suscite des doutes quant à leur authenticité.
5. Recherches inversées d’images et de vidéos : Utilisez des outils de recherche inversée d’images et de vidéos pour vérifier l’origine des contenus suspects. En recoupant des images ou des séquences vidéo avec des bases de données accessibles au public, vous pouvez découvrir des cas de réutilisation ou de manipulation.
7 célébrités victimes de Deepfake
De Taylor Swift à Scarlett Johanson, en passant par Alia Bhatt et bien d’autres encore, voici un tour d’horizon de quelques célébrités récemment victimes de ce phénomène.
1. Taylor Swift et la diffusion de faux contenus sexuellement explicites
2. Sachin Tendulkar et l’abus de son héritage sportif
3. La prestation Garba du Premier ministre indien Narendra Modi
4. L’escroquerie de MrBeast avec son iPhone à 2 $US
5. Donald Trump va en prison dans un monde de deepfake
6. Le corps d’Alia Bhatt superposé à un mannequin
7. La fausse publicité promotionnelle de Scarlett Johanson