lundi 11 août 2025

DeepFake

 Revue de presse, 11 août, - 2 -

Par Zeynep Tufekci
Publié dans The New York Times
La semaine dernière, l’animateur de télévision Chris Cuomo a publié sur les réseaux sociaux une vidéo censée montrer la représentante Alexandria Ocasio-Cortez, à la tribune de la Chambre, dénonçant comme raciste une publicité de jeans American Eagle avec Sydney Sweeney.
« Rien à propos du Hamas ou de gens incendiant des voitures de Juifs, » a écrit Cuomo dans son post sur X. « Mais la pub de jeans de Sweeney ? Ça méritait du temps au Congrès ? Qu’est-il arrivé à ce parti ? Battez-vous pour les petites entreprises… pas pour de petites guerres culturelles. »
Sauf qu’Ocasio-Cortez n’avait jamais prononcé ce discours. La vidéo était un deepfake, générée par intelligence artificielle. Cuomo a supprimé son post, mais pas avant qu’elle ne le réprimande pour « avoir republié des mèmes Facebook et appelé ça du journalisme. »
« Veuillez utiliser vos capacités de pensée critique, » ajouta-t-elle.
Ocasio-Cortez a raison de dire que cela n’aurait pas dû se produire, mais elle se trompe sur le remède. Et il en va de même pour de nombreuses autres personnes bien intentionnées qui pensent que « la pensée critique » ou « l’éducation aux médias » nous aideront à détecter les fausses vidéos. Ces méthodes sont déjà insuffisantes, et bientôt elles seront totalement inutiles, car la technologie ne cesse de s’améliorer.
Dans ce cas précis, Cuomo pouvait — et devait — vérifier si Ocasio-Cortez avait réellement prononcé ce discours. Cela aurait été facile, puisque les discours au Congrès sont publiés et faciles à consulter. La plupart des cas ne sont pas si simples. Ou on peut avoir de la chance et repérer un défaut évident, comme les doigts supplémentaires qu’on voyait dans les premières images d’IA. Mais à mesure que la génération de vidéos par IA progresse, ces défauts se font plus rares.
En outre, les faussaires déterminés peuvent, eux aussi, appliquer des « compétences de pensée critique » pour éliminer les contrefaçons de mauvaise qualité. Et sinon, il existe des programmes d’IA qui peuvent le faire pour eux. Il est désormais si rapide et bon marché de générer une vidéo ou un audio imitant n’importe qui dans n’importe quel contexte, disant ou faisant ce qu’on veut, qu’on peut facilement en produire des dizaines et choisir le meilleur.
Les photos avaient depuis longtemps perdu leur valeur de preuve définitive, car elles sont faciles à manipuler. L’audio, lui aussi, devient de plus en plus simple à falsifier. La vidéo était l’un des derniers bastions de la vérification, précisément parce qu’il était difficile de la truquer. Désormais, pour être sûr d’un fait que l’on n’a pas constaté soi-même, il faut trouver une source réputée et vérifier. Oui, mais qu’est-ce qu’une source réputée ? Et c’est là que se trouve le cœur du problème pour notre société.
Faire confiance aux autorités ? Bonne chance. Les autorités ne sont pas toujours honnêtes ni correctes ; en faire l’arbitre final et unique ne se terminera pas bien. Au plus fort de la désinformation sur les vaccins, en 2021, la sénatrice Amy Klobuchar avait proposé un projet de loi donnant au secrétaire de la Santé et des Services sociaux le pouvoir de définir ce qui constitue une désinformation sanitaire et de limiter les protections de la section 230 afin que les plateformes de médias sociaux puissent être tenues responsables de sa diffusion. L’intention se comprend, mais la science se révise constamment (et les scientifiques ne sont pas immunisés contre la tentation de déformer les faits) ; ce qui paraît être de la désinformation une année peut devenir un consensus l’année suivante, et inversement. Et si cette loi était passée, c’est aujourd’hui Robert F. Kennedy Jr. qui exercerait ce pouvoir.
Les cas qui font du bruit concernent généralement des personnalités ou des sujets très médiatisés. En mai 2023, une image générée par IA montrant une grande explosion près du Pentagone s’est propagée sur Twitter comme une nouvelle de dernière minute. Elle a ensuite été amplifiée par de nombreux comptes « vérifiés » influents. Les pompiers d’Arlington, en Virginie, où se trouve le Pentagone, ont rapidement publié un message affirmant qu’il n’y avait pas d’incendie. Le marché boursier s’est redressé après la perte subie pendant ces quelques minutes — ouf, n’est-ce pas ? Juste une chute estimée à 500 milliards de dollars de la valeur du S&P, avant rebond… une perte pour certains, un gain pour d’autres.
Fait intéressant, le seul domaine où les deepfakes se sont révélés moins nuisibles que prévu est celui des élections — mais ce n’est pas parce que les gens ont été trop critiques pour se laisser berner. Au contraire, beaucoup sont tellement prêts à croire le pire des politiciens qu’ils n’aiment pas que des photoshops grossiers, des sites « d’info » manifestement faux et les plus absurdes captures d’écran suffisent à atteindre leur but. Quand on cherche avant tout à conforter ses intuitions tribales, le réalisme de la falsification importe peu.
En général, plus l’enjeu est important et plus le sujet est en vue, plus il y aura d’efforts pour corriger les deepfakes et autres falsifications.
Mais qu’en est-il du reste d’entre nous ? Que se passe-t-il si la vidéo en question ne concerne pas une personnalité très suivie par des sources fiables, mais une affaire personnelle ou une communication privée ? Et si elle semble montrer quelqu’un en train de tricher, de voler ou de mentir ? Ou au contraire, si elle semble les innocenter ? On n’a pas besoin de beaucoup d’imagination pour comprendre le chaos que cela peut provoquer : devant les tribunaux, dans la vie personnelle, dans les relations sociales.
Pris en flagrant délit de rayer la voiture du voisin ? Dites simplement que c’était un deepfake. Ou fabriquez-en un montrant quelqu’un d’autre commettant l’acte. C’est votre parole contre la leur. Ou peut-être que c’était vraiment un deepfake. Comment le prouver ?
Aussi grave qu’une situation où toutes les sources, aussi douteuses soient-elles, peuvent revendiquer la vérité, serait une situation où une seule source détient ce privilège. Je crains un futur où le gouvernement déploierait toujours plus de dispositifs de surveillance et établirait des règles strictes de traçabilité garantissant que seules ses vidéos et affirmations seraient acceptées en justice. Les siennes, bien sûr. Pour notre bien.
En 1971, Herbert Simon — lauréat du prix Nobel d’économie et de l’équivalent informatique, le prix Turing — a formulé l’une des plus grandes intuitions sur les effets du passage, grâce à la technologie, d’un régime de rareté à un régime d’abondance. Évoquant la nouvelle profusion d’informations née de l’imprimerie, des médias de masse et des ordinateurs, il notait que « la richesse d’informations signifie la pauvreté de quelque chose d’autre : la rareté de ce que consomme l’information. » Il parlait de l’attention, aujourd’hui la ressource la plus précieuse.
La technologie favorise le progrès en rendant faciles et omniprésentes des choses qui étaient rares et difficiles. Mais la rareté et la difficulté servaient souvent de garde-fous. Pensez à l’argent liquide : il fonctionne non pas parce qu’il est impossible de faire un faux convaincant, mais parce qu’il est très difficile d’en produire. Certes, les barrières que créent la rareté et la difficulté ne sont pas parfaites. Elles ont parfois freiné la diffusion de connaissances utiles. Mais elles remplissaient aussi une fonction — presque une fonction évolutive — en nous aidant à distinguer le vrai de l’évidemment faux. Nous avons bâti une grande partie de notre société sur cette capacité. Nous ne sommes pas prêts pour un monde où ces barrières n’existent plus.
Ayant grandi en Turquie, avant Internet, j’ai épuisé tous les livres à lire (vraiment) et les ai relus encore et encore. Aujourd’hui, la rareté d’informations est une notion fictive, une chose que des vieux racontent à des enfants perplexes. Il est désormais impossible d’imaginer manquer de choses à lire — ou à regarder, à cliquer, à « downvoter », à republier ou à acheter. Mais la journée ne compte toujours que 24 heures, donc protégez votre attention à tout prix. Simon avait raison.
L’autre ressource cruciale que rend rare l’abondance d’informations facilement générées est la crédibilité. Et c’est particulièrement flagrant pour les photos, l’audio et la vidéo, car ce sont des éléments clés pour juger des affirmations sur la réalité. Si on perd ça, on perd la réalité.
Ce serait bien si, comme les membres du Congrès ou les grandes organisations médiatiques, nous avions tous une équipe capable de réfuter les fausses accusations et de protéger notre réputation, contribuant ainsi à préserver les faits. Comme nous ne l’avons pas, nous devons trouver d’autres modèles accessibles à tous. Les scientifiques et certains acteurs de la tech ont élaboré des cadres prometteurs — tels que les preuves à divulgation nulle de connaissance (zero-knowledge proofs), les enclaves sécurisées, les jetons d’authentification matérielle utilisant la cryptographie à clé publique, les registres distribués, etc. — sur lesquels il y aurait encore beaucoup à dire. D’autres outils pourraient encore voir le jour. Mais si nous ne prenons pas cette nécessité au sérieux dès maintenant, avant de perdre ce qui reste de preuve d’authenticité et de vérification, les gouvernements combleront le vide. Et s’ils ne sont pas déjà dirigés par des autoritaires, il y a fort à parier qu’ils le deviendront vite.

Aucun commentaire:

Enregistrer un commentaire

DeepFake

  Revue de presse, 11 août, - 2 - Par Zeynep Tufekci Publié dans The New York Times La semaine dernière, l’animateur de télévision Chris Cuo...