25 avril 2024

Votre Actualité au Quotidien

politique, médias, religieux, sport …Allez à l'essentiel

Les Français face au défi des deepfakes

Un sondage exclusif de l’IFOP pour Alucare.fr.

Avec les progrès époustouflants de l’intelligence artificielle, le monde est aujourd’hui quotidiennement confronté aux deepfakes, ces images et vidéos fictives au réalisme saisissant qui peuvent être utilisées à des fins de divertissement, mais aussi au service d’entreprises de désinformation ou de dénigrement à grande échelle.

Si de nombreuses personnalités publiques sont régulièrement visées par le détournement de leur image, les anonymes ne sont pas à l’abri, comme l’a montré récemment en Espagne le cas de très jeunes filles victimes de montages photos à caractère sexuel diffusés sur les réseaux sociaux.

Les Français ont-ils connaissance de ce phénomène ? Se sentent-ils capables d’y faire face ? Le craignent-ils pour eux-mêmes et la démocratie ?

Afin de le mesurer, Alucare a confié à l’IFOP le soin d’interroger plus de 2 000 personnes sur ce bouleversement à l’œuvre dans la manière dont nous percevons et percevrons la réalité dans l’avenir. Leurs réponses témoignent notamment de l’incertitude dans laquelle les plongent ces redoutables avancées technologiques, de leur volonté d’une identification claire des contenus concernés ou encore de leurs craintes d’y être confrontés à titre personnel ou lors de la prochaine élection présidentielle.

Distinguer le vrai du faux : une difficulté pour les deux tiers des Français

1- Enquête IFOP-FLASHS pour ALUCARE Deepfakes

Qu’ils ne soient pas réellement au fait des prouesses de l’intelligence artificielle ou, qu’au contraire, ils en connaissent la puissance, seulement un tiers (33%) des Français se sentent en capacité de détecter une image ou une vidéo générée par l’IA. Ils ne sont que 6% à en être sûrs, preuve de l’incertitude qui règne dans la population sur le sujet. Généralement plus à l’aise avec les technologies émergentes que leurs aînés, les jeunes sont ceux qui se proclament le plus à même de repérer un deepfake : plus de la moitié (55%) des 18-24 ans se disent dans ce cas contre 28% chez les plus de 35 ans et 12% chez les plus de 65 ans. Les hommes ont également bien plus confiance que les femmes dans leur sens de l’observation, 40% d’entre eux s’estimant capables de repérer de telles images contre 28% chez les femmes.

 

Test : des images plus trompeuses que d’autres

Le test proposé par l’IFOP illustre parfaitement la difficulté à discerner une image produite par l’intelligence artificielle d’une photo captée dans la vie réelle. Invités à examiner cinq images, les participants devaient indiquer lesquelles avaient été selon eux générées ou non par l’IA. Mais en réalité, toutes les images présentées étaient « fausses ».

2- Enquête IFOP-FLASHS pour ALUCARE Deepfakes

Photos IA

Le portrait particulièrement réaliste d’un médecin a ainsi trompé les trois quarts (75%) des répondants, tandis que près des deux tiers (64%) tenaient pour vraie une vieille photo d’un homme à cheval, typique des clichés réalisés au début du siècle dernier, mais entièrement composée par l’IA. En revanche, ils n’ont été que 32% à croire en la véracité de l’image d’une femme marchant dans les rues de Tokyo, image par ailleurs largement diffusée par la firme Open AI pour annoncer la sortie de son générateur de vidéos Sora. Régulièrement à la une de l’actualité pour ses démêlés avec la justice américaine, l’ancien président Donald Trump était quant à lui mis en scène entouré de près par plusieurs policiers. Cette « photo » a été jugée crédible par plus d’un Français sur quatre (29%), les femmes (32%) étaient légèrement plus nombreuses à croire en son authenticité que les hommes (27%). Enfin, l’image du pape François en doudoune blanche, largement publiée sur les réseaux sociaux voici quelques mois, n’a trompé que 13% des personnes interrogées. Finalement, 94% des répondants ont cru à la véracité d’au moins un des clichés qui étaient soumis à leur sagacité.

 

90% des Français pour une mention d’origine

3- Enquête IFOP-FLASHS pour ALUCARE Deepfakes

À l’évidence avertie des risques de désinformation inhérents à la propagation d’images tout à fait réalistes produites par l’IA, l’écrasante majorité (90%) des Français se prononce en faveur d’une mention permettant d’identifier les deepfakes comme ayant été créés artificiellement. Une attente plus forte chez les plus de 35 ans (93% y sont favorables) que chez leurs cadets (79% chez les 18-24 ans).

Des indices pas toujours simples à discerner

4- Enquête IFOP-FLASHS pour ALUCARE Deepfakes

En quelques années, voire quelques mois pour certains, les outils d’intelligence artificielle ont réalisé d’impressionnants progrès pour rendre leurs productions visuelles toujours plus réalistes. Toutefois, certains détails peuvent encore trahir la véritable nature de ces dernières, même si pour nombre d’entre eux, les Français restent circonspects. Le mouvement pas assez naturel des lèvres d’un personnage s’exprimant dans une vidéo constitue pour 59% des Français un indice qui leur semble assez simple à repérer. De même, le fait que les individus représentés ne clignent pas assez souvent des yeux est un bon indicateur pour un tiers (33%) des Français.

Dans une proportion similaire, 32% pointent les difficultés, avérées, mais de moins en moins d’actualité, des IA génératives d’images à reproduire correctement les mains. Une peau ridée ou trop plate (29%), des lunettes qui ne reflètent pas correctement la lumière (25%), des ombres autour des yeux pas assez précises (21%) ou encore un manque de pilosité à certains endroits du visage (15%) sont autant d’imperfections considérées comme de potentiels signaux d’alerte. Néanmoins, seule une minorité des répondants les juge aisés à débusquer.

 

Une connaissance partielle des deepfakes

De la chanteuse Taylor Swift, victime en début d’année de deepfakes à caractère pornographique, à la fausse annonce de la reddition des troupes ukrainiennes par le président Volodimir Zelensky en passant par la toute récente déclaration, factice elle aussi, d’Ursula von der Leyen sur les prochaines élections européennes, les vidéos générées par l’IA mettant en scène des personnes réelles se multiplient. Les stars et autres hommes et femmes politiques ne sont pas les seuls concernés : à Almendralejo, en Espagne, près d’une trentaine de jeunes filles âgées de 11 à 17 ans ont ainsi été la cible en septembre dernier de deepfakes les présentant nues.

5- Enquête IFOP-FLASHS pour ALUCARE Deepfakes

Face à ce phénomène grandissant et inquiétant, près de 7 Français sur 10 (69%) indiquent avoir déjà entendu parler des deepfakes, mais seulement 30% savent précisément de quoi il s’agit. À nouveau, ce sont les jeunes générations qui sont le plus au courant de ce mouvement : 83% des 18-24 ans (contre 66% des plus de 35 ans) en ont connaissance et 50% (contre 15% des plus de 65 ans) en ont une vision nette. L’écart entre les femmes et les hommes n’est par ailleurs pas négligeable : quand 24% des premières savent clairement ce que sont les deepfakes, 37% des seconds sont dans ce cas.

Un Français sur trois a déjà diffusé des fake news

6- Enquête IFOP-FLASHS pour ALUCARE Deepfakes

Deepfakes et fake news appartiennent à la même famille qui nourrit désinformation et manipulation de l’opinion publique. Une manipulation à laquelle une partie des Français reconnait participer, y compris à son insu. Ainsi, 31% des personnes interrogées (soit 7 points de plus que dans une étude BVA de 2019) ont déjà relayé auprès de leur entourage des informations qui se sont ensuite révélées fausses, les jeunes l’ayant plus fait (46%) que les autres tranches d’âge. En revanche, plus des trois quarts des plus de 50 ans disent n’avoir jamais agi en ce sens.

Une acceptation morale parfois douteuse

7- Enquête IFOP-FLASHS pour ALUCARE Deepfakes

On l’a vu, l’intelligence artificielle fournit aujourd’hui de multiples ressources en matière d’image, de vidéo ou encore de clonage de voix. Parmi les différentes utilisations de l’IA qui leur ont présentées dans cette enquête, aucune n’est jugée moralement acceptable par la majorité des Françaises et des Français. Les mieux acceptées sont respectivement la création de contenus « artistiques » par une intelligence artificielle (42% estiment cela moralement acceptable) et la retouche de photos sur les réseaux sociaux à l’aide de filtres (32%).

Plus étonnant – et certainement plus inquiétant aussi – 30% des personnes interrogées sont d’accord pour que l’IA serve à surveiller des actes de rébellion ou de dissidence de citoyens. En l’espèce, les jeunes y trouvent moins à redire que leurs aînés : ils sont en effet 34% chez les moins de 35 ans à trouver cette pratique acceptable contre 29% chez les plus de 35 ans. D’importantes différences générationnelles et de genre existent également sur la question de déshabiller des personnes grâce à l’IA pour s’amuser. Si seuls 9% des Français pris dans leur ensemble ne sont pas choqués par une telle utilisation, le chiffre montre à 17% chez les moins de 35 ans (et jusqu’à 26% des hommes dans cette tranche d’âge) contre 6% parmi leurs aînés. De même, les hommes sont 13% à juger moralement acceptable cette mise à nu artificielle contre 4% des femmes.

 

13% des moins de 25 ans en ont été victimes de deepfakes

8- Enquête IFOP-FLASHS pour ALUCARE Deepfakes

Conscients de la généralisation des outils offrant la possibilité de créer aisément des deepfakes, plus de la moitié des répondants (57%) expriment la crainte d’en être, eux aussi, victimes, ce qui a déjà été le cas pour 4% d’entre eux et 13% des moins de 25 ans. Si les plus jeunes sont effectivement les plus inquiets (64% des 18-24 ans redoutent de fausses images les concernant), les autres tranches d’âge ne sont pas vraiment plus sereines puisque 56% des plus de 25 ans en font également part.

 

Une menace pour l’élection présidentielle ?

9- Enquête IFOP-FLASHS pour ALUCARE Deepfakes

S’ils les craignent pour eux-mêmes, les Français appréhendent aussi que de telles pratiques puissent interférer avec la prochaine élection présidentielle, d’autant que d’ici à cette échéance, il est certain que les outils d’intelligence artificielle seront encore plus performants. Plus de 6 Français sur 10 (62%) se disent ainsi inquiets que des deepfakes puissent perturber le scrutin en 2027, dont 16% qui assurent en avoir très peur. Plus soucieux que la moyenne lorsqu’il s’agit du détournement de leur propre image, les jeunes le sont beaucoup moins quant au potentiel impact de fausses images lors de la campagne électorale : moins de la moitié (49%) des moins des 25 ans en ont peur alors que 70% des plus de 65 ans le redoutent.

Étude réalisée par l’IFOP pour Alucare.fr du 5 au 8 mars 2024 par questionnaire autoadministré auprès d’un échantillon de 2 191 personnes, représentatif de la population française âgées de 18 ans et plus, dont 551 jeunes de moins de 35 ans. 

Envoi par email
RSS