Éthique de l’IA

Comment la loi peut protéger les consommateurs face à la publicité mensongère optimisée par l’IA

Vous avez déjà vu une publicité pour un produit miracle qui disparaît des cernes en 3 jours, pour une cryptomonnaie promettant 500 % de rendement, ou pour un complément alimentaire aux vertus exagérées. Ces publicités, parfois trompeuses, ne sont pas nouvelles. Mais ce qui change avec l’intelligence artificielle, c’est leur capacité à être hyper-ciblées, personnalisées, optimisées en temps réel, et diffusées à grande échelle sur les réseaux sociaux et les plateformes programmatiques. L’IA permet aux annonceurs malveillants d’exploiter les vulnérabilités psychologiques des consommateurs, de contourner les filtres, et de s’adapter aux réactions du public. Face à ces nouvelles formes de manipulation, la loi peut-elle encore protéger les consommateurs ? Quels sont les textes existants (RGPD, DSA, IA Act, directive sur les pratiques commerciales déloyales) et comment évoluent-ils ? Cet article explore les défis juridiques de la publicité algorithmique et les pistes pour une régulation efficace.

Publié en : avril 2026

1. Qu’est-ce qu’une publicité mensongère optimisée par l’IA ?

La publicité mensongère — ou publicité trompeuse — est une pratique commerciale interdite consistant à présenter un produit ou un service de manière fausse, exagérée ou de nature à induire en erreur le consommateur sur ses caractéristiques essentielles (prix, qualité, composition, performance, disponibilité, etc.). L’optimisation par l’IA ajoute une couche supplémentaire de sophistication et d’efficacité à cette tromperie.

Concrètement, les algorithmes d’IA (machine learning, programmatique) permettent :

  • Un micro-ciblage extrêmement précis : l’IA identifie les consommateurs les plus vulnérables à un type de message (ex. personnes cherchant à perdre du poids, à s’enrichir rapidement, ou souffrant d’anxiété).
  • Une personnalisation dynamique : le message publicitaire s’adapte en temps réel aux réactions de l’utilisateur (clics, temps de lecture, abandon).
  • Un contournement des filtres : les algorithmes testent des milliers de variantes d’un message, apprennent quelles formulations passent les modérations des plateformes, et optimisent en conséquence.
  • Un déploiement à très grande échelle : une campagne trompeuse peut toucher des millions de personnes en quelques heures sur les réseaux sociaux, avec un coût très faible.
L’exemple type : les arnaques aux « suppléments miracle »

Une entreprise vend un complément alimentaire sans efficacité prouvée. Elle utilise l’IA pour cibler les personnes ayant recherché « perte de poids rapide » ou « brûleur de graisse ». L’algorithme génère des centaines de variantes de publicités, avec des témoignages faux, des photos avant/après truquées, et des offres limitées dans le temps. Les plateformes sociales sont inondées, et les consommateurs vulnérables dépensent des centaines d’euros pour un produit inutile.

Infographie de la publicité mensongère optimisée par l’IA

Infographie n°1 – Comment l’IA amplifie la publicité mensongère : micro-ciblage, personnalisation dynamique, contournement des filtres, déploiement massif.

2. Un phénomène en expansion : les chiffres 2026

La publicité trompeuse assistée par l’IA n’est pas un phénomène marginal. Les chiffres récents montrent son ampleur et sa croissance rapide.

1,2 Mds €
préjudice annuel estimé en France (2025)
DGCCRF, 2025
+47 %
de signalements pour publicité trompeuse en ligne (2024-2025)
Répression des Fraudes
34 %
des publicités programmatiques non conformes (étude 2025)
Adalytics

Selon la DGCCRF (Direction générale de la concurrence, de la consommation et de la répression des fraudes), les signalements pour publicité trompeuse en ligne ont augmenté de 47 % entre 2024 et 2025, avec un préjudice annuel estimé à plus de 1,2 milliard d’euros pour les consommateurs français. Les secteurs les plus touchés sont : les compléments alimentaires et cosmétiques (28 %), les formations et coaching en ligne (22 %), les cryptomonnaies et investissements (18 %), et les abonnements cachés (15 %).

Une étude d’Adalytics (2025) a analysé 10 000 campagnes publicitaires programmatiques : 34 % contenaient des éléments potentiellement trompeurs (fausses promotions, comptes à rebours factices, allégations non prouvées). Les plateformes les plus concernées sont Meta (Facebook, Instagram), TikTok et Google Display Network.

3. Techniques manipulatoires : dark patterns, micro-ciblage, influenceurs virtuels

Les publicitaires malveillants disposent d’un arsenal de techniques, amplifiées par l’IA, pour tromper les consommateurs.

Dark patterns (manipulation de l’interface)

Les dark patterns sont des interfaces conçues pour pousser l’utilisateur à faire des choix qu’il n’aurait pas faits en pleine conscience. Exemples : bouton de désabonnement caché, case à cocher pré-cochée pour un abonnement, faux comptes à rebours (« plus que 2 minutes pour profiter de cette offre »). L’IA permet de tester des milliers de variantes de dark patterns pour identifier ceux qui convertissent le mieux.

Micro-ciblage comportemental

L’IA analyse l’historique de navigation, les centres d’intérêt, les interactions sociales, et même les données biométriques (quand disponibles) pour identifier les moments de vulnérabilité (ex. personnes ayant récemment vécu un divorce, un deuil, une perte d’emploi). Les publicités sont alors personnalisées pour exploiter ces émotions.

Influenceurs virtuels et avatars IA

Des influenceurs entièrement générés par IA (comme Lil Miquela, Aitana Lopez, ou les avatars de marque) promeuvent des produits sans que le consommateur sache qu’il ne s’agit pas d’un humain. Ces influenceurs virtuels peuvent être programmés pour donner des témoignages positifs, répondre aux commentaires, et créer une illusion d’authenticité. En 2026, le marché des influenceurs virtuels dépasse 10 milliards de dollars, et une proportion croissante de leurs promotions est trompeuse (produits non testés, allégations fausses).

Infographie des techniques manipulatoires par IA

Infographie n°2 – Dark patterns, micro-ciblage, influenceurs virtuels : les nouvelles armes de la publicité trompeuse.

4. Conséquences pour les consommateurs

Les conséquences de ces pratiques sont multiples et peuvent être graves.

Préjudice financier direct

Le consommateur dépense de l’argent pour un produit ou un service qui ne correspond pas à ses attentes, voire qui est dangereux (compléments alimentaires non conformes, faux médicaments, crypto-arnaques). Les sommes en jeu peuvent être modestes (quelques dizaines d’euros) mais se cumulent sur des millions de consommateurs. Les cas de pertes importantes (plusieurs milliers d’euros) sont également fréquents dans les arnaques aux placements financiers ou aux formations professionnelles.

Atteinte à l’autonomie décisionnelle

La manipulation algorithmique prive le consommateur de sa capacité à faire un choix éclairé. Il n’achète pas parce que le produit est bon, mais parce qu’il a été psychologiquement manipulé. Cette atteinte à l’autonomie est particulièrement problématique pour les populations vulnérables (personnes âgées, isolées, en situation de fragilité financière ou psychologique).

Perte de confiance dans l’écosystème numérique

À force d’être exposé à des publicités trompeuses, le consommateur perd confiance dans les plateformes, les influenceurs, et le commerce en ligne en général. Cette défiance profite aux arnaqueurs (les consommateurs deviennent plus méfiants, mais aussi plus difficiles à toucher pour les entreprises honnêtes).

Cas concret : les faux comptes à rebours sur Booking

De nombreuses plateformes de réservation affichent des messages comme « Plus que 2 chambres disponibles à ce prix » ou « 15 personnes consultent cette offre ». Ces comptes à rebours sont souvent faux ou artificiellement créés par l’IA pour pousser à une décision rapide. La DGCCRF a condamné Booking à une amende de 3 millions d’euros en 2024 pour pratiques commerciales trompeuses.

5. Les lois existantes : RGPD, DSA, directive sur les pratiques commerciales déloyales

Plusieurs textes européens et nationaux encadrent déjà la publicité en ligne et peuvent être mobilisés contre les dérives de l’IA.

Directive sur les pratiques commerciales déloyales (2005/29/CE, révisée 2025)

Cette directive interdit les « pratiques commerciales trompeuses » et les « pratiques commerciales agressives ». Sa révision de 2025 (adoptée sous pression des associations de consommateurs) a ajouté des dispositions spécifiques sur : l’utilisation d’algorithmes pour manipuler les consommateurs (dark patterns interdits), l’obligation d’informer le consommateur lorsqu’il interagit avec une IA (chatbot, influenceur virtuel), et l’interdiction du micro-ciblage basé sur les vulnérabilités.

RGPD (Règlement général sur la protection des données, 2018)

Le RGPD encadre la collecte et l’utilisation des données personnelles à des fins publicitaires. Il impose : un consentement explicite pour le ciblage comportemental, un droit d’accès (savoir quelles données sont utilisées), un droit d’opposition (se désinscrire du ciblage). En 2025, l’EDPB (Comité européen de la protection des données) a précisé que les dark patterns violant le consentement éclairé sont interdits.

DSA (Digital Services Act, 2024)

Le DSA impose aux très grandes plateformes (Facebook, TikTok, YouTube, etc.) des obligations de transparence sur leurs systèmes de recommandation publicitaire. Elles doivent : publier des rapports sur les contenus publicitaires trompeurs, permettre aux utilisateurs de signaler facilement les publicités suspectes, et coopérer avec les autorités nationales (DGCCRF en France). Le DSA prévoit des amendes pouvant aller jusqu’à 6 % du chiffre d’affaires mondial.

Lois nationales (France : Code de la consommation)

En France, le Code de la consommation interdit les pratiques commerciales trompeuses (article L121-2 et suivants). La DGCCRF peut enquêter, infliger des amendes (jusqu’à 10 % du chiffre d’affaires pour les pratiques les plus graves), et ordonner la cessation de la publicité. En 2025, la DGCCRF a mené 380 enquêtes sur la publicité en ligne, avec 120 sanctions prononcées.

6 %
du CA mondial (DSA)
amende maximale
10 %
du CA (Code consommation français)
amende pour pratiques trompeuses
380
enquêtes DGCCRF (2025)
dont 120 sanctions

6. L’IA Act et la publicité algorithmique

Le règlement européen sur l’intelligence artificielle (IA Act, applicable depuis 2025) classe certains usages publicitaires comme « à haut risque » ou « inacceptables ».

Interdiction des systèmes d’IA manipulatifs

L’IA Act interdit les systèmes d’IA qui exploitent les vulnérabilités des personnes (âge, handicap, situation sociale ou économique) pour altérer leur comportement de manière susceptible de leur causer un préjudice. C’est le cas du micro-ciblage publicitaire exploitant les fragilités psychologiques. Les plateformes qui utilisent ces techniques s’exposent à des amendes de 15 millions d’euros ou 3 % du CA mondial.

Classification des systèmes de recommandation publicitaire

Les systèmes de recommandation à grande échelle (ceux des très grandes plateformes) sont classés comme « à haut risque » lorsqu’ils sont utilisés pour le profilage des consommateurs à des fins publicitaires. Ils doivent alors respecter des obligations : transparence (explicabilité des décisions), supervision humaine, audit régulier, et enregistrement dans une base de données européenne.

Interdiction de la notation sociale (social scoring)

L’IA Act interdit la notation sociale par les gouvernements, mais aussi par les entreprises privées pour discriminer les consommateurs (ex. attribuer un score de « fiabilité » pour moduler l’accès aux crédits ou aux assurances). Cette disposition vise indirectement certaines pratiques publicitaires trompeuses qui utilisent le profilage discriminatoire.

7. Deepfakes publicitaires : influenceurs virtuels et voix clonées

L’IA générative permet de créer des deepfakes publicitaires extrêmement réalistes : des vidéos d’influenceurs (ou de célébrités) qui n’ont jamais existé, ou des voix clonées de personnalités pour promouvoir des produits.

Influenceurs virtuels : une faille juridique ?

Les influenceurs virtuels (Lil Miquela, Aitana Lopez, etc.) posent une question juridique inédite : qui est responsable quand un avatar IA promeut un produit dangereux ou fait une allégation fausse ? L’influenceur virtuel n’a pas de personnalité juridique. Les créateurs de l’avatar et les marques qui le rémunèrent sont responsables, mais la traçabilité est parfois difficile. Le DSA impose désormais que toute publicité diffusée par un influenceur virtuel soit clairement identifiée comme « générée par IA ».

Clonage de voix pour des témoignages falsifiés

Des entreprises malveillantes clonent la voix d’un médecin réputé, d’une célébrité, ou d’un « expert » fictif pour créer des témoignages publicitaires falsifiés (ex. « ce complément alimentaire a été recommandé par le Dr X »). La loi française (loi sur la manipulation de l’information) et le DSA commencent à encadrer ces pratiques, mais la détection technique reste difficile.

Obligation de transparence (DSA + IA Act)

Depuis 2025, toute publicité générée ou modifiée par IA (image, vidéo, audio) doit être clairement identifiée comme telle. Les plateformes doivent mettre en place des systèmes de signalement et de retrait rapide. Le non-respect expose à des amendes pouvant atteindre 6 % du chiffre d’affaires mondial.

8. La difficulté de la preuve et les actions collectives

L’un des principaux défis pour les consommateurs victimes de publicité trompeuse par IA est la preuve. Comment démontrer qu’une publicité était trompeuse si elle a été diffusée de manière éphémère, personnalisée, et sans laisser de trace ?

L’éphémérité des publicités programmatiques

Une publicité ciblée par IA peut n’être montrée qu’à quelques centaines de personnes, pendant quelques heures, puis disparaître. Le consommateur qui veut porter plainte doit avoir conservé une capture d’écran, preuve souvent difficile à rapporter a posteriori.

Le rôle des associations de consommateurs et des actions collectives

Face à ces difficultés, les associations de consommateurs (UFC-Que Choisir, CLCV, Foodwatch) jouent un rôle clé. Elles peuvent mener des enquêtes, collecter des témoignages, et engager des actions collectives (class actions) au nom de l’ensemble des consommateurs lésés. En France, la loi Hamon (2014) et la loi Justice du XXIe siècle (2016) ont introduit l’action de groupe, encore peu utilisée mais qui se développe.

L’IA au service de la preuve (investigation algorithmique)

Paradoxalement, l’IA peut aussi aider à la preuve. Des outils de « web scraping » et d’analyse algorithmique permettent de détecter des campagnes publicitaires trompeuses à grande échelle, d’identifier leurs schémas, et de rassembler des preuves. Les autorités (DGCCRF, FTC) commencent à utiliser ces outils.

9. Recommandations pour renforcer la protection des consommateurs

Face à l’évolution rapide des techniques, plusieurs pistes d’amélioration sont discutées.

Renforcer les moyens des autorités de contrôle

La DGCCRF et ses homologues européennes manquent de moyens face à la masse des publicités programmatiques. Un investissement dans des équipes spécialisées (data scientists, juristes du numérique) et des outils d’investigation algorithmique est nécessaire.

Imposer un registre public des publicités ciblées

Sur le modèle de la « Meta Ad Library », toutes les plateformes devraient maintenir un registre public des publicités ciblées, accessible aux chercheurs et aux associations, avec les critères de ciblage et les performances. Le DSA l’impose déjà pour les très grandes plateformes, mais son application reste perfectible.

Interdire le micro-ciblage basé sur les données sensibles

Le ciblage basé sur les données de santé, les opinions politiques, la religion, l’orientation sexuelle, ou les vulnérabilités psychologiques devrait être interdit, sauf consentement explicite et démonstration de l’absence de caractère trompeur. L’IA Act interdit déjà l’exploitation des vulnérabilités, mais la définition est floue.

Sanctions dissuasives et responsabilisation des plateformes

Les amendes actuelles (quelques millions d’euros) sont insuffisantes face aux gains potentiels des campagnes trompeuses. Le DSA (6 % du CA mondial) et le Code de la consommation (10 % du CA) prévoient des plafonds élevés, mais ils sont rarement appliqués à ce niveau. Une application plus ferme est nécessaire.

Recommandation pour les consommateurs

Face à une publicité suspecte : 1) Méfiez-vous des offres trop belles (miracle, rendement exceptionnel). 2) Vérifiez l’identité de l’annonceur (site officiel, mentions légales). 3) Recherchez des avis indépendants (pas seulement les témoignages du site). 4) Signalez la publicité à la plateforme (bouton « signaler ») et à la DGCCFR (site SignalConso). 5) Conservez une capture d’écran pour la preuve.

Infographie des régulations contre la publicité trompeuse par IA

Infographie n°3 – Les textes applicables : RGPD, DSA, IA Act, Code de la consommation. Sanctions et obligations.

10. FAQ — Publicité mensongère par IA

Que faire si je suis victime d’une publicité trompeuse sur Facebook ou Instagram ?

Plusieurs actions : 1) Signalez la publicité à Meta via le bouton « … » en haut à droite de l’annonce. 2) Conservez une capture d’écran. 3) Signalez sur SignalConso (site de la DGCCRF). 4) Si vous avez acheté un produit, contactez votre banque pour une opposition de paiement (droit de rétractation). 5) En cas de préjudice important, consultez une association de consommateurs (UFC-Que Choisir, CLCV) ou un avocat. Les plateformes sont légalement responsables du contenu publicitaire qu’elles hébergent (DSA).

Les influenceurs virtuels sont-ils légaux ?

Oui, les influenceurs virtuels sont légaux, mais leurs promotions doivent respecter les mêmes règles que les influenceurs humains : transparence (indiquer qu’il s’agit d’un avatar IA), honnêteté (ne pas faire d’allégations fausses), et respect du droit des consommateurs. Depuis le DSA (2024), toute publicité diffusée par un influenceur virtuel doit être étiquetée « générée par IA » ou « avatar virtuel ». Les créateurs de l’avatar sont responsables des contenus trompeurs.

Quelle est l’amende maximale pour publicité trompeuse par IA ?

Les amendes varient selon le texte applicable : DSA (6 % du chiffre d’affaires mondial de la plateforme), IA Act (15 millions d’euros ou 3 % du CA mondial), Code de la consommation français (10 % du CA). En pratique, les amendes prononcées sont souvent plus faibles (quelques centaines de milliers à quelques millions d’euros), mais la tendance est à la hausse. En 2025, une société de compléments alimentaires a été condamnée à 2,5 millions d’euros par la DGCCRF pour publicité trompeuse sur TikTok.

Le ciblage publicitaire par IA est-il illégal ?

Non, le ciblage publicitaire par IA est légal lorsqu’il respecte le RGPD (consentement, transparence) et qu’il n’est pas trompeur. Ce qui est interdit, c’est le micro-ciblage qui exploite les vulnérabilités des personnes (âge, handicap, fragilité psychologique) pour les manipuler (IA Act, article 5). Le ciblage basé sur les données sensibles (santé, politique, religion) est également interdit sans consentement explicite.

Comment les autorités détectent-elles les publicités trompeuses à grande échelle ?

Les autorités (DGCCRF, FTC) utilisent des outils de « web scraping » et d’analyse algorithmique. Des programmes parcourent automatiquement les plateformes à la recherche de mots-clés suspects (« miracle », « 100 % naturel », « remboursement garanti »), de dark patterns (faux comptes à rebours), ou de contenus générés par IA non étiquetés. Ils croisent ensuite avec des bases de données de signalements consommateurs (SignalConso) pour prioriser les enquêtes. C’est une « IA contre IA ».

Les consommateurs peuvent-ils se regrouper pour attaquer les publicitaires ?

Oui, depuis la loi Hamon (2014) et la loi Justice du XXIe siècle (2016), l’action de groupe (class action) existe en droit français. Une association de consommateurs agréée peut intenter une action au nom de l’ensemble des consommateurs victimes d’une même pratique trompeuse. Les dommages et intérêts sont ensuite répartis entre les victimes. Cette procédure est encore peu utilisée pour la publicité en ligne, mais plusieurs actions sont en préparation.

Décryptez les enjeux de demain
Vie privée, biais algorithmiques et régulation : engagez-vous dans le débat avec notre : Guide Éthique, Société et Réglementation de l'IA.

Sources

  • DGCCRF – Rapport d’activité 2025 : lutte contre la publicité trompeuse en ligne (2026)
  • Adalytics – Programmatic advertising compliance study (2025)
  • Commission européenne – Directive sur les pratiques commerciales déloyales (révision 2025)
  • IA Act – Règlement européen sur l’intelligence artificielle (2024-2026)
  • DSA – Digital Services Act (2024, mise en œuvre 2025-2026)
  • EDPB – Lignes directrices sur les dark patterns et le consentement (2025)
  • UFC-Que Choisir – Enquête sur les influenceurs virtuels et la publicité trompeuse (2025)
  • CNIL – Ciblage publicitaire et protection des données (2025)
  • European Consumer Organisation (BEUC) – AI and deceptive advertising (2025)
 

Recevez la veille IA & Data qui compte vraiment

 

    Analyses claires, outils concrets et tendances IA sans bruit.     Rejoignez les lecteurs de IANA Data.