Éthique de l’IA

Vie privée et assistants vocaux : que révèlent vos données ?

« Alexa, quelle est la météo ? », « OK Google, allume la lumière », « Dis Siri, rappelle-moi d’appeler le médecin » — chaque jour, des millions de personnes confient des informations à leurs assistants vocaux. Mais que deviennent ces enregistrements ? Qui peut les écouter ? Combien de temps sont-ils conservés ? Et surtout, que révèlent-ils vraiment de notre vie privée ? Entre confort d’utilisation et protection des données personnelles, le choix n’est pas toujours simple. Cet article explore en détail les pratiques d’Amazon (Alexa), Google (Assistant) et Apple (Siri) en matière de collecte, de stockage et d’exploitation des données vocales. Vous découvrirez ce que chaque assistant sait de vous, les risques réels, et les gestes simples pour reprendre le contrôle.

Publié en : avril 2026

1. Ce que les assistants vocaux collectent réellement

Contrairement à une idée reçue, les assistants vocaux n’enregistrent pas en permanence. Ils « écoutent » en continu (via un buffer mémoire local) uniquement pour détecter le mot de réveil (« Alexa », « OK Google », « Dis Siri »). Ce n’est qu’après la détection du mot de réveil que l’enregistrement commence, et qu’il est envoyé aux serveurs du fabricant pour traitement. Mais une fois dans les serveurs, que deviennent ces enregistrements ?

Les enregistrements vocaux

Chaque commande vocale est stockée sur les serveurs du fabricant (Amazon, Google, Apple). L’enregistrement audio est conservé, généralement associé à votre compte utilisateur. Vous pouvez consulter l’historique de vos commandes (sur Amazon Alexa app, Google Mon activité, ou dans les réglages Siri). Les durées de conservation varient : par défaut, jusqu’à ce que vous les supprimiez manuellement, ou avec une suppression automatique paramétrable (3, 18 ou 36 mois selon les services).

Les données contextuelles

Au-delà de l’audio, les assistants collectent : votre localisation approximative (si vous demandez la météo), vos adresses (maison/travail), votre agenda (Google, Apple), votre historique d’achats (Amazon), vos contacts (si vous autorisez l’accès), et les conversations ambientales (lors des réveils accidentels).

Milliards
de commandes vocales stockées par Amazon, Google et Apple
estimations 2026
15-30 secondes
durée moyenne d’un enregistrement vocal
confidentialité CNIL
0,5-2 %
des enregistrements réécoutés par des humains (Amazon/Google)
révélations 2019-2020

Infographie des données collectées par les assistants vocaux

Infographie n°1 – Les cinq catégories de données collectées : enregistrements vocaux, localisation, agendas, contacts, historique d’achats.

2. Comparaison : Alexa vs Google Assistant vs Siri

Les trois principaux assistants ont des politiques de confidentialité très différentes. Voici un comparatif détaillé.

Critère Amazon Alexa Google Assistant Apple Siri
Modèle économique \n Vente de produits + publicité ciblée (Amazon Ads) \n Publicité ciblée (Google Ads) + services \n Vente de matériel (iPhone, HomePod) + services (Apple Music, iCloud) \n
Traitement par défaut \n Cloud (serveurs Amazon) \n Cloud (serveurs Google) \n Sur l’appareil (on-device) pour la plupart des commandes ; cloud pour les requêtes complexes \n
Écoute humaine par défaut \n Oui, sauf désactivation (pour amélioration des modèles) \n Oui, sauf désactivation (pour amélioration des modèles) \n Non (sauf consentement explicite) \n
Conservation des enregistrements \n Jusqu’à suppression manuelle, ou suppression auto (3 ou 18 mois) \n Jusqu’à suppression manuelle, ou suppression auto (3, 18 ou 36 mois) \n Non conservés par défaut (sauf option pour améliorer Siri) \n
Utilisation pour publicité ciblée \n Oui (Amazon utilise les données pour recommandations produits) \n Oui (Google utilise les données pour profilage publicitaire) \n Non (pas de publicité ciblée basée sur Siri) \n
Verdict rapide

Apple Siri est le champion de la vie privée : traitement sur l’appareil, pas d’écoute humaine par défaut, enregistrements non conservés. Google Assistant et Amazon Alexa collectent beaucoup plus de données, mais offrent des contrôles (suppression automatique, désactivation de l’écoute humaine). Si la vie privée est votre critère numéro 1, choisissez Siri.

3. À quoi servent vos données ? Utilisations et revente

Pour améliorer les modèles de reconnaissance vocale

La raison officielle et légitime : vos enregistrements aident à entraîner les algorithmes à mieux comprendre les accents, les variations de débit, le bruit ambiant. Chez Amazon et Google, des extraits (anonymisés) sont écoutés par des humains (sous-traitants) pour vérifier la transcription. Cette pratique a fait scandale lorsqu’elle a été révélée en 2019. Aujourd’hui, vous pouvez désactiver l’écoute humaine dans les paramètres.

Pour le profilage publicitaire (Amazon et Google)

Amazon utilise votre historique vocal pour vous recommander des produits. Google associe vos commandes vocales à votre profil publicitaire pour afficher des annonces ciblées. La question « OK Google, quelle est la meilleure lessive ? » peut influencer les publicités que vous verrez ensuite. Apple, en revanche, n’utilise pas les données de Siri pour la publicité ciblée.

Pour les partenaires tiers (skills Alexa)

Les « skills » Alexa (applications tierces) peuvent collecter des données vocales. Amazon exige des développeurs qu’ils publient une politique de confidentialité, mais la vérification est imparfaite. Certaines skills ont été épinglées pour avoir collecté des données sans consentement explicite.

4. Les risques : écoutes humaines, piratage, fuites de données

Infographie des risques pour la vie privée avec les assistants vocaux

Infographie n°2 – Les quatre risques majeurs : écoutes humaines, piratage, réveils accidentels, fuites de données.

Réveils accidentels (false wake) et enregistrements intempestifs

L’assistant peut se réveiller sans que vous ayez prononcé le mot de réveil. Une publicité à la télévision prononçant un mot proche, une conversation anodine, ou un bruit ambiant — l’assistant peut enregistrer quelques secondes de conversation privée sans votre consentement. Ces enregistrements sont envoyés aux serveurs. Amazon et Google ont reconnu des millions de réveils accidentels. Vous pouvez consulter votre historique pour identifier ces faux positifs et les supprimer.

Écoutes humaines (transcription par des sous-traitants)

Entre 2019 et 2020, des révélations ont montré que des sous-traitants d’Amazon, Google et Apple écoutaient des milliers d’enregistrements vocaux, y compris des conversations intimes (chambres à coucher, disputes, informations médicales). Apple a suspendu cette pratique et a rendu l’écoute humaine optionnelle (opt-in). Amazon et Google permettent de désactiver l’écoute humaine, mais elle est active par défaut.

Piratage et fuites de données

Les enregistrements vocaux sont stockés sur des serveurs. Comme toute donnée numérique, ils peuvent être piratés. Aucune fuite massive de données vocales n’a été rendue publique à ce jour, mais des chercheurs ont démontré qu’il est possible d’extraire des enregistrements via certaines vulnérabilités. Le risque est faible, mais non nul.

5. Les affaires qui ont fait scandale

2019 : Amazon, Google et Apple épinglés pour écoute humaine

Des lanceurs d’alerte (Bloomberg, The Guardian,比利时) révèlent que des milliers d’enregistrements vocaux sont écoutés par des sous-traitants. On entend des conversations privées, des enfants, des moments intimes. Les trois géants suspendent temporairement la pratique et modifient leurs politiques. Amazon et Google introduisent une option pour désactiver l’écoute humaine ; Apple rend l’option opt-in.

2021 : Amazon condamné à 30 millions d’euros d’amende par la CNIL

La CNIL sanctionne Amazon pour collecte excessive de données vocales et non-respect du consentement. Amazon conserve les enregistrements indéfiniment par défaut (jusqu’à suppression manuelle) et ne permettait pas une suppression automatique simple.

2023 : Google devant la justice américaine pour collecte non consentie

Un recours collectif (class action) accuse Google d’avoir collecté des enregistrements vocaux d’enfants via ses enceintes Nest, sans consentement parental. Google a payé une amende de 10 millions de dollars et a modifié ses conditions d’utilisation.

6. Que révèlent vos enregistrements ? Vie quotidienne sous surveillance

Un enregistrement vocal peut révéler bien plus que vous ne l’imaginez. Des chercheurs ont analysé des milliers de commandes et en ont extrait des informations sensibles.

  • Vos horaires de présence : « Alexa, allume la lumière » à 7h30 et « Alexa, éteins tout » à 22h révèlent vos heures de lever et coucher.
  • Vos habitudes médicales : « Dis Siri, rappelle-moi de prendre mes médicaments » (ordonnance).
  • Vos habitudes alimentaires : « OK Google, ajoute du lait à la liste de courses ».
  • Votre situation financière : « Alexa, quel est le solde de mon compte Amazon ? ».
  • Vos relations personnelles : « Dis Siri, appelle maman ».
  • Vos déplacements : « OK Google, calcule l’itinéraire pour aller au travail » (adresse professionnelle, habitudes de trajet).
Données agrégées : un profilage très précis

À l’unité, une commande n’est pas très révélatrice. Mais agrégées sur des mois, les données permettent de dresser un profil très précis de votre vie quotidienne : heures de réveil, moments d’absence, habitudes alimentaires, centres d’intérêt, état de santé, relations familiales. C’est cette agrégation qui intéresse les annonceurs (Amazon, Google). Apple, en ne conservant pas les données par défaut, limite considérablement ce profilage.

7. Cadre juridique : RGPD, AI Act et protection des consommateurs

Les assistants vocaux sont soumis à des régulations en Europe, mais leur application reste perfectible.

RGPD (Europe, depuis 2018)

Le RGPD impose : une information claire sur la collecte, un consentement explicite (pas de cases pré-cochées), un droit d’accès (consulter vos enregistrements), un droit d’effacement (les supprimer), et un droit d’opposition (refuser certaines utilisations). Les amendes peuvent atteindre 20 millions d’euros ou 4 % du CA mondial. La CNIL a déjà sanctionné Amazon (30 M€) et Google (50 M€ en 2019 pour manque de transparence sur les données publicitaires).

AI Act (Europe, depuis 2025)

L’IA Act classe la reconnaissance des émotions et l’exploitation des vulnérabilités comme « à haut risque » ou « inacceptable ». L’écoute humaine par défaut (sans consentement explicite) pourrait être interdite dans sa version finale (en discussion).

loi française sur la protection des données

La CNIL a publié des recommandations spécifiques pour les assistants vocaux (2025) : information obligatoire sur les réveils accidentels, consentement préalable pour l’écoute humaine, droit de suppression facilement accessible.

8. 10 conseils pour protéger votre vie privée

Conseil 1 : Désactivez l’écoute humaine (review vocal)

Dans Amazon Alexa (Paramètres → Vie privée → Aide au développement Alexa) décochez « Utiliser mes enregistrement pour améliorer Alexa ». Dans Google Assistant (Mon activité → Activité vocale et audio) décochez « Inclure l’activité vocale et audio ».

Conseil 2 : Activez la suppression automatique

Configurez la suppression des enregistrements tous les 3 mois (Amazon, Google) ou optez pour la non-conservation (Apple).

Conseil 3 : Consultez et supprimez régulièrement votre historique

Amazon Alexa app → Activité → Historique vocal. Google → Mon activité → filtre « Assistant ». Apple → Réglages → Siri → Historique Siri. Supprimez les enregistrements accidentels ou sensibles.

Conseil 4 : Coupez le micro physique de l’enceinte

La plupart des enceintes (Echo, Nest, HomePod) ont un bouton pour couper le micro. Utilisez-le lorsque vous ne souhaitez pas être écouté (conversations intimes, réunions).

Conseil 5 : Utilisez un mot de réveil différent (Alexa)

Vous pouvez changer le mot de réveil sur Alexa (« Echo », « Amazon », « Computer »). Cela réduit les réveils accidentels.

Conseil 6 : Ne placez pas d’enceinte connectée dans la chambre à coucher

La chambre est la pièce la plus intime. Évitez d’y placer un assistant vocal, ou coupez systématiquement son micro la nuit.

Conseil 7 : Désactivez l’accès aux contacts et au calendrier

Dans les paramètres, limitez les permissions (contacts, agenda, localisation). Votre assistant a-t-il besoin de savoir qui sont vos amis ? Probablement pas.

Conseil 8 : Méfiez-vous des skills Alexa tierces

Ne donnez pas accès à vos données personnelles à des skills non vérifiées. Consultez les avis et les politiques de confidentialité.

Conseil 9 : Utilisez le mode muet pour les réunions sensibles

Avant une consultation médicale en visio, un entretien professionnel ou une conversation juridique, activez le mode muet sur votre enceinte.

Conseil 10 : Évaluez votre besoin réel de l’assistant dans chaque pièce

Avez-vous vraiment besoin d’un assistant dans la salle de bain, la chambre d’amis, ou les toilettes ? Moins il y a d’enceintes, moins il y a de risques.

9. Verdict : quel assistant respecte le mieux la vie privée ?

 Apple Siri – Le champion de la vie privée

Apple a une longueur d’avance grâce au traitement sur l’appareil (on-device), à la non-conservation des enregistrements par défaut, à l’absence d’écoute humaine sans consentement explicite, et à son modèle économique (pas de publicité ciblée). Si la vie privée est votre priorité numéro 1, choisissez Siri — quitte à accepter un catalogue domotique un peu moins large.

 Google Assistant – Des contrôles puissants, mais une collecte massive

Google Assistant collecte massivement, mais offre des contrôles détaillés (suppression automatique, désactivation de l’écoute humaine, consultation de l’historique). En configurant soigneusement les paramètres, vous pouvez limiter les risques. Idéal si vous êtes déjà dans l’écosystème Google et que vous acceptez une gestion active de votre vie privée.

 Amazon Alexa – La plus transparente, mais la plus collectrice

Alexa est la plus transparente (beaucoup de paramètres disponibles), mais aussi la plus collectrice par défaut. La configuration de la vie privée est plus complexe (multiples menus). Désactiver l’écoute humaine et activer la suppression automatique est indispensable. En 2026, Alexa s’est améliorée, mais reste à la traîne sur la confidentialité par rapport à Google et Apple.

10. FAQ — Vie privée et assistants vocaux

Les assistants vocaux écoutent-ils en permanence ?

Non, ils n’enregistrent pas en permanence. Ils « écoutent » via un buffer local qui ne stocke rien. Lorsque le mot de réveil est détecté, les quelques secondes qui suivent sont enregistrées et envoyées aux serveurs. En revanche, des réveils accidentels (false wake) peuvent se produire, enregistrant ainsi des conversations privées sans votre consentement. Vous pouvez consulter votre historique pour voir ces réveils accidentels et les supprimer.

Peut-on vraiment supprimer tous ses enregistrements vocaux ?

Oui. Dans Alexa : app → Activité → Historique vocal → tout supprimer. Dans Google Assistant : Mon activité → filtrer Assistant → supprimer. Dans Siri : Réglages → Siri → Historique Siri → supprimer. Attention : la suppression peut prendre quelques jours pour être effective sur tous les serveurs. De plus, les données anonymisées utilisées pour l’entraînement des modèles ne peuvent pas être supprimées (car non associées à votre compte).

Faut-il arrêter d’utiliser les assistants vocaux ?

Non, pas nécessairement. Les assistants vocaux apportent de réels bénéfices (confort, accessibilité, domotique). L’enjeu est de les utiliser en connaissance de cause, en configurant correctement les paramètres de vie privée, et en limitant leur présence aux pièces où c’est vraiment utile. Une utilisation raisonnée et configurée est possible. Si vous êtes très sensible à la vie privée, préférez Siri.

Quels sont les risques réels pour un particulier lambda ?

Le risque principal est économique (profilage publicitaire) : vous verrez des publicités ciblées basées sur vos conversations. Le risque d’écoute humaine est réel mais a été réduit depuis les scandales ; vous pouvez le désactiver. Le risque de piratage (fuite de vos enregistrements) est faible mais non nul. Le risque pour un particulier lambda est modéré. Pour une personnalité publique, un journaliste, un avocat, ou une personne sous protection, les risques sont plus élevés.

Les assistants vocaux violent-ils la loi européenne ?

Pas nécessairement, mais certains paramètres par défaut ont été jugés non conformes au RGPD par la CNIL (ex. conservation indéfinie par défaut). Amazon et Google ont modifié leurs pratiques après sanctions. Aujourd’hui, en configurant correctement les paramètres (désactivation de l’écoute humaine, suppression automatique), on peut être en conformité. Malheureusement, les paramètres par défaut restent en faveur de la collecte.

Sources

  • CNIL – Assistants vocaux et vie privée : recommandations (2025)
  • CNIL – Sanction Amazon France Logistique (2021)
  • CNIL – Sanction Google (2019)
  • Bloomberg – The people listening to your Alexa recordings (2019)
  • The Guardian – Google and Apple listen to voice recordings (2019)
  • Amazon – Paramètres de confidentialité Alexa (2026)
  • Google – Règles de confidentialité Assistant (2026)
  • Apple – Confidentialité Siri et Apple Intelligence (2026)
  • RGPD – Règlement général sur la protection des données (2018)
  • AI Act – Règlement européen sur l’IA (2025-2026)
 

Recevez la veille IA & Data qui compte vraiment

 

    Analyses claires, outils concrets et tendances IA sans bruit.     Rejoignez les lecteurs de IANA Data.