« J’ai débranché Alexa en découvrant ça » : ce que votre assistant vocal enregistre vraiment quand vous croyez qu’il dort

Le moment exact où vous réalisez que votre enceinte connectée vous a peut-être écouté sans y être invitée change quelque chose. Pas dans le sens dramatique d’un film d’espionnage, mais dans ce sentiment diffus que la frontière entre commodité et surveillance est plus floue qu’on ne le pensait. Les assistants vocaux type Alexa, Google Assistant ou Siri ne dorment jamais vraiment, et comprendre ce qui se passe techniquement quand vous parlez près d’eux mérite qu’on s’y arrête sérieusement.

À retenir

  • Le mot de réveil n’est pas aussi fiable qu’on le croit : des faux positifs déclenchent régulièrement des enregistrements sans consentement
  • Vos données audio ne disparaissent pas : elles sont stockées, analysées et servent à entraîner les IA des géants tech
  • Trois actions simples réduisent drastiquement votre exposition sans nécessiter de débrancher l’appareil

Le mot de réveil ne fonctionne pas comme on l’imagine

La promesse officielle est simple : votre assistant vocal n’enregistre rien tant qu’il n’entend pas son mot d’activation (« Alexa », « OK Google », « Dis Siri »). En théorie, le microphone tourne en circuit fermé local, il ne se passe rien côté serveur. En pratique, c’est plus compliqué.

Le problème, c’est que ces appareils doivent en permanence analyser le son ambiant pour détecter ce mot-clé. Ce traitement se fait localement, sur la puce de l’appareil. Mais cette écoute continue engendre des erreurs : des mots phonétiquement proches du mot d’activation peuvent déclencher une session d’enregistrement sans que personne ne l’ait voulu. « Electra », « Alaska », « à la » prononcés avec certain accent… la liste des faux positifs documentés est longue. Amazon l’a d’ailleurs reconnu publiquement dans plusieurs communications adressées aux régulateurs américains.

Quand une fausse activation se produit, ce qui suit est enregistré et envoyé aux serveurs de l’entreprise. Quelques secondes de conversation, parfois davantage. Ce n’est pas un scénario hypothétique : en 2019, des médias internationaux ont révélé qu’Amazon employait des équipes entières pour écouter manuellement des extraits audio afin d’améliorer la précision de reconnaissance d’Alexa. Google et Apple ont admis des pratiques similaires peu après, déclenchant une vague de révisions de politique de confidentialité.

Ce que vos données audio deviennent ensuite

Les enregistrements ne disparaissent pas dans le vide. Ils sont stockés, analysés, et utilisés pour entraîner les modèles d’intelligence artificielle qui font fonctionner ces assistants. C’est là que ça devient intéressant : vous n’êtes pas seulement l’utilisateur du produit, vous en êtes aussi une composante du processus de fabrication.

Amazon permet depuis plusieurs années de consulter et supprimer l’historique des enregistrements depuis l’application Alexa. Google offre la même possibilité via Mon activité. Ces outils existent, mais ils sont rarement utilisés par le grand public, souvent parce que leur existence est peu mise en avant dans les interfaces grand public. Un paradoxe qui n’échappe pas aux associations de défense des droits numériques.

La durée de conservation varie. Par défaut, et selon les configurations choisies lors de l’installation (que beaucoup d’utilisateurs traversent rapidement), les enregistrements peuvent être conservés indéfiniment. Certaines mises à jour récentes ont rendu la suppression automatique après 3 ou 18 mois possible, mais il faut aller l’activer manuellement. Le réglage par défaut reste la conservation longue durée.

Un détail que peu de gens connaissent : certaines données ne sont pas supprimées même quand vous pensez avoir tout effacé. Les métadonnées, heure, durée, appareil utilisé, localisation approximative, peuvent rester dans des bases de données séparées. Ce n’est pas forcément malveillant, c’est souvent lié à des contraintes techniques et légales, mais c’est là.

Quelle exposition réelle pour quel risque concret ?

Débrancher son enceinte connectée par principe, c’est une réponse possible. Mais avant d’en arriver là, il vaut mieux comprendre ce que ça implique vraiment en termes d’exposition.

Le risque le plus documenté n’est pas le géant tech qui écoute vos conversations de salon pour vous vendre du café. C’est la fuite ou le piratage de ces données stockées, qui peuvent contenir des informations sur votre routine quotidienne, les personnes avec qui vous vivez, vos habitudes de consommation ou même des fragments de conversations sensibles. Les grandes entreprises sont des cibles, et les bases de données audio sont des actifs qui ont une valeur.

L’autre risque, moins spectaculaire mais bien réel, est celui du profilage publicitaire. Les liens entre les écosystèmes d’assistant vocal et les régies publicitaires de ces mêmes entreprises sont documentés, même si les mécanismes exacts restent opaques. Vous avez parlé de votre voyage à Barcelone près de votre enceinte et des publicités pour des hôtels espagnols sont apparues le lendemain ? La corrélation est difficile à prouver formellement, mais ce type d’expérience est rapporté régulièrement, et les entreprises concernées ont rarement nié catégoriquement ce type de lien.

Ce qu’on peut faire sans tout jeter

La bonne nouvelle, c’est qu’on n’est pas condamné à choisir entre gadget espion et vie hors réseau. Quelques actions concrètes changent significativement votre exposition.

Activer la suppression automatique des enregistrements dans les paramètres de votre application, c’est la première chose à faire. Vérifier si votre appareil dispose d’un bouton de coupure physique du microphone (la plupart des modèles récents en ont un) et l’utiliser quand vous avez des conversations que vous souhaitez garder pour vous. Consulter l’historique audio au moins une fois pour voir ce qui a été capturé, c’est souvent là que le choc se produit, pas face à une révélation abstraite, mais face à la liste concrète de ses propres phrases.

La grande question qui reste ouverte, c’est celle du consentement réel. On a tous cliqué « accepter » sur des conditions générales que personne ne lit. Mais accepter que son assistant améliore ses performances grâce à nos voix, c’est un choix qu’on devrait faire en connaissance de cause, pas par inattention. Le vrai débat autour de ces technologies n’est peut-être pas « faut-il les utiliser » mais « à quelles conditions, et sur quelles garanties », une conversation que les régulateurs européens ont commencé à mener, même si les réponses tardent encore à se matérialiser dans notre quotidien.

Leave a Comment