IOS

Alexa est-elle toujours à l’écoute ? Une nouvelle étude examine les déclencheurs accidentels des assistants numériques

Le 15 février 2022 - 4 minutes de lecture

L’espace de test personnalis pour les haut-parleurs intelligents. (Photo: Northeastern University / Universit impriale de Londres)

La capacité d’écoute des assistants numériques comme Alexa et Siri est devenue un point d’achoppement majeur en matière de confidentialité au cours de la dernière année. Un groupe de chercheurs de la Northeastern University et de l’Imperial University of London étudie les haut-parleurs intelligents depuis six mois pour en savoir plus sur ce qui les déclenche et s’ils « écoutent » tout le temps ou non.

L’étude en cours n’a trouvé “aucune preuve à l’appui” de la possibilité que les assistants numériques soient toujours à l’écoute. Les appareils ont été activés souvent dans l’étude, principalement par des mots qui ressemblent aux phrases destinées à les réveiller – pour Alexa, les exemples incluent des mots avec des sons “k” tels que “exclamation”, “voiture de Kevin” et “congresswoman” – mais ils ne restent allumés que pendant de courts intervalles de quelques secondes à près d’une minute.

Les chercheurs ont installé plusieurs haut-parleurs intelligents – quelques Echos, un Google Home Mini, un Apple HomePod et un Harman Kardon Invoke alimenté par Microsoft Cortana – et ont construit une zone où ils pouvaient surveiller et enregistrer quand et comment ils étaient activés. L’équipe a joué 125 heures d’émissions sur Netflix avec des dialogues intenses, dont The Office, Gilmore Girls et Grey’s Anatomy et a enregistré quelles phrases – en dehors des “mots de réveil” traditionnels – ont activé les appareils.

L’étude a révélé que l’Echo Dot 2e génération et l’Invoke restaient éveillés le plus longtemps, entre 20 et 43 secondes. Les autres appareils avaient une période d’activation plus courte, près de la moitié d’entre eux durant 6 secondes ou moins.

Alors que les mots qui ressemblaient aux phrases d’activation déclenchaient les appareils, il était difficile d’obtenir des résultats répétés. L’équipe a répété ses expériences 12 fois et seulement 8,44% des activations se sont produites de manière cohérente.

Dave Limp, vice-prsident senior des appareils et services d’Amazon, s’exprimant lors du sommet GeekWire 2019. (GeekWire Photo / Dan DeLong)

La définition de «l’écoute» dans ce contexte peut prêter à confusion, même pour les personnes qui fabriquent les appareils. Interrogé sur un épisode de PBS Frontline la semaine dernière, le chef des appareils d’Amazon, Dave Limp, a été interrogé sur la manière dont Amazon pouvait convaincre des millions de personnes d’installer des “appareils d’écoute” chez eux. Limp a semblé faire un faux pas en répondant à la question, insistant sur le fait qu’Alexa n’est pas un appareil d’écoute, avant de décrire comment il “écoute”, puis de revenir en arrière.

«Je serais d’abord en désaccord avec la prémisse. Ce n’est pas un appareil d’écoute », a déclaré Limp. “L’appareil dans son noyau a un détecteur dessus – nous l’appelons en interne un” moteur de mot de réveil “- et ce détecteur écoute – n’écoute pas vraiment, il détecte une chose et une seule chose, qui est le mot que vous avez dit que vous voulez attirer l’attention de cet écho. ”

La question de savoir comment ces assistants virtuels surveillent les mots de réveil deviendra encore plus importante à mesure qu’ils se propageront à différents types d’appareils de l’Internet des objets, tels qu’un anneau intelligent et des lunettes compatibles Alexa dévoilées par Amazon l’année dernière.

Tout au long de 2019, des rapports ont révélé que des équipes d’employés de géants de la technologie tels que Google, Amazon, Apple et bien d’autres écoutaient des clips audio d’énoncés faits sur leurs haut-parleurs intelligents pour améliorer les assistants numériques. Au milieu des problèmes de confidentialité, les entreprises ont commencé à autoriser les utilisateurs à refuser l’examen de leurs clips audio.

Le rapport n’est que la première étape d’un projet plus vaste. Les futures mises à jour examineront le nombre d’activations conduisant à des enregistrements audio envoyés vers le cloud par rapport au traitement uniquement sur l’appareil ; si les fournisseurs de cloud affichent avec précision tous les cas d’enregistrement audio ; si les locuteurs s’adaptent et s’ajustent à ce qu’ils ont entendu ; et comment le sexe, l’origine ethnique, l’accent et d’autres facteurs affectent les activations des locuteurs.

Commentaires

Laisser un commentaire

Votre commentaire sera révisé par les administrateurs si besoin.