Doingbuzz – Le pouvoir de l'information à votre portée
SIRI, ALEXA ET CONSORTS POURRAIENT VOUS ESPIONNER… SANS LE FAIRE EXPRÈS
07/07/2020 à 11h54 par La redaction

Des chercheurs allemands sont parvenus à trouver plus d’un millier de faux positifs capables d’activer la reconnaissance vocale de nombreux assistants connectés par inadvertance… et ainsi de créer un problème de confidentialité, sans même le faire exprès.

SIRI, ALEXA ET CONSORTS POURRAIENT VOUS ESPIONNER… SANS LE FAIRE EXPRÈS
© Thomas Kolnowski – Unsplash

Aux premières heures des assistants connectés, quand cette technologie en était encore à l’état d’embryon, ces erreurs d’interprétation alors encore plus grossières qu’aujourd’hui prêtaient plutôt à sourire. Mais depuis, à la lumière de nombreuses révélations, la donne a fini par changer et ces approximations n’amusent plus personne. L’année dernière, nous avons eu droit à une succession de scandales sur le thème des assistants vocaux connectés. De Google à Apple, tous les grands noms du secteur en ont pris pour leur grade et se sont retrouvés épinglés pour des motifs sordides, qui allaient de l’enregistrement non souhaité au traitement d’enregistrements vocaux par des humains en chair et en os. S’ils ont tous fait amende honorable depuis, en supprimant par exemple l’analyse humaine des clips vocaux, la discrétion qu’offrent ces appareils demeure tributaires des mécanismes qui commandent leur activation… dont les commandes vocales.

Le problème central, c’est que la technologie de reconnaissance vocale qui sous-tend ces technologies est loin d’être irréprochable. C’est même la raison précise pour laquelle autant de clips audio sont envoyés dans le cloud, pour y être décortiqués et ainsi améliorer les algorithmes de reconnaissance vocale. Sauf qu’en cas d’erreur d’interprétation, cela peut donner lieu à des enregistrements inopinés, et les cas semblent bien plus nombreux que prévu. C’est la découverte que viennent de faire des chercheurs allemands, en testant tout un panel d’enceintes connectées telles que l’Echo Dot, d’Amazon, le Home Mini de Google, le HomePod, d’Apple, et l’Harman Kardon Invoke. Le résultat est assez impressionnant : les chercheurs ont décelé plus de mille séquences en langue anglaise susceptibles de déclencher des enregistrements accidentels. Des échantillons sont disponibles à cette adresse.

Pour obtenir ces résultats, les chercheurs ont subdivisé certaines phrases mal interprétées en plus petites sous-unités, et ont ainsi pu identifier précisément les parties problématiques. Ils ont ensuite enfoncé le clou pour trouver un maximum de faux positifs. Les exemples présentés concernent tous la langue anglaise : Alexa est confondu avec “Unacceptable“, “Ok Google” avec “Ok Cool“, “Cortana” avec “Montana“, et ainsi de suite. Une liste longue comme un rouleau de papier toilette qui aurait dévalé un escalier, et à laquelle il faut probablement ajouter tout un tas de faux déclencheurs dans de nombreuses autres langues, dont le français.

Cloud-computing et assistants vocaux : un paradigme à reconstruire ?

Ce problème découle directement du mode de fonctionnement de ces appareils, comme l’explique dans un communiqué Dorothea Kolossa, une chercheuse qui a participé à cette étude : “Les appareils sont intentionnellement programmés d’une manière un peu indulgente, car ils sont censés être capables de comprendre les humains. Par conséquent, ils vont avoir tendance à démarrer trop souvent plutôt que pas du tout.” Le souci, c’est que même si ces extraits audio ne sont (techniquement) plus analysés par des humains, ils restent envoyés dans le cloud et sont donc, de fait, potentiellement exposés à l’intervention d’un tiers. Ce qui inquiète Thorsten Holz, un autre chercheur ayant participé à l’étude, qui juge ce constat “alarmant du point de vue de la confidentialité” avec des conversations “très privées qui peuvent se retrouver chez un tiers”. Cette affaire illustre bien le fait que l’IA ne se comporte pas forcément comme on peut s’y attendre, et qu’il faudra à terme mettre en place des couches de sécurité supplémentaires pour rendre ces appareils plus sains en termes de sécurité des données. Quitte à devoir, peut-être, faire une concession sur la qualité de la reconnaissance vocale ?

Promo


Echo Dot (3ème génération),…

  • Notre enceinte connectée la plus populaire : désormais avec un design en tissu et dotée d’un…
  • Contrôlez votre musique par simple commande vocale : écoutez des titres en streaming sur…
  • Un son amélioré, plus puissant : jumelez votre Echo Dot avec un second Echo Dot (3ème…
  • Prête à rendre service : demandez à Alexa de jouer de la musique, répondre à vos…

RECEVEZ NOTRE NEWSLETTER ET ALERTE MAIL

Saisissez votre adresse e-mail pour vous abonner à Doingbuzz et recevoir une notification de chaque nouvel article par e-mail.

Rejoignez les 83 522 autres abonnés

Ne partez pas sans partager :

Contenu sponsorisé

DOINGBUZZ TV

Partagez l'opportunité que représente la plateforme Togopapel.com autour de vous.
Le site de petites annonces 100% gratuit et togolais est un outil inclusif pour vendre et acheter partout au Togo.

togopapel
WHATSAPP:

Vous êtes sur whatsapp, intégrez et récevez nos articles depuis nos groupes disponible sur whatsapp

🚨 DOINGBUZZ ACTUALITE
(PLEIN) DOINGBUZZ ACTUALITE(PLEIN) DOINGBUZZ ACTUALITE (PLEIN) DOINGBUZZ ACTUALITE (PLEIN) DOINGBUZZ ACTUALITE .
groupe emploi whatsapp doingbuzz-🇧🇯 Bénin- 🇧🇯 Bénin - 🇧🇯 Bénin -🇧🇯 Bénin-🇳🇪 Niger - 🇸🇳 Sénégal - 🇸🇳 Sénégal - 🇸🇳 Sénégal - 🇹🇬 Togo - 🇹🇬 Togo - 🇹🇬 Togo - 🇹🇬 Togo - 🇹🇬 Togo - 🇹🇬 Togo - 🇹🇬 Togo - 🇹🇬 Togo 🇨🇮- Côte d'Ivoire 🇨🇮- Côte d'Ivoire 🇨🇮- Côte d'Ivoire -🇨🇲 Cameroun -🇨🇲 Cameroun -🇨🇲 Cameroun -🇨🇲 Cameroun - 🇫🇷 France - 🇫🇷 France - 🇲🇱 Mali - 🇧🇫 Burkina Faso - 🇧🇫 Burkina Faso -🇬🇦 Gabon -🇬🇳 Guinéé - 🇲🇱 Mali - 🇲🇱 Mali - 🇨🇩 Congo -Pour les autres pays

NB: NE PAYEZ AUCUN FRAIS DE DOSSIERS POUR UNE OFFRE D’EMPLOI

Plus de news

Côte d'Ivoire/ Primud: Molare répond à ses détracteurs

14/10/2020

Côte d’Ivoire/...

En Côte d’Ivoire, Primud est l’un des meilleurs festivals...
Togo : le célèbre animateur Toni B Cool est mort

14/10/2020

Togo :...

  Triste nouvelle pour les inconditionnels fans...
Triste histoire : Son homme se marie avec une autre femme en cachette

14/10/2020

Triste histoire...

Enveloppée dans une triste histoire, une mère...
Skelly : "si DJ Arafat avait un village, il ne serait pas déterré"

13/10/2020

Skelly :...

Dans un message laissé sur sa page...
Hillary Clinton en justice pour avoir causé le chaos en Lybie

13/10/2020

Hillary Clinton...

Visiblement, HIllary Clinton a joué un rôle décisif dans l’envoi des...
Togo : Des Chinois achètent 1000 hectares

13/10/2020

Togo :...

  Véritable bombe à retardement. Au Togo,...
Covid-19 : Des paquebots de luxe sur le point d'être démolis

13/10/2020

Covid-19 :...

Avec cette  crise sanitaire due à la...
Le héros malien Mamoudou Gassama est désormais un homme marié

13/10/2020

Le héros...

Passé de sans papiers à héros national...
Muhammadu Buhari et Osinbajo prévoient 4 milliards nairas pour l'alimentation et le voyage

13/10/2020

Muhammadu Buhari...

  Le président Muhammadu Buhari a présenté...
Angola : l'ancien président dos Santos poursuivi par la justice

13/10/2020

Angola :...

  L'ancien président angolais José Eduardo dos...
Cameroun : la taxe sur les téléphones portables suscite de vives polémiques

13/10/2020

Cameroun :...

  Après avoir annoncé l'entrée en vigueur...
Belgique: une femme transgenre nommée vice première-ministre, une première en Europe

13/10/2020

Belgique: une...

La Belgique a mis fin à des...
Prix Nobel d’économie : les Américains Paul R. Milgrom et Robert B. Wilson, récompensés

13/10/2020

Prix Nobel...

Les deux Américains Paul R. Milgrom et...
Primud 2020: Sandia Chouchou clashe violemment Molare

13/10/2020

Primud 2020:...

Dans la soirée d’hier, se tenait les...
Douk Saga : 14 ans après sa mort, l’artiste reste dans la mémoire des mélomanes

13/10/2020

Douk Saga...

12 octobre 2006- 12 octobre 2020, cela...
Burkina Faso: une ville du pays enregistre une forte pénurie de préservatifs…La raison!

13/10/2020

Burkina Faso:...

Dans le sud-Ouest du Burkina Faso, dans...
Rumeurs de fuite du pays/ KKB est en “Côte d’Ivoire et “participera à l’élection présidentielle”, selon sa chargée de communication

13/10/2020

Rumeurs de...

Face aux rumeurs l’envoyant sa famille et...
Côte d’Ivoire: Alassane Ouattara justifie la raison de son troisième mandat

13/10/2020

Côte d’Ivoire:...

En visite de famille à Odienné dans...
Présidentielle ivoirienne/ voici la date fixée pour le retrait des cartes d’électeurs

13/10/2020

Présidentielle ivoirienne/...

La Commission Électorale Indépendante (CEI) de Côte...
Alison-Madueke : la Nigériane recherchée dans trois pays pour l’un des plus grands détournements de fonds de l’histoire

13/10/2020

Alison-Madueke :...

Alison-Madueke, première femme présidente de l’OPEP (Organisation...

Des chercheurs allemands sont parvenus à trouver plus d’un millier de faux positifs capables d’activer la reconnaissance vocale de nombreux assistants connectés par inadvertance… et ainsi de créer un problème de confidentialité, sans même le faire exprès.

SIRI, ALEXA ET CONSORTS POURRAIENT VOUS ESPIONNER… SANS LE FAIRE EXPRÈS
© Thomas Kolnowski – Unsplash

Aux premières heures des assistants connectés, quand cette technologie en était encore à l’état d’embryon, ces erreurs d’interprétation alors encore plus grossières qu’aujourd’hui prêtaient plutôt à sourire. Mais depuis, à la lumière de nombreuses révélations, la donne a fini par changer et ces approximations n’amusent plus personne. L’année dernière, nous avons eu droit à une succession de scandales sur le thème des assistants vocaux connectés. De Google à Apple, tous les grands noms du secteur en ont pris pour leur grade et se sont retrouvés épinglés pour des motifs sordides, qui allaient de l’enregistrement non souhaité au traitement d’enregistrements vocaux par des humains en chair et en os. S’ils ont tous fait amende honorable depuis, en supprimant par exemple l’analyse humaine des clips vocaux, la discrétion qu’offrent ces appareils demeure tributaires des mécanismes qui commandent leur activation… dont les commandes vocales.

Le problème central, c’est que la technologie de reconnaissance vocale qui sous-tend ces technologies est loin d’être irréprochable. C’est même la raison précise pour laquelle autant de clips audio sont envoyés dans le cloud, pour y être décortiqués et ainsi améliorer les algorithmes de reconnaissance vocale. Sauf qu’en cas d’erreur d’interprétation, cela peut donner lieu à des enregistrements inopinés, et les cas semblent bien plus nombreux que prévu. C’est la découverte que viennent de faire des chercheurs allemands, en testant tout un panel d’enceintes connectées telles que l’Echo Dot, d’Amazon, le Home Mini de Google, le HomePod, d’Apple, et l’Harman Kardon Invoke. Le résultat est assez impressionnant : les chercheurs ont décelé plus de mille séquences en langue anglaise susceptibles de déclencher des enregistrements accidentels. Des échantillons sont disponibles à cette adresse.

Pour obtenir ces résultats, les chercheurs ont subdivisé certaines phrases mal interprétées en plus petites sous-unités, et ont ainsi pu identifier précisément les parties problématiques. Ils ont ensuite enfoncé le clou pour trouver un maximum de faux positifs. Les exemples présentés concernent tous la langue anglaise : Alexa est confondu avec “Unacceptable“, “Ok Google” avec “Ok Cool“, “Cortana” avec “Montana“, et ainsi de suite. Une liste longue comme un rouleau de papier toilette qui aurait dévalé un escalier, et à laquelle il faut probablement ajouter tout un tas de faux déclencheurs dans de nombreuses autres langues, dont le français.

Cloud-computing et assistants vocaux : un paradigme à reconstruire ?

Ce problème découle directement du mode de fonctionnement de ces appareils, comme l’explique dans un communiqué Dorothea Kolossa, une chercheuse qui a participé à cette étude : “Les appareils sont intentionnellement programmés d’une manière un peu indulgente, car ils sont censés être capables de comprendre les humains. Par conséquent, ils vont avoir tendance à démarrer trop souvent plutôt que pas du tout.” Le souci, c’est que même si ces extraits audio ne sont (techniquement) plus analysés par des humains, ils restent envoyés dans le cloud et sont donc, de fait, potentiellement exposés à l’intervention d’un tiers. Ce qui inquiète Thorsten Holz, un autre chercheur ayant participé à l’étude, qui juge ce constat “alarmant du point de vue de la confidentialité” avec des conversations “très privées qui peuvent se retrouver chez un tiers”. Cette affaire illustre bien le fait que l’IA ne se comporte pas forcément comme on peut s’y attendre, et qu’il faudra à terme mettre en place des couches de sécurité supplémentaires pour rendre ces appareils plus sains en termes de sécurité des données. Quitte à devoir, peut-être, faire une concession sur la qualité de la reconnaissance vocale ?

Promo


Echo Dot (3ème génération),…

  • Notre enceinte connectée la plus populaire : désormais avec un design en tissu et dotée d’un…
  • Contrôlez votre musique par simple commande vocale : écoutez des titres en streaming sur…
  • Un son amélioré, plus puissant : jumelez votre Echo Dot avec un second Echo Dot (3ème…
  • Prête à rendre service : demandez à Alexa de jouer de la musique, répondre à vos…

RECEVEZ NOTRE NEWSLETTER ET ALERTE MAIL

Saisissez votre adresse e-mail pour vous abonner à Doingbuzz et recevoir une notification de chaque nouvel article par e-mail.

Rejoignez les 83 522 autres abonnés

Ne partez pas sans partager :

Laisser votre commentaire