:

Protection des assistants vocaux

René Chartier
René Chartier
2025-12-21 08:56:44
Nombre de réponses : 2
0

Alors que nous entrons en 2024, les assistants vocaux, ces merveilles technologiques qui utilisent l’intelligence artificielle pour interagir avec les utilisateurs, sont de plus en plus présents dans notre quotidien. Ils nous écoutent depuis divers dispositifs tels que smartphones, enceintes intelligentes, applications, sites web, véhicules connectés, et bien d’autre encore, ce qui soulève des questions importantes en matière de protection des données, d’où l’importance cruciale de la conformité au Règlement Général sur la Protection des Données (RGPD).

Les assistants vocaux offrent ainsi une expérience simplifiée du quotidien. Ils ne sont toutefois pas dénués de risques, comme tout outil numérique dont le fonctionnement dépend de nos données. Selon les experts, plusieurs « failles » peuvent nous inviter à repenser notre usage. De plus, chaque demande que nous formulons laisse des traces. Les interactions avec ces systèmes sont transcrites en données textuelles. C'est grâce au traitement textuel que le système trouve une réponse à vous renvoyer. Nous laissons donc des traces numériques, malgré nous (opinions politiques, habitudes de consommation, etc.), ce qui peut soulever des questions de confidentialité et donc de sécurité des données.

Récemment, Apple a été visé par une plainte en France pour des pratiques jugées intrusives concernant l’enregistrement des conversations par Siri. Selon l’Association européenne pour la défense des droits numériques (NOYB), l’entreprise n’aurait pas obtenu de consentement explicite pour la collecte et l’analyse des enregistrements vocaux. Ce signalement met en lumière un problème majeur : les assistants vocaux ne se contentent pas d’écouter lorsqu’on les sollicite, ils peuvent aussi capter des conversations privées à notre insu. Une situation qui illustre parfaitement les préoccupations des experts en protection des données et interroge sur la transparence des géants de la tech. Pour être efficaces et réagir en termes de mots-clés, ces assistants vocaux restent « en captation » de manière permanente, capables de capter vos conversations sensibles à proximité. Et on ne sait pas où vont les données collectées, comment elles sont stockées.

Heureusement, en Europe, les données numériques sont normalement protégées, notamment par le DSA, le Digital Services Act (un règlement européen sur les services numériques) et l'IA Act depuis 2024. Celui-ci identifie les bots et assistants vocaux comme étant du troisième niveau du risque, soit un « risque acceptable ». Mais ces règlements ne s'appliquent pas partout, et surtout, ils ne sont pas infaillibles. Enfin, comme tout objet connecté, les enceintes vocales peuvent techniquement être ciblées par des hackers. Ainsi, un assistant mal sécurisé pourrait permettre à un attaquant d’accéder aux données personnelles ou d’activer certaines commandes à distance.