in

La prochaine génération d’appareils portables sera un champ de mines pour la vie privée

Mais si vous faites partie de ceux qui pensent que Facebook en sait déjà trop sur nos vies, vous êtes probablement plus que légèrement perturbé par l’idée que Facebook ait une présence semi-permanente sur votre visage réel.

Facebook affirme que les chercheurs qui portent les lunettes Project Aria seront facilement identifiables et suivront une formation spéciale.

Facebook

Facebook, à son honneur, en est conscient. La société a publié un long article de blog sur toutes les façons dont elle prend en compte la confidentialité. Par exemple, il indique que les travailleurs qui portent les lunettes seront facilement identifiables et seront formés à «l’utilisation appropriée». L’entreprise cryptera également les données et brouillera les visages et les plaques d’immatriculation. Il promet que les données qu’il recueille «ne seront pas utilisées pour informer les publicités que les gens voient sur les applications de Facebook», et seuls les chercheurs agréés pourront y accéder.

Mais rien de tout cela ne traite de la manière dont Facebook a l’intention d’utiliser ces données ou du type de «recherche» pour lequel elles seront utilisées. Oui, cela approfondira la compréhension du réseau social de la réalité augmentée, mais il y a beaucoup d’autres choses qui vont avec. Comme l’a noté l’organisation des droits numériques Electronic Frontier Foundation (EFF) dans un récent article de blog, le suivi oculaire à lui seul a de nombreuses implications au-delà des fonctions de base d’un casque AR ou VR. Nos yeux peuvent indiquer comment nous pensons et ressentons – pas seulement ce que nous regardons.

Comme l’expliquent Rory Mir et Katitza Rodriguez de l’EFF dans l’article:

La façon dont nous bougeons et interagissons avec le monde offre un aperçu, par procuration, de ce que nous pensons et ressentons en ce moment. Si elles sont agrégées, les personnes qui contrôlent ces données biométriques peuvent être en mesure d’identifier des modèles qui leur permettent de prédire (ou de provoquer) plus précisément certains comportements et même des émotions dans le monde virtuel. Cela peut permettre aux entreprises d’exploiter les vulnérabilités émotionnelles des utilisateurs grâce à des stratégies auxquelles l’utilisateur a du mal à percevoir et à résister. Ce qui rend la collecte de ce type de données biométriques particulièrement effrayante, c’est que contrairement à une carte de crédit ou un mot de passe, ce sont des informations nous concernant que nous ne pouvons pas changer. Une fois collectées, les utilisateurs ne peuvent pas faire grand-chose pour atténuer les dommages causés par les fuites ou les données monétisées avec des parties supplémentaires.

Il y a aussi une préoccupation plus pratique, selon Rodriguez et Mir. C’est «la vie privée des spectateurs» ou le droit à la vie privée en public. «Je crains que si les protections ne sont pas les bonnes, avec cette technologie, nous pouvons construire une société de surveillance où les utilisateurs perdent leur vie privée dans les espaces publics», a déclaré à Engadget Rodriguez, directeur des droits internationaux de l’EFF. «Je pense que ces entreprises vont pousser pour de nouveaux changements dans la société de la façon dont nous nous comportons dans les espaces publics. Et ils doivent être beaucoup plus transparents sur ce front. »

Dans un communiqué, un porte-parole de Facebook a déclaré que «le projet Aria est un outil de recherche qui nous aidera à développer les garanties, les politiques et même les normes sociales nécessaires pour régir l’utilisation des lunettes AR et d’autres futurs appareils portables.»

Facebook est loin d’être la seule entreprise à se confronter à ces questions. Apple, qui travaillerait également sur un casque AR, semble également expérimenter le suivi oculaire. Amazon, en revanche, a adopté une approche différente en ce qui concerne la capacité à comprendre notre état émotionnel.

Considérez son tout nouveau portable: Halo. À première vue, l’appareil, qui est un produit réel que les gens pourront bientôt utiliser, semble beaucoup plus proche des types d’appareils portés au poignet qui sont déjà largement disponibles. Il peut vérifier votre fréquence cardiaque et suivre votre sommeil. Il possède également une autre fonctionnalité que vous ne trouverez pas sur votre Fitbit ou smartwatch standard: l’analyse de la tonalité.

Activez et le portable écoutera passivement votre voix tout au long de la journée afin «d’analyser la positivité et l’énergie de votre voix». Il est censé contribuer à votre bien-être général, selon Amazon. L’entreprise suggère que cette fonctionnalité «aidera les clients à comprendre ce qu’ils pensent des autres» et «soutiendra le bien-être émotionnel et social et aidera à renforcer la communication et les relations».

Lorsqu'il est activé, Halo "Ton" essaiera de comprendre comment votre voix sonne tout au long de la journée.

Amazon

Si cela semble vaguement dystopique, vous n’êtes pas seul, la fonctionnalité a déjà déclenché plus d’une comparaison Black Mirror. Aussi inquiétant: l’histoire nous a appris à maintes reprises que ces types de systèmes finissent souvent par être extrêmement biaisés, quelle que soit l’intention du créateur. Comme le souligne Protocol, les systèmes d’IA ont tendance à être assez mauvais pour traiter les femmes et les personnes de couleur de la même manière qu’ils traitent les hommes blancs. Amazon lui-même a eu du mal avec cela. Une étude réalisée l’année dernière par le laboratoire des médias du MIT a révélé que la technologie de reconnaissance faciale d’Amazon avait du mal à identifier avec précision les visages des femmes à la peau sombre. Et une étude de Stanford de 2019 a révélé des disparités raciales dans la technologie de reconnaissance vocale d’Amazon.

Ainsi, bien qu’Amazon ait déclaré utiliser diverses données pour entraîner ses algorithmes, il est loin d’être garanti qu’il traitera tous ses utilisateurs de la même manière dans la pratique. Mais même si cela traitait tout le monde équitablement, donner à Amazon une ligne directe sur votre état émotionnel pourrait également avoir de graves implications sur la vie privée.

Et pas seulement parce qu’il est effrayant pour le plus grand détaillant du monde de savoir ce que vous ressentez à un moment donné. Il est également possible qu’Amazon puisse, un jour, utiliser ces nouvelles informations pour vous amener à acheter plus de choses. Ce n’est pas parce qu’il n’y a actuellement aucun lien entre Halo et le service de vente au détail d’Amazon ou Alexa que ce sera toujours le cas. En fait, nous savons que grâce aux dépôts de brevets, Amazon a donné l’idée plus qu’une pensée passagère.

Il y a deux ans, la société a obtenu un brevet qui explique en détail comment Alexa peut recommander de manière proactive des produits en fonction du son de votre voix. Le brevet décrit un système qui permettrait à Amazon de détecter «une condition physique ou émotionnelle anormale» sur la base du son d’une voix. Il pourrait alors suggérer du contenu, afficher des publicités et recommander des produits en fonction de l ‘ »anomalie ». Les dépôts de brevets ne sont pas nécessairement une indication des plans réels, mais ils offrent une fenêtre sur la façon dont une entreprise pense à un type particulier de technologie. Et dans le cas d’Amazon, ses idées pour la détection des émotions sont plus qu’un peu alarmantes.

Un porte-parole d’Amazon a déclaré à Engadget que «nous n’utilisons pas les données de santé Amazon Halo pour le marketing, les recommandations de produits ou la publicité», mais a refusé de commenter les projets futurs. Le brevet offre cependant des indices potentiels.

Une illustration de brevet qui montre comment Amazon peut utiliser ses capacités de détection des émotions pour vendre des produits.

Brevets Google / Amazon

«Une condition physique et / ou émotionnelle actuelle de l’utilisateur peut faciliter la capacité de fournir un contenu audio hautement ciblé, comme des publicités audio ou des promotions», déclare le brevet. « Par exemple, certains contenus, tels que les contenus liés aux pastilles contre la toux ou aux médicaments contre la grippe, peuvent être destinés aux utilisateurs qui ont mal à la gorge. »

Dans un autre exemple – utilement illustré par Amazon – un appareil de type Echo recommande une recette de soupe au poulet lorsqu’il entend une toux et un reniflement.

Aussi troublant que cela puisse paraître, Amazon indique clairement qu’il ne prend pas seulement en compte le son de votre voix. Le brevet indique qu’il peut également utiliser votre historique de navigation et d’achat, le «nombre de clics» et d’autres métadonnées pour cibler le contenu. En d’autres termes: Amazon utiliserait non seulement votre état émotionnel perçu, mais tout ce qu’il sait sur vous pour cibler des produits et des publicités.

Ce qui nous ramène à Facebook. Quel que soit le produit qu’Aria deviendra finalement, il est maintenant impossible, en 2020, d’imaginer une version de celui-ci qui ne violera pas notre vie privée de manière nouvelle et inventive afin d’alimenter la machine publicitaire déjà inquiétante de Facebook.

Les applications mobiles de Facebook aspirent déjà une quantité incroyable de données sur où nous allons, ce que nous achetons et à peu près tout ce que nous faisons sur Internet. La société nous a peut-être suffisamment désensibilisés à ce stade pour prendre cela pour acquis, mais cela vaut la peine de considérer combien nous sommes prêts à donner. Que se passe-t-il lorsque Facebook sait non seulement où nous allons et qui nous voyons, mais tout ce que nous regardons?

Un porte-parole de Facebook a déclaré que la société «serait honnête à propos de tout projet lié aux publicités».

«Le projet Aria est un effort de recherche et son objectif est de nous aider à comprendre le matériel et les logiciels nécessaires pour créer des lunettes AR, et non de personnaliser les publicités. Dans l’éventualité où l’une de ces technologies serait intégrée à un appareil disponible dans le commerce à l’avenir, nous serons à l’avant-garde de tout projet lié aux publicités. « 

Une promesse de transparence, cependant, est bien différente de l’assurance de ce qu’il adviendra de nos données. Et cela montre pourquoi la législation sur la protection de la vie privée est si importante – car sans elle, nous n’avons guère d’autre choix que de croire sur parole une entreprise.

« Facebook se positionne pour être l’Android de AR VR », a déclaré Mir. «Je pense que, comme ils n’en sont qu’à leurs débuts, il est logique qu’ils prennent des précautions pour séparer les données de la publicité et de tout cela. Mais le problème est que, une fois qu’ils contrôlent le support ou ont un contrôle du marché au niveau Android, comment pouvons-nous nous assurer qu’ils respectent les bonnes pratiques de confidentialité? »

Et la question des bonnes pratiques de confidentialité ne devient plus urgente que si vous considérez à quel point les entreprises de données comme Facebook et Amazon sont sur le point d’avoir accès. Des produits comme Halo et des projets de recherche comme Aria peuvent être expérimentaux pour le moment, mais ce n’est peut-être pas toujours le cas. Et, en l’absence de réglementations plus strictes, il y aura peu de choses qui les empêcheront d’utiliser ces nouvelles connaissances sur nous pour renforcer leur domination.

«Il n’y a pas de lois fédérales sur la protection de la vie privée aux États-Unis», a déclaré Rodriguez. «Les gens se fient aux politiques de confidentialité, mais les politiques de confidentialité changent avec le temps.»

Nier Replicant arrive sur les systèmes de la génération actuelle l’année prochaine

Trump nomme Amy Coney Barrett comme remplaçante de RBG