Améliorer la confidentialité numérique des personnes aveugles

Assurer la sécurité de l'invisible : améliorer la confidentialité numérique des personnes aveugles

Illustration du pipeline d’interaction utilisateur envisagé pour permettre aux utilisateurs de protéger le contenu privé de leurs photos et vidéos. (a) Pour le cas d’utilisation général, l’outil informera l’utilisateur du contenu privé détecté, puis offrira le choix de supprimer le média, de le partager tel quel ou de partager une version modifiée où le contenu privé (masque en acier superposé sur l’image) est obscurci. (b) Pour le scénario où un utilisateur souhaite obtenir de l’aide pour en savoir plus sur un objet, l’outil partagera une version modifiée avec tout le contenu en dehors de l’objet de premier plan (masque en acier superposé sur l’image) obscurci. Crédit : Université du Colorado à Boulder

Les personnes aveugles, comme les personnes voyantes, publient sur Instagram, glissent sur Tinder et envoient des photos de leurs enfants par SMS à une discussion de groupe. Ils utilisent également des photos pour en savoir plus sur leur environnement visuel.

Les utilisateurs aveugles partagent souvent des images avec des logiciels d’identification tels que Seeing AI, Be My Eyes et TapTapSee de Microsoft pour en savoir plus sur leur environnement visuel. Il y a aussi une forte demande. L’IA, par exemple, a été utilisée plus de 20 millions de fois.

Cependant, lorsque des personnes aveugles partagent des photos, il existe un risque supplémentaire qu’elles capturent sans le savoir des informations considérées comme privées, telles qu’un test de grossesse ou une adresse de retour.

Pour le professeur adjoint Danna Gurari, cela ne devrait pas être un problème.

Gurari, le directeur fondateur du groupe Image and Video Computing du Department of Computer Science, fait partie d’une équipe interinstitutionnelle qui a reçu plus d’un million de dollars grâce à une subvention Safe and Trustworthy Cyberspace (SaTC) de la National Science Foundation pour étudier la question.

Actuellement, les personnes aveugles doivent faire confiance à leurs amis ou à des membres de leur famille pour vérifier leurs images à la recherche d’informations privées avant de les partager publiquement, ce qui peut avoir ses propres répercussions sociales. Ou ils peuvent accepter le risque pour leur vie privée lorsqu’ils publient.

L’objectif du projet interdisciplinaire de quatre ans de l’équipe est de créer un nouveau système qui peut alerter les utilisateurs lorsque des informations privées sont présentes dans une image et, si la personne aveugle le souhaite, les masquer.

En collaboration avec l’expert en informatique centrée sur l’humain Leah Findlater de l’Université de Washington et l’expert en confidentialité Yang Wang de l’Université de l’Illinois à Urbana-Champaign, le groupe de Gurari dirige l’analyse automatique des images pour le projet. Leur objectif est de transformer les désirs des utilisateurs et les théories de l’information privée en connaissances exploitables.

Cela s’accompagne d’un certain nombre de défis, à la fois techniques et philosophiques.

Parce que l’IA fait des erreurs, vous devez faire attention à quel point vous faites une analyse sonore.

« Nous voulons vraiment donner le niveau de confiance approprié, mais aussi donner un pouvoir de décision », a déclaré Gurari.

Le groupe Image and Video Computing crée des moyens de partager les informations privées pouvant être présentes dans une image et de laisser l’utilisateur décider d’utiliser l’image telle quelle, de la supprimer ou de masquer les informations privées, puis de les partager.

L’autre problème à résoudre pour le groupe de Gurari est de savoir comment déterminer quel est l’objet le plus important dans une image et masquer tout le reste.

Étant donné que les personnes aveugles partagent souvent des photos pour l’identification d’objets, cette fonctionnalité pourrait réduire la quantité d’informations privées introduites au cours de cette tâche simple.

L’équipe de Gurari se concentrera sur la création d’algorithmes suffisamment robustes pour contrer le flou d’image et d’autres propriétés courantes pour les images prises par les photographes aveugles. L’équipe doit également concevoir des algorithmes qui n’ont pas besoin d’être entraînés sur des objets spécifiques pour les considérer comme importants.

Cette énigme d’identification d’objet a hanté une grande partie de l’histoire de la vision par ordinateur, appelée le « problème à longue traîne » pour le graphique qu’elle produit.

Les ordinateurs ont généralement de très faibles niveaux de précision de détection d’objets jusqu’à ce qu’ils aient été formés sur des milliers d’images, mais ici, ils doivent comprendre la signification d’un objet en quelques images seulement.

Et, comme avec d’autres technologies d’assistance, les avantages de ces algorithmes pourraient aller bien au-delà de leur objectif initial. De la photographie de produits, qui consiste à isoler des objets proéminents, à l’alerte des utilisateurs voyants d’informations privées qu’ils n’ont pas remarquées, le projet présente un grand avantage potentiel pour la construction d’un cyberespace sûr et digne de confiance pour tous.


L’innovation améliore la confidentialité numérique en cachant les images des regards indiscrets de l’IA


Fourni par l’Université du Colorado à Boulder

Citation: Assurer la sécurité de l’invisible : améliorer la confidentialité numérique des personnes aveugles (2021, 2 décembre) récupéré le 2 décembre 2021 sur https://techxplore.com/news/2021-12-unseen-safe-digital-privacy-people.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.