Comprendre la confidentialité des données à l’ère de l’IA

Comprendre la confidentialité des données à l’ère de l’IA

kdn-chugh-private-door-header Comprendre la confidentialité des données à l’ère de l’IA NEWS
Image par auteur | À mi-parcours et Canva

Les discussions sur le développement éthique et responsable de l’IA ont pris de l’ampleur ces dernières années, et à juste titre. Ces discussions visent à faire face à une multitude de risques, impliquant des préjugés, de la désinformation, l’équité, etc.

Bien que certains de ces défis ne soient pas entièrement nouveaux, l’augmentation de la demande pour les applications d’IA les a certainement amplifiés. La confidentialité des données, un problème persistant, a gagné en importance avec l’émergence de l’IA générative.

Cette déclaration de Halsey Burgund, membre du MIT Open Documentary Lab, souligne l’intensité de la situation : « Il faut considérer tout ce que l’on publie librement sur Internet comme des données de formation potentielles avec lesquelles quelqu’un peut faire quelque chose. »

Les temps qui changent appellent des mesures changeantes. Comprenons donc les répercussions et prenons conscience de la gestion des risques liés à la confidentialité des données.

Il est temps de lever la garde

Toute entreprise qui gère des données utilisateur, que ce soit sous la forme de collecte et de stockage de données, de manipulation de données et de traitement pour construire des modèles, etc., doit prendre en charge divers aspects des données, tels que :

  • D’où viennent les données et où vont-elles ?
  • Comment sont-elles manipulées ?
  • Qui les utilise et comment ?

En bref, il est crucial de noter comment et avec qui les données sont échangées.

Chaque utilisateur qui partage ses données et donne son consentement pour les utiliser doit faire attention aux informations qu’il est à l’aise de partager. Par exemple, il faut être à l’aise pour partager des données si l’on souhaite recevoir des recommandations personnalisées.

Le RGPD est la référence

La gestion des données devient un enjeu majeur lorsqu’il s’agit de PII, c’est-à-dire d’informations personnelles identifiables. Selon le Département du Travail des États-Unis, cela comprend en grande partie des informations qui identifient directement une personne, telles que son nom, son adresse, tout numéro ou code d’identification, son numéro de téléphone, son adresse e-mail, etc. Une définition et des conseils plus nuancés sur les informations personnelles sont disponibles ici.

Pour protéger les données des individus, l’Union européenne a adopté le Règlement général sur la protection des données (RGPD), fixant des normes strictes de responsabilité pour les entreprises qui stockent et collectent des données sur les citoyens de l’UE.

Le développement est plus rapide que la réglementation

Il est empiriquement évident que le rythme de développement de toute innovation et percée technologique est bien plus rapide que le rythme auquel les autorités peuvent prévoir ses préoccupations et les gérer en temps opportun.

Alors, que faire jusqu’à ce que la réglementation rattrape le rythme des évolutions rapides ? Découvrons-le.

Autorégulation

Une façon de combler cette lacune consiste à élaborer des mesures de gouvernance interne, à l’instar de la gouvernance d’entreprise et de la gouvernance des données. Cela équivaut à posséder vos modèles au meilleur de vos connaissances, en respectant les normes et les meilleures pratiques connues de l’industrie.

De telles mesures d’autorégulation constituent un indicateur très fort du respect de normes élevées d’intégrité et d’orientation client, ce qui peut devenir un différenciateur dans ce monde hautement concurrentiel. Les organisations qui adoptent la charte d’autorégulation peuvent la porter comme un insigne d’honneur et gagner la confiance et la fidélité des clients – ce qui est un grand exploit, étant donné les faibles coûts de changement pour les utilisateurs parmi la pléthore d’options disponibles.

L’un des aspects de l’élaboration de mesures de gouvernance interne de l’IA est qu’elles maintiennent les organisations sur la voie d’un cadre d’IA responsable, afin qu’elles soient préparées à une adoption facile lorsque les réglementations juridiques seront mises en place.

Les règles doivent être les mêmes pour tout le monde

Établir la priorité est une bonne chose, en théorie. Techniquement parlant, aucune organisation n’est pleinement capable de tout prévoir et de se protéger.

Un autre argument qui va à l’encontre de l’autorégulation est que tout le monde devrait adhérer aux mêmes règles. Personne ne souhaiterait auto-saboter sa croissance en prévision de la réglementation à venir en se sur-réglementant, entravant ainsi la croissance de son entreprise.

L’autre côté de la vie privée

De nombreux acteurs peuvent jouer leur rôle dans le respect de normes élevées en matière de confidentialité, comme les organisations et leurs employés. Cependant, les utilisateurs ont un rôle tout aussi important à jouer : il est temps de lever la garde et de développer une prise de conscience. Discutons-en en détail ci-dessous :

Rôle des organisations et des employés

Les organisations ont créé un cadre de responsabilité pour sensibiliser leurs équipes et les faire prendre conscience des bonnes manières d’inspirer le modèle. Pour des secteurs comme la santé et la finance, toute information sensible partagée via des invites de saisie constitue également une forme de violation de la vie privée – cette fois sans le savoir, mais par l’intermédiaire des employés et non des développeurs du modèle.

Rôle des utilisateurs

Essentiellement, la confidentialité ne peut pas être une question si nous introduisons nous-mêmes ces données dans de tels modèles.

cold-smooth-tasty-1 Comprendre la confidentialité des données à l’ère de l’IA NEWS cold-smooth-tasty-1 Comprendre la confidentialité des données à l’ère de l’IA NEWS
Image par auteur

La plupart des modèles fondamentaux (similaires à l’exemple présenté dans l’image ci-dessus) soulignent que l’historique des discussions peut être utilisé pour améliorer le modèle. Les utilisateurs doivent donc vérifier minutieusement le contrôle des paramètres pour autoriser l’accès approprié afin de promouvoir la confidentialité de leurs données.

Échelle de l’IA

Les utilisateurs doivent visiter et modifier le contrôle de consentement sur chaque navigateur et par appareil pour mettre fin à de telles violations. Cependant, pensez maintenant aux grands modèles qui analysent ces données sur presque tout l’Internet, incluant principalement tout le monde.

Cette échelle devient un problème !

C’est précisément la raison pour laquelle les grands modèles de langage sont avantagés en ayant accès à des données de formation de plusieurs ordres de grandeur supérieurs à ceux des modèles traditionnels. Cette même échelle crée d’énormes problèmes soulevant également des problèmes de confidentialité.

Deepfakes – Une forme déguisée de violation de la vie privée

Récemment, un incident s’est produit au cours duquel un dirigeant d’une entreprise a ordonné à son employé d’effectuer une transaction de plusieurs millions de dollars sur un certain compte. Suite au scepticisme, l’employé a suggéré d’organiser un appel pour en discuter, après quoi il a effectué la transaction – pour ensuite savoir que toutes les personnes à l’appel étaient des deepfakes.

Pour les non avertis, le Bureau de la responsabilité gouvernementale l’explique comme suit : « un enregistrement vidéo, photo ou audio qui semble réel mais qui a été manipulé avec l’IA. La technologie sous-jacente peut remplacer les visages, manipuler les expressions faciales, synthétiser les visages et synthétiser la parole. Les deepfakes peuvent représenter quelqu’un semblant dire ou faire quelque chose qu’il n’a jamais dit ou fait. »

D’un point de vue rhétorique, les deepfakes sont également une forme d’atteinte à la vie privée, équivalente au vol d’identité, dans laquelle les mauvais acteurs prétendent être quelqu’un qu’ils ne sont pas.

Avec de telles identités volées, ils peuvent prendre des décisions et des actions qui, autrement, n’auraient pas eu lieu.

Cela nous rappelle de manière cruciale que les mauvais acteurs, c’est-à-dire les attaquants, sont souvent bien en avance sur les bons acteurs, qui sont en défense. Les bons acteurs s’efforcent toujours de limiter les dégâts en premier et de garantir des mesures robustes pour éviter de futurs incidents.

Vidhi Chugh est un stratège en IA et un leader de la transformation numérique travaillant à l’intersection des produits, des sciences et de l’ingénierie pour créer des systèmes d’apprentissage automatique évolutifs. Elle est une leader de l’innovation primée, une auteure et une conférencière internationale. Elle a pour mission de démocratiser l’apprentissage automatique et de briser le jargon pour que chacun fasse partie de cette transformation.

Source