La technologie de l'IA est si récente que le paysage juridique est encore en train de se développer et d'évoluer. Ce manque apparent de lignes directrices techniques peut mettre les entreprises en danger.
Selon l'American Bar Association, le nombre d'affaires judiciaires impliquant l'IA a considérablement augmenté, ce qui soulève des questions importantes, notamment celle de savoir si ces outils relèvent de la législation sur la protection de la vie privée et, le cas échéant, de quelle manière.
Pour aider votre entreprise à apprendre à utiliser la technologie de l'IA de manière responsable et dans le respect des lois sur la protection de la vie privée, voici une liste de bonnes pratiques qui pourraient vous faire gagner du temps et vous épargner des tracas à l'avenir.
Confidentialité des données et IA
Quelle que soit la manière dont on les aborde, l'IA et la confidentialité des données sont intrinsèquement liées.
L'IA s'appuie sur des ensembles de données gigantesques pour fonctionner correctement, et certaines de ces données relèveront probablement de la définition juridique large des données à caractère personnel, ou informations à caractère personnel :
"... toute information concernant ou identifiant une personne, un ménage ou des personnes spécifiques, telles que les noms, adresses, adresses IP, courriels, dates de naissance, etc, l'adresse, l'adresse IP, les courriels, les dates de naissance, etc.
Mais le droit évolue beaucoup plus lentement que la technologie. Le paysage juridique de l'IA est encore en développement, tout comme les conséquences potentielles.
À l'heure actuelle, il n'existe pas de liste unique d'exigences que toutes les entités pourraient facilement suivre. De ce fait, les entreprises sont prises entre le marteau et l'enclume.
Comment votre entreprise peut-elle tirer parti de l'utilisation de ces outils d'IA passionnants sans s'exposer à de futures réactions juridiques ou à d'autres répercussions ?
Comment trouver des outils et des plateformes d'IA responsables
Voici mes suggestions pour trouver des outils et des plateformes d'IA tiers responsables, que je développe en détail dans la section suivante :
- Privilégier les plateformes d'IA qui respectent les lois existantes en matière de confidentialité des données. En particulier, celles qui donnent la priorité à la vie privée des utilisateurs, comme le règlement général sur la protection des données et la loi californienne sur la protection de la vie privée des consommateurs.
- Vérifiez la sécurité et la sûreté des plateformes d'IA utilisées par votre entreprise. Les données montrent que les risques et les crimes liés à la cybersécurité continuent d'augmenter, et les coûts des dommages causés par la cybercriminalité au niveau mondial devraient atteindre 10 500 milliards de dollars par an d'ici la fin de l'année.
- Donner la priorité à l'utilisation d'outils d'IA qui intègrent la protection de la vie privée des utilisateurs dans tous les aspects de leurs activités. Cela signifie qu'il faut lire attentivement les politiques juridiques des entités, y compris les politiques en matière de confidentialité et de cookies, ainsi que les conditions générales d'utilisation.
Examinons chacun d'entre eux plus en détail.
L'IA responsable s'aligne sur les lois relatives à la protection de la vie privée
Lorsque vous choisissez des outils d'IA, recherchez ceux qui prétendent se conformer aux lois sur la confidentialité des données.
Par exemple, vous pourriez rechercher des fonctions d'IA dans les solutions de gestion de la relation client (CRM) qui sont conformes au RGPD, à la CCPA et à la loi européenne sur l'IA.
Pourquoi ? Ces lois définissent des exigences qui protègent l'intégrité et la sécurité des informations personnelles des consommateurs. Elles ajoutent une couche de protection pour votre entreprise et ses consommateurs.
Comment vérifier ?
Lisez la politique de confidentialité de toute plateforme d'IA que votre entreprise envisage d'utiliser.
Vous saurez ainsi comment ils utilisent les informations personnelles, y compris les informations collectées sur vos clients, si vous choisissez d'utiliser leur outil.
Il devrait également vous indiquer les lois qu'ils sont tenus de respecter. Par exemple, il peut y avoir des clauses spécifiques à la CCPA ou au RGPD qui énumèrent les différents droits que les utilisateurs peuvent faire valoir.
Si votre entreprise est soumise à des lois spécifiques, vous pouvez même utiliser des outils d'IA qui sont également soumis à ces mêmes législations.
L'IA responsable donne la priorité à la sûreté et à la sécurité
Les risques cybernétiques ont augmenté, comme l'ont prédit les experts au cours des dernières années et comme le montrent les statistiques récentes sur la cybersécurité.
Les coûts associés à la cybercriminalité ont également augmenté.
C'est pourquoi il est important d'examiner les pratiques de sécurité décrites par les plateformes d'IA ou d'autres entités tierces qui introduisent votre entreprise dans un outil basé sur l'IA.
Ces acteurs malveillants ne s'attaquent plus seulement aux grandes entreprises. Ils s'en prennent souvent aux particuliers, aux petites entreprises, aux organismes éducatifs et aux organisations à but non lucratif, etc.
Comment vérifier ?
Pour vérifier la sûreté et la sécurité d'une plateforme d'IA ou d'un service tiers, consultez leurs conditions de service et tout accord de licence d'utilisateur final disponible.
Ils doivent comporter plusieurs clauses mettant en évidence leurs pratiques en matière de sécurité. Lisez-les attentivement et recherchez les signes positifs suivants :
- Mentions des pratiques de sécurité mises en place pour protéger les données
- Précisions sur la fréquence de mise à jour et de vérification des pratiques de sécurité
- Un plan d'action en cas de violation de la vie privée ou d'incident.
- Des informations de contact pour que les consommateurs puissent joindre l'entreprise s'ils soupçonnent que leurs informations ont été violées.
L'IA responsable donne la priorité à la protection de la vie privée des utilisateurs
Essayez de trouver des outils d'IA qui promettent de respecter les informations personnelles des utilisateurs, les lois sur la protection de la vie privée et la sécurité des données, et qui accordent la priorité à l'intégration de la protection de la vie privée des utilisateurs dans les fondements de leur plateforme.
Par exemple, des plateformes de navigation telles que Leo de Brave et AI Chat de DuckDuckGo permettent aux utilisateurs d'utiliser la recherche par intelligence artificielle sans suivi de conversation.
D'autres plateformes, comme CustomGPT.ai, aident les entreprises à créer des assistants IA personnalisés formés à partir de matériel et de ressources internes sans partager aucune donnée.
Comment vérifier ?
Lorsque vous choisissez des outils d'IA pour votre entreprise, vous pouvez en apprendre beaucoup sur leurs pratiques en matière de données et leurs politiques d'IA en lisant leur politique de confidentialité et leurs conditions d'utilisation.
Ils devraient avoir des clauses clairement rédigées expliquant exactement quelles sont les données qu'ils détiennent.
Si ces informations ne figurent pas dans la politique (ou pire, si l'entreprise n'a même pas de politique de confidentialité), il est peut-être plus prudent d'envisager d'autres options.
Pratiques exemplaires en matière de protection des données dans le cadre de l'utilisation de l'IA
Voici ensuite quelques bonnes pratiques que les entreprises peuvent garder à l'esprit lorsqu'elles utilisent des outils d'IA, en particulier celles qui prévoient de partager les données personnelles des consommateurs avec ces plateformes.
Soyez transparent sur votre utilisation de l'IA
Il est important que vous soyez honnête avec vos utilisateurs sur la façon dont votre entreprise utilise l'IA, notamment en les informant sur les outils tiers dont vous vous servez.
Par exemple, voici quelques façons d'être transparent sur votre utilisation de l'IA, ce qui montrera aux visiteurs de votre site que vous êtes honnête et digne de confiance :
- Indiquez clairement si et quand l'IA a été utilisée sur votre site web pour générer du contenu, y compris des images, des vidéos, des voix off ou tout autre type de matériel.
- Indiquez clairement dans votre politique de confidentialité les plateformes d'IA que vous utilisez, si vous partagez des données avec cette plateforme, quelles données sont partagées et comment vos utilisateurs peuvent se désengager de ce partage.
Il peut même s'agir d'une obligation légale pour votre entreprise, en fonction des lois sur la confidentialité des données qui s'appliquent à vous et à vos consommateurs.
Limiter la collecte et le partage des données
Lorsque vous utilisez des outils d'intelligence artificielle, veillez à limiter la quantité de données que vous collectez et partagez avec eux.
Un bon état d'esprit à adopter est de ne partager des données que lorsque cela est absolument nécessaire pour atteindre un objectif spécifique. Cet objectif doit être clairement énoncé dans la politique de confidentialité de votre entreprise.
Par exemple, si vous souhaitez analyser les résultats d'une enquête auprès des clients en saisissant les données dans une plateforme d'IA, pensez à supprimer toutes les informations personnelles identifiables, comme les noms des clients, les adresses électroniques, les dates de naissance ou d'autres détails.
Encore une fois, il s'agit d'une exigence en vertu de lois telles que le RGPD, donc si cela s'applique à votre entreprise, vous devez légalement minimiser votre collecte de données.
Obtenir le consentement de l'utilisateur avant de partager des données
Si votre entreprise souhaite partager des données de consommateurs avec un outil d'IA pour quelque raison que ce soit, il est important de s'assurer que vous obtenez d'abord le consentement approprié de l'utilisateur, en particulier s'il est protégé par des lois sur la confidentialité des données.
Par exemple, vous pouvez ajouter une bannière de consentement à votre page avec un lien vers une politique de cookies qui mentionne clairement tous les cookies ou traceurs que votre site utilise et qui sont liés à des outils ou à des plateformes d'IA.
Identifiez correctement ces cookies et permettez à vos utilisateurs de choisir s'ils veulent accepter spécifiquement ces cookies ou non. Vous devez également mentionner explicitement ce partage de données dans une clause de votre politique de confidentialité.
Veillez à ce que vos utilisateurs puissent exercer leurs droits en matière de protection de la vie privée
Il est essentiel que vos utilisateurs soient en mesure de faire respecter leurs droits en matière de protection de la vie privée, y compris toute demande concernant des données partagées avec un outil d'IA.
Bien que les droits spécifiques des consommateurs varient en fonction de la loi, la plupart d'entre eux définissent les points suivants :
- Le droit d'accès à leurs données
- Le droit de corriger leurs données,
- Le droit de supprimer leurs données,
- Le droit de modifier leurs données,
- Le droit de cesser ou de limiter la collecte de données
- Le droit à la portabilité des données
Imaginez que l'un de vos utilisateurs en Europe, protégé par le RGPD , demande à ce que les informations que vous avez partagées avec un outil d'IA soient corrigées ou supprimées.
Vous devez disposer d'une méthode permettant de donner suite à ces demandes de manière raisonnable, faute de quoi vous risquez d'être sanctionné pour violation de la législation sur la protection de la vie privée.
Comment Termly peut vous aider à communiquer vos politiques d'IA à vos utilisateurs
La suite de solutions de consentement et de générateurs de politiques de Termlypeut également aider votre entreprise à informer de manière transparente vos utilisateurs sur vos politiques d'IA.
Notregénérateur de politique de confidentialité, qui s'appuie sur des bases juridiques, vous permet d'ajouter une clause relative à l'IA à votre politique et vous demande quelles sont les plateformes utilisées par votre entreprise.
Il comporte une liste déroulante de plates-formes tierces courantes ainsi que la possibilité de saisir vos propres outils.
Il est facile à utiliser, abordable et vous permet de vous assurer que vos utilisateurs sont correctement informés sur l'IA et la confidentialité de leurs données personnelles.
Révisé par Masha Komnenic CIPP/E, CIPM, CIPT, FIP Directrice de la protection de la vie privée au niveau mondial

