La CNIL partage sa FAQ sur l'utilisation de l'IA générative

Le 18 juillet 2024, la Commission nationale de l'informatique et des libertés (CNIL) a publié une FAQ détaillant l'utilisation des systèmes d'intelligence artificielle générative. 

Publié le 
31/7/2024
La CNIL partage sa FAQ sur l'utilisation de l'IA générative
 

Cette initiative s'inscrit dans le cadre de sa mission de protection des données personnelles et de promotion de bonnes pratiques en matière de technologies de l'information. La CNIL souhaite ainsi apporter des éclaircissements sur les enjeux, les risques et les obligations liés à ces technologies.

Un guide d’utilisation de l’IA

L'IA générative, qui se caractérise par sa capacité à produire des contenus nouveaux et variés à partir de modèles préexistants, suscite de nombreuses interrogations. Parmi les principales questions abordées, la CNIL met en avant la nécessité de garantir la transparence des algorithmes utilisés. 

Les utilisateurs doivent être informés de l'existence de ces systèmes et de leur mode de fonctionnement, afin d'assurer un usage éclairé et responsable.

En effet, cette session de questions-réponses de la CNIL vise à fournir un guide précieux clair et précis pour les entreprises et les particuliers souhaitant adopter ces technologies tout en respectant les règles de protection des données. 

En promouvant une utilisation responsable et transparente de l'IA, la CNIL vise à renforcer la confiance du public envers ces innovations technologiques.

Les risques des systèmes d’IA générative

Les modèles génératifs suivent une logique probabiliste, produisant les résultats les plus probables en fonction des données sur lesquelles ils ont été entraînés. 

En conséquence, ils peuvent parfois générer des informations incorrectes qui semblent crédibles, connues sous le terme d'hallucinations. Une confiance excessive dans ces résultats, sans vérification adéquate, peut mener à des décisions ou conclusions erronées.

De plus, selon la CNIL, les capacités de ces systèmes peuvent être détournées pour des usages abusifs, tels que :  

  • la désinformation via des « deepfakes », 
  • la création de codes malveillants,
  • la fourniture d'instructions pour des activités illégales ou dangereuses, comme la fabrication d'explosifs.

La protection des données

En matière de conformité, la CNIL rappelle les principes fondamentaux du Règlement Général sur la Protection des Données (RGPD), tels que la minimisation des données, la limitation des finalités et la protection des droits des personnes concernées. 

Les développeurs et les utilisateurs de ces technologies doivent s'assurer que les données traitées sont pertinentes et limitées à ce qui est nécessaire. Les responsables de traitement doivent également mettre en place des mesures techniques et organisationnelles pour protéger les données contre les risques de violation.

La CNIL met également l'accent sur la nécessité de garantir la sécurité des données. Les systèmes d'IA générative doivent être conçus de manière à prévenir les accès non autorisés et les manipulations malveillantes. Des protocoles de sécurité rigoureux doivent être mis en place pour protéger les données pendant toute la durée de leur traitement.

La protection pour l’inclusivité et contre les discriminations

Un autre aspect crucial concerne la gestion des biais et des discriminations que peuvent engendrer les systèmes d'IA générative. La CNIL recommande aux développeurs de tester régulièrement leurs modèles pour détecter et corriger les biais éventuels. 

Elle préconise également l'adoption de politiques de diversité et d'inclusion afin de garantir que les systèmes développés reflètent une variété de perspectives et évitent les stéréotypes.

Les conseils de la CNIL pour choisir son système d’IA générative

« En fonction des usages envisagés et de leur sensibilité, il convient de vérifier :

  • sa sécurité générale, par exemple s’assurer que l’outil est développé pour refuser de répondre à des requêtes malveillantes, toxiques ou illicites ;
  • sa pertinence pour le besoin spécifiquement identifié, par exemple en privilégiant des systèmes limitant les hallucinations, en citant leurs sources, en filtrant les sorties, ou ayant été entraînés ou ajustés (fine-tunés) sur une base de données de qualité et spécifique ;
  • sa robustesse, par exemple en privilégiant les systèmes déjà testés et éprouvés pour les tâches envisagées ;
  • L’absence de biais éventuels, par exemple de biais discriminatoires qui pourraient notamment résulter d’un manque de diversité des données d’entraînement ;
  • sa conformité aux règles applicables, en prenant connaissance de sa licence d’utilisation ou des informations sur les données d'entraînement, qu’il s’agisse d’un modèle propriétaire ou en source ouverte. »

La responsabilité en cas de manquement 

Enfin, la FAQ aborde la question de la responsabilité. En cas de manquement aux obligations légales, les utilisateurs et les développeurs de systèmes d'IA générative peuvent être tenus responsables.

La CNIL souligne que la responsabilité ne se limite pas aux seuls concepteurs de l'IA, mais s'étend également aux utilisateurs finaux qui doivent utiliser ces outils de manière éthique et conforme à la réglementation.

Flèche en arrière
Retour vers toutes les actualités

Vous souhaitez bénéficier d'une démonstration de la plateforme Livv ?

Dans vos bureaux ou en visio, nos équipes s'adaptent à vos besoins. Vous pouvez également nous contacter via notre formulaire de contact.

Prendre RDV pour une démo

Les dernières actualités du droit des affaires

Tout voir

Vous souhaitez bénéficier d'une démonstration de la plateforme Livv.eu ?

Dans vos bureaux ou en visio, nos équipes s'adaptent à vos besoins.

Accédez à toute l'intelligence du droit des affaires

Inscrivez-vous gratuitement sur Livv et bénéficiez de notre expertise en droit des affaires.‍

Essayer gratuitement Livv
Élément décoratif accompagnant un texte descriptif Livv.

Inscrivez-vous à la newsletter Livv

et recevez chaque semaine des informations exclusives en droit des affaires. En savoir plus