Les entreprises concernées par le DSA
Ces géants du numérique, ce sont deux grands moteurs de recherche (ou VLOSE pour Very Large Online Search Engines) : Bing et Google Search ; ainsi que six plateformes numériques (ou VLOP pour Very Large Online Platforms) : Facebook, Instagram, Snapchat, TikTok, YouTube et X. Ils ne sont que 22 à faire partie de ces catégories. Ce sont les seules entreprises concernées par le DSA en vertu duquel la Commission a demandé certains renseignements. En effet, le DSA ne s’applique qu’aux plateformes dont le nombre d’utilisateurs mensuels représente plus de 10 % de la population de l’UE, c’est-à-dire plus de 45 millions de personnes.
La demande de la Commission aux géants du numérique
La demande de la Commission concernait les mesures restrictives qui ont été mises en place par ces grands groupes pour atténuer les différents risques liés au développement de l’intelligence artificielle et notamment de l’IA générative. Parmi les différents risques évoqués par la Commission, sont ressortis trois différents phénomènes :
Les hallucinations :
Le premier concerne les « hallucinations », ce sont ces réponses apportées par les IA, présentées comme des certitudes et qui sont pourtant incomplètes ou partiellement, voire complètement, erronées. Ces hallucinations peuvent être générées, entre autres, par des données mal classées, des préjugés dans les données fournies aux modèles ou une programmation insuffisante.
Les deepfakes :
Le deuxième a trait aux « deepfakes », ces créations de textes, d’images et même de sons qui se rapprochent de la réalité mais qui sont en fait créés par des intelligences artificielles. Ainsi, l’on peut faire dire ce que l’on veut à un président ou habiller un pape de toute sorte de manteau. Ces « deepfakes » proviennent de « l’apprentissage profond » des IA et des visages sont générés grâce à la machine qui a appris ce qu’était un visage humain.
La manipulation automatisée des services :
Le dernier phénomène mentionné par la Commission est celui de la manipulation automatisée des services qui peuvent induire en erreur les électeurs.
Les élections européennes en toile de fond
Le contexte de cette demande n’est pas anodin, à quelques mois seulement des élections européennes. La Commission craint l’influence de l’IA générative sur les électeurs. L’objectif du DSA est en grand partie
« d’assurer un environnement en ligne sûr, prévisible et fiable et pour permettre aux citoyens de l’Union et aux autres personnes d’exercer leurs droits fondamentaux garantis par la Charte des droits fondamentaux de l’Union européenne, en particulier la liberté d’expression et d’information, la liberté d’entreprise, le droit à la non-discrimination et la garantie d’un niveau élevé de protection des consommateurs. » [1]
Aujourd’hui, la Commission ne cache pas son objectif dans cette demande de renseignement : elle souhaite garantir l’intégrité des élections et la qualité du vote des citoyens de l’Union. C’est pourquoi elle a publié très récemment des lignes directrice à l’adresse des géants du numérique.
Inscrivez-vous à la newsletter Livv
et recevez chaque semaine des informations exclusives en droit des affaires. En savoir plus
La publication de lignes directrices pour l’atténuation des risques systémiques en ligne pour les élections
Le 26 mars, la Commission a publié des lignes directrices sur les mesures recommandées à l’intention des très grandes plateformes en ligne susceptibles d’avoir une incidence sur l’intégrité des élections.
Ces lignes directrices recommandent des mesures d’atténuation et des bonnes pratiques à mettre en œuvre par les géants du numérique, avant, pendant et après les élections telles que :
- Le renforcement de leurs processus internes avec la mise en place d’équipes pourvues de ressources adéquates ;
- L’adoption des mesures d’atténuation spécifiques liées à l’IA générative. Les plateformes et moteurs de recherche devraient pouvoir évaluer et atténuer les risques spécifiquement liés à l’IA en indiquant clairement les contenus générés par cette dernière ;
- L’adoption de mesures spécifiques, y compris un mécanisme de réaction aux incidents, au cours d'une période électorale ;
- La mise en œuvre de mesures d’atténuation des risques propres aux élections, adaptées à chaque période électorale et à chaque contexte local. Les géants du numérique sont invités à promouvoir des informations officielles sur les processus électoraux, à participer à l’éducation aux médias et adapter leurs systèmes de recommandations ainsi qu’à étiqueter de façon claire la publicité à caractère politique ;
- La coopération avec les autorités nationales et de l’Union européenne, les experts indépendants et les organisations de la société civile pour favoriser l’échange d’informations ;
- L’évaluation de l’efficacité des mesures mises en place par des examens postérieurs aux élections.
Le jour de la publication de ces lignes directrices, Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l’ère du numérique, a notamment déclaré :
« Nous avons adopté la législation sur les services numériques afin de veiller à ce que les technologies soient au service des citoyens et des sociétés dans lesquelles nous vivons. Dans la perspective d’élections européennes cruciales, cela inclut l’obligation pour les plateformes de protéger les utilisateurs contre les risques liés aux processus électoraux, tels que la manipulation ou la désinformation. Les lignes directrices présentées aujourd’hui fournissent des recommandations concrètes aux plateformes pour mettre en pratique cette obligation. »
Quelle suite à ces demandes et lignes directrices ?
Les plateformes concernées ont jusqu’au 5 avril pour répondre aux demandes de la Commission qui a également prévu un test de résistance à leurs côtés pour la fin du mois d’avril.
En cas de refus de se conformer aux demandes de la Commission, cette dernière sera en droit de leur infliger une sanction pécuniaire sous la forme d’une amende. Une amende peut être également prononcée en cas de communication d’informations incomplètes ou erronées. Puis, la Commission pourra réitérer cette demande sous la forme d’une décision. Cette nouvelle décision sera alors assortie d’une date butoir et d’une astreinte. Ces procédures sont entérinées aux articles 74 et 75 du règlement DSA.
Dans le même temps, la Commission européenne a également exigé des explications de la part du groupe LinkedIn. Ce réseau social est soupçonné d’exploiter, à l’encontre du droit de l’Union et à des fins de ciblage publicitaire, certaines données personnelles sensibles de ses utilisateurs telles l’orientation sexuelle ou les opinions politiques.
Note de bas de page
[1] Considérant n° 3 du Règlement 2022/2065 ou DSA