Ce geste a suscité un vif débat, particulièrement en raison des enjeux croissants autour de la sécurité de ces technologies et de leur impact sur la société.
Un projet ambitieux mais controversé
La proposition de loi – SB 1047, « loi pour une innovation sûre dans les modèles d’IA pionniers » – initialement conçue pour renforcer la protection des consommateurs face aux risques liés à l'IA, avait pour objectif de mettre en place des mesures de contrôle sur l’utilisation de cette technologie par les entreprises. (Voir l’article Livv à ce sujet)
Si ses exigences ne sont pas aussi fortes que celles prévues par la réglementation européenne, il prévoyait que les entreprises d’intelligence artificielle seraient légalement responsables des dommages causés par leurs modèles.
Le texte prévoyait notamment l’intégration d’un « kill switch » (interrupteur d’arrêt) pour désactiver leurs systèmes dans le cas où ils seraient incontrôlables. Par exemple, en cas de dommages majeurs causés par des cyberattaques ou par un modèle d’IA :
- pertes massives en vies humaines ;
- dégâts matériels dépassant les 500 millions de dollars.
Ainsi, l’idée de cette proposition était d'imposer aux sociétés d’encadrer l’impact potentiel de leurs outils d'IA, afin d’éviter tout usage abusif ou dangereux. Toutefois, dès sa présentation, la loi a été vivement critiquée par les géants de la tech.
En effet, si certaines figures emblématiques des entreprises actives dans le secteur du numérique s’y étaient déclarées favorables, comme Elon Musk (X), d’autres comme Mark Zuckerberg (Meta) et Sam Altman (OpenAI) s’y sont opposées.
Inscrivez-vous à la newsletter Livv
et recevez chaque semaine des informations exclusives en droit des affaires. En savoir plus
Le veto du gouverneur : entre prudence et pression économique
Le texte SB 1047 avait été approuvé fin août par le Parlement de Californie et ne nécessitait plus que la signature de Gavin Newsom. Cependant, cette signature a fait l’objet de multiples pressions et le gouverneur californien a décidé de ne pas signer le texte.
Deux camps de sont opposés entre les partisans d’une réglementation plus stricte en matière d’IA et ses opposants. Les réfractaires du texte ont souligné l’importance de ne pas entraver l'innovation.
Dans cette perspective, le gouverneur de Californie s’est opposé au texte. Le veto de Gavin Newsom s'inscrit dans un contexte où la Californie cherche à maintenir son statut de leader dans le domaine technologique.
Selon lui, le projet n’est pas assez sécurisant en l'état et ne s'applique qu'aux modèles les plus coûteux et les plus grands, alors que des modèles plus petits pourraient s'avérer plus dangereux. A ce sujet, the Wall Street Journal souligne que des modèles d’IA plus modestes
"gèrent parfois des prises de décisions capitales impliquant des données sensibles, comme les réseaux électriques et les dossiers médicaux."
Le gouverneur précise également que le texte est trop généraliste en ce qu’il « couvre toutes les fonctions, même les plus ordinaires » que peut assurer l'IA, alors qu'elle devrait se concentrer sur les modèles « déployés dans des environnements à hauts risques », « qui impliquent une prise de décision critique » ou « l'utilisation de données sensibles ».
En prenant cette décision, Gavin Newsom confirme la nécessité de créer un cadre plus réfléchi pour réguler l'IA. Afin d’illustrer sa volonté d’encadrer le développement de l'IA, Gavin Newsom a souligné qu'il avait, au cours du mois dernier, promulgué dix-sept lois en ce sens.
En définitive, la décision du gouverneur de Californie met en lumière les tensions entre innovation technologique et protection des consommateurs. Elle rappelle l’importance de trouver un équilibre entre les deux, dans un contexte où l'intelligence artificielle est appelée à jouer un rôle de plus en plus central.