Un fossé important est apparu entre deux des principaux développeurs d’IA au monde, Anthropic et OpenAI, concernant le degré de responsabilité juridique que devraient assumer les entreprises lorsque leur technologie cause des dommages catastrophiques.

Au centre de ce différend se trouve le projet de loi 3444 du Sénat de l’Illinois, un texte législatif qui accorderait aux laboratoires d’IA un niveau d’immunité juridique en cas de catastrophes à grande échelle. Bien que l’adoption du projet de loi reste incertaine, le débat met en lumière une bataille idéologique croissante sur la question de savoir si l’industrie doit être autorégulée ou tenue strictement responsable devant les tribunaux.

Le cœur du différend : SB 3444

La loi proposée par l’Illinois protégerait les développeurs d’IA de toute responsabilité si leurs systèmes sont utilisés pour causer des « dommages critiques », définis comme des pertes massives ou des dommages matériels dépassant 1 milliard de dollars.

La « lacune » controversée du projet de loi est la suivante :
– Un laboratoire d’IA pourrait éviter toute responsabilité juridique en cas de catastrophe (comme la création d’une arme biologique).
À condition que le laboratoire ait rédigé son propre cadre de sécurité et l’ait publié sur son site Internet.

OpenAI a activement soutenu ce projet de loi, arguant que de telles protections sont nécessaires pour favoriser l’innovation. Ils soutiennent que limiter la responsabilité permet aux petites et grandes entreprises d’utiliser des technologies d’IA de pointe sans la menace constante de litiges paralysants. OpenAI affirme qu’ils travaillent à une approche réglementaire « harmonisée » dans différents États pour, à terme, éclairer un cadre national.

Anthropic, à l’inverse, fait un lobbying agressif pour amender ou tuer le projet de loi. Leur position est que la transparence sans responsabilité est insuffisante. Anthropic soutient que les développeurs doivent rester partiellement responsables des préjudices sociétaux que leurs modèles pourraient faciliter, plutôt que de recevoir ce qu’ils décrivent comme une « carte pour sortir de prison ».

Pourquoi c’est important : l’érosion de la common law

Le désaccord ne concerne pas seulement un projet de loi d’un seul État ; il s’agit des principes juridiques fondamentaux qui régissent la technologie.

Des experts juridiques, notamment ceux du Secure AI Project, préviennent que le SB 3444 pourrait démanteler les protections existantes. En vertu du droit commun actuel, les entreprises sont déjà incitées à prévenir les risques prévisibles, car elles peuvent être poursuivies en justice si elles ne le font pas. En codifiant l’immunité, le projet de loi pourrait :
1. Réduire l’incitation pour les entreprises à investir massivement dans des tests de sécurité rigoureux.
2. Déplacer le fardeau du risque des entreprises multimilliardaires vers le public et les victimes d’accidents grâce à l’IA.
3. Créer un vide réglementaire dans lequel les « cadres de sécurité » sont auto-régulés et manquent de surveillance indépendante.

Réactions politiques et exécutives

Le débat a déjà atteint les plus hauts niveaux du gouvernement de l’État. Alors que les législateurs de l’Illinois examinent encore la proposition, la position du bureau du gouverneur donne un aperçu du climat politique :

“Le gouverneur Pritzker ne croit pas que les grandes entreprises technologiques devraient jamais bénéficier d’un bouclier complet leur permettant d’échapper aux responsabilités qu’elles devraient avoir pour protéger l’intérêt public.” — Porte-parole du gouverneur JB Pritzker

Résumé des postes

Fonctionnalité Position d’OpenAI La position anthropique
Objectif principal Protéger l’innovation et la croissance économique. Assurer la sécurité publique et la responsabilité des entreprises.
Avis sur la responsabilité Des limites sont nécessaires pour permettre le déploiement de l’IA. La responsabilité est un moyen de dissuasion nécessaire contre les abus.
Vision réglementaire Cadres « harmonisés » dirigés par l’État. La sécurité doit s’accompagner de réelles conséquences juridiques.

Conclusion : À mesure que la technologie de l’IA progresse vers des capacités « frontières », l’industrie se divise en deux camps : l’un qui donne la priorité à un déploiement rapide grâce à des protections juridiques, et l’autre qui insiste sur la responsabilité stricte pour assurer la sécurité publique. L’issue de ces batailles législatives définira probablement le paysage juridique de l’intelligence artificielle pour les décennies à venir.