Er is een aanzienlijke kloof ontstaan tussen twee van ‘s werelds toonaangevende AI-ontwikkelaars, Anthropic en OpenAI, over de mate waarin bedrijven wettelijke verantwoordelijkheid moeten dragen als hun technologie catastrofale schade veroorzaakt.
Centraal in dit dispuut staat Senaatswet 3444 in Illinois – een stuk wetgeving dat AI-laboratoria een niveau van juridische immuniteit zou verlenen in het geval van grootschalige rampen. Hoewel de goedkeuring van het wetsvoorstel onzeker blijft, benadrukt het debat een groeiende ideologische strijd over de vraag of de industrie zelfregulerend moet zijn of strikt verantwoordelijk moet worden gehouden via de rechtbanken.
De kern van het geschil: SB 3444
De voorgestelde wet uit Illinois zou AI-ontwikkelaars beschermen tegen aansprakelijkheid als hun systemen worden gebruikt om ‘kritieke schade’ te veroorzaken, gedefinieerd als massale slachtoffers of materiële schade van meer dan $ 1 miljard.
De controversiële ‘maas in de wet’ in het wetsvoorstel is als volgt:
– Een AI-lab zou de juridische verantwoordelijkheid voor een ramp (zoals de creatie van een biowapen) kunnen vermijden.
– Op voorwaarde dat het laboratorium een eigen veiligheidskader heeft opgesteld en op zijn website heeft gepubliceerd.
OpenAI heeft dit wetsvoorstel actief gesteund, met het argument dat dergelijke bescherming noodzakelijk is om innovatie te bevorderen. Zij beweren dat het beperken van de aansprakelijkheid zowel kleine als grote ondernemingen in staat stelt geavanceerde AI-technologieën te gebruiken zonder de constante dreiging van verlammende rechtszaken. OpenAI beweert dat ze werken aan een ‘geharmoniseerde’ regelgevingsaanpak in verschillende staten om uiteindelijk een nationaal raamwerk te vormen.
Antropisch lobbyt daarentegen agressief om het wetsvoorstel te wijzigen of te schrappen. Hun standpunt is dat transparantie zonder verantwoording onvoldoende is. Anthropic stelt dat ontwikkelaars gedeeltelijk verantwoordelijk moeten blijven voor de maatschappelijke schade die hun modellen zouden kunnen veroorzaken, in plaats van te ontvangen wat zij omschrijven als een ‘verlaat-uit-de-gevangenis-vrije kaart’.
Waarom dit ertoe doet: de erosie van het gewoonterecht
Het meningsverschil gaat niet alleen over één enkele staatswet; het gaat over de fundamentele juridische principes die de technologie beheersen.
Juridische experts, waaronder die van het Secure AI Project, waarschuwen dat SB 3444 bestaande beveiligingen zou kunnen ontmantelen. Onder het huidige gewoonterecht worden bedrijven al gestimuleerd om voorzienbare risico’s te voorkomen, omdat ze kunnen worden vervolgd als ze dit niet doen. Door de immuniteit te codificeren, zou het wetsvoorstel:
1. Verminder de prikkel voor bedrijven om zwaar te investeren in rigoureuze veiligheidstests.
2. Verschuif de risicolast van de miljardenbedrijven naar het publiek en de slachtoffers van door AI mogelijk gemaakte ongelukken.
3. Creëer een regelgevend vacuüm waarin ‘veiligheidskaders’ zelfbeheersend zijn en geen onafhankelijk toezicht hebben.
Politieke en uitvoerende reacties
Het debat heeft de hoogste niveaus van de deelstaatregering al bereikt. Terwijl de wetgevers in Illinois het voorstel nog steeds beoordelen, biedt het standpunt van het kantoor van de gouverneur een inkijkje in het politieke klimaat:
“Gouverneur Pritzker gelooft niet dat grote technologiebedrijven ooit een volledig schild moeten krijgen dat de verantwoordelijkheden ontwijkt die zij zouden moeten hebben om het publieke belang te beschermen.” — Woordvoerder van gouverneur JB Pritzker
Samenvatting van posities
| Kenmerk | Het standpunt van OpenAI | Het standpunt van Anthropic |
|---|---|---|
| Primair doel | Bescherming van innovatie en economische groei. | Het waarborgen van de openbare veiligheid en de verantwoordelijkheid van het bedrijfsleven. |
| Kijk op Aansprakelijkheid | Er zijn limieten nodig om de inzet van AI mogelijk te maken. | Aansprakelijkheid is een noodzakelijk afschrikmiddel tegen misbruik. |
| Regulerende visie | Door de staat geleide ‘geharmoniseerde’ kaders. | Veiligheid moet gepaard gaan met reële juridische gevolgen. |
Conclusie: Naarmate de AI-technologie zich ontwikkelt in de richting van ‘grensoverschrijdende’ capaciteiten, splitst de industrie zich in twee kampen: een kamp dat prioriteit geeft aan snelle inzet door middel van wettelijke bescherming, en een ander dat aandringt op strikte aansprakelijkheid om de openbare veiligheid te garanderen. De uitkomst van deze wetgevingsstrijd zal waarschijnlijk het juridische landschap voor kunstmatige intelligentie de komende decennia bepalen.
