È emersa una significativa spaccatura tra due dei principali sviluppatori di intelligenza artificiale al mondo, Anthropic e OpenAI, riguardo alla responsabilità legale che le aziende dovrebbero assumersi quando la loro tecnologia provoca danni catastrofici.

Al centro di questa controversia c’è il Senate Bill 3444 dell’Illinois, un atto legislativo che garantirebbe ai laboratori di intelligenza artificiale un livello di immunità legale in caso di disastri su larga scala. Sebbene l’approvazione del disegno di legge rimanga incerta, il dibattito evidenzia una crescente battaglia ideologica sulla questione se il settore debba essere autoregolamentato o ritenuto rigorosamente responsabile dinanzi ai tribunali.

Il nocciolo della controversia: SB 3444

La proposta di legge dell’Illinois proteggerebbe gli sviluppatori di intelligenza artificiale dalla responsabilità se i loro sistemi venissero utilizzati per causare “danni critici”, definiti come vittime di massa o danni alla proprietà superiori a 1 miliardo di dollari.

La controversa “scappatoia” del disegno di legge è la seguente:
– Un laboratorio di intelligenza artificiale potrebbe evitare la responsabilità legale per un disastro (come la creazione di un’arma biologica).
A condizione che il laboratorio abbia redatto il proprio quadro di sicurezza e lo abbia pubblicato sul proprio sito web.

OpenAI ha sostenuto attivamente questo disegno di legge, sostenendo che tali protezioni sono necessarie per promuovere l’innovazione. Sostengono che la limitazione della responsabilità consente sia alle piccole imprese che alle grandi imprese di utilizzare tecnologie di intelligenza artificiale di frontiera senza la costante minaccia di contenziosi paralizzanti. OpenAI sostiene che stanno lavorando verso un approccio normativo “armonizzato” tra i vari stati per infine informare un quadro nazionale.

Anthropic, al contrario, sta esercitando pressioni aggressive per modificare o eliminare il disegno di legge. La loro posizione è che la trasparenza senza responsabilità è insufficiente. Anthropic sostiene che gli sviluppatori devono rimanere parzialmente responsabili dei danni sociali che i loro modelli potrebbero causare, piuttosto che ricevere quella che descrivono come una “carta per uscire gratis di prigione”.

Perché è importante: l’erosione del diritto comune

Il disaccordo non riguarda solo un singolo disegno di legge statale; riguarda i principi giuridici fondamentali che governano la tecnologia.

Gli esperti legali, compresi quelli del Secure AI Project, avvertono che l’SB 3444 potrebbe smantellare le protezioni esistenti. Secondo l’attuale diritto comune, le aziende sono già incentivate a prevenire i rischi prevedibili perché possono essere citate in giudizio se non lo fanno. Codificando l’immunità, il disegno di legge potrebbe:
1. Ridurre l’incentivo per le aziende a investire massicciamente in rigorosi test di sicurezza.
2. Spostare il peso del rischio dalle multinazionali multimiliardarie al pubblico e alle vittime degli incidenti dovuti all’intelligenza artificiale.
3. Creare un vuoto normativo in cui i “quadri di sicurezza” sono autogestiti e privi di supervisione indipendente.

Reazioni politiche ed esecutive

Il dibattito ha già raggiunto i più alti livelli del governo statale. Mentre i legislatori dell’Illinois stanno ancora esaminando la proposta, la posizione dell’ufficio del Governatore fornisce uno sguardo al clima politico:

“Il governatore Pritzker non crede che le grandi aziende tecnologiche dovrebbero mai ricevere uno scudo completo che sfugga alle responsabilità che dovrebbero avere per proteggere l’interesse pubblico.” — Portavoce del governatore JB Pritzker

Riepilogo delle posizioni

Caratteristica La posizione di OpenAI La posizione antropica
Obiettivo primario Proteggere l’innovazione e la crescita economica. Garantire la sicurezza pubblica e la responsabilità aziendale.
Vista sulla responsabilità Sono necessari limiti per consentire la distribuzione dell’intelligenza artificiale. La responsabilità è un deterrente necessario contro gli abusi.
Visione normativa Quadri “armonizzati” guidati dallo Stato. La sicurezza deve essere accompagnata da reali conseguenze legali.

Conclusione: Man mano che la tecnologia dell’intelligenza artificiale avanza verso capacità “di frontiera”, l’industria si sta dividendo in due campi: uno che dà priorità a una rapida implementazione attraverso tutele legali e un altro che insiste sulla responsabilità oggettiva per garantire la sicurezza pubblica. L’esito di queste battaglie legislative definirà probabilmente il panorama giuridico dell’intelligenza artificiale per i decenni a venire.