Додому Nejnovější zprávy a články Mezera v odpovědnosti: Antropický a OpenAI spor nad odpovědností AI

Mezera v odpovědnosti: Antropický a OpenAI spor nad odpovědností AI

Mezi dvěma předními světovými vývojáři umělé inteligence, Anthropic a OpenAI, došlo k velké roztržce ohledně toho, jakou právní odpovědnost by měly společnosti nést, pokud jejich technologie způsobí katastrofální škody.

V centru této kontroverze je Senátní zákon 3444 v Illinois, legislativní iniciativa, která by laboratořím AI poskytla určitou úroveň právní imunity v případě katastrof velkého rozsahu. Zatímco pasáž zákona zůstává na pochybách, debata zdůrazňuje rostoucí ideologickou bitvu o to, zda by se průmysl měl samoregulovat, nebo být přísně odpovědný soudům.

Podstata sporu: SB 3444

Navrhovaný zákon státu Illinois by zbavil vývojáře AI odpovědnosti, pokud jsou jejich systémy používány ke způsobení „kritických škod“, definovaných jako hromadné oběti nebo škody na majetku přesahující 1 miliardu dolarů.

Kontroverzní mezera v návrhu zákona je následující:
– Laboratoř umělé inteligence se může vyhnout právní odpovědnosti za katastrofu (například vytvoření biologických zbraní).
Za předpokladu, že laboratoř vyvinula vlastní bezpečnostní systém a zveřejnila jej na svých webových stránkách.

OpenAI je silným zastáncem tohoto zákona a tvrdí, že taková ochrana je nezbytná k podpoře inovací. Trvají na tom, že omezení odpovědnosti umožňuje malým podnikům i velkým podnikům používat pokročilé technologie umělé inteligence bez neustálé hrozby zničujících soudních sporů. OpenAI říká, že je odhodlána vytvořit „harmonizovaný“ přístup k regulaci napříč státy, který bude nakonec tvořit základ federální legislativy.

Anthropic na druhé straně agresivně lobuje za změnu nebo úplné zrušení zákona. Jejich postoj je, že transparentnost bez odpovědnosti je k ničemu. Anthropic tvrdí, že vývojáři by měli nést určitou odpovědnost za škody společnosti, které mohou způsobit jejich modely, spíše než získat to, co nazývají „volnou vstupenkou ke svobodě“.

Proč na tom záleží: Eroze obecného práva

Kontroverze se netýká jen jednoho státního zákona; mluvíme o základních právních principech, kterými se řídí technologie.

Právníci, včetně odborníků z Secure AI Project, varují, že SB 3444 by mohl podkopat stávající ochranu. Podle současného obecného práva jsou společnosti již motivovány předcházet předvídatelným rizikům, protože mohou být žalovány, pokud tak neučiní. Zavedením imunity na legislativní úrovni může návrh zákona:
1. Snižte motivaci pro společnosti, aby výrazně investovaly do důkladného testování zabezpečení.
2. Přesuňte břemeno rizik z multimiliardových korporací na společnost a oběti nehod způsobených umělou inteligencí.
3. Vytvořte regulační vakuum, ve kterém jsou „bezpečnostní systémy“ řízeny samotnými vývojáři a postrádají nezávislý dohled.

Reakce politiků a výkonné moci

Debata se již dostala do nejvyšších pater vlády ve státě. Zatímco zákonodárci z Illinois studují návrh, pozice úřadu guvernéra poskytuje vhled do politického klimatu:

“Guvernér Pritzker nevěří, že by techničtí giganti měli dostat plošnou imunitu, aby se vyhnuli své odpovědnosti za veřejný zájem.” — Tiskový tajemník guvernéra JB Pritzkera

Shrnutí pozice

Vlastnosti Pozice OpenAI Antropická pozice
Hlavní cíl Ochrana inovací a hospodářského růstu. Zajištění veřejné bezpečnosti a firemní odpovědnosti.
Pohled na odpovědnost K implementaci AI jsou zapotřebí omezení. Odpovědnost je nezbytným odrazujícím prostředkem proti zneužití.
Vize regulace „Harmonizované“ struktury na státní úrovni. Bezpečnost musí mít skutečné právní důsledky.

Závěr: Jak se technologie AI blíží k úrovni „špičkových“ schopností, odvětví se rozděluje na dva tábory: některé upřednostňují rychlé přijetí prostřednictvím právní ochrany, jiné trvají na přísné odpovědnosti za zajištění veřejné bezpečnosti. Výsledek těchto legislativních bitev bude pravděpodobně formovat právní prostředí umělé inteligence na další desetiletí.

Exit mobile version