Додому Najnowsze wiadomości i artykuły Luka w odpowiedzialności: konflikt antropiczny i OpenAI w sprawie odpowiedzialności za sztuczną...

Luka w odpowiedzialności: konflikt antropiczny i OpenAI w sprawie odpowiedzialności za sztuczną inteligencję

Pomiędzy dwoma wiodącymi na świecie twórcami sztucznej inteligencji, Anthropic i OpenAI, pojawił się poważny rozłam co do tego, jaką odpowiedzialność prawną powinny ponieść firmy, jeśli ich technologia powoduje katastrofalne szkody.

W centrum tej kontrowersji znajduje się Ustawa Senatu 3444 w Illinois, inicjatywa ustawodawcza, która zapewni laboratoriom AI pewien poziom immunitetu prawnego w przypadku katastrof na dużą skalę. Choć przyjęcie projektu ustawy pozostaje wątpliwe, debata uwydatnia narastającą walkę ideologiczną o to, czy branża powinna dokonać samoregulacji, czy też ponosić ścisłą odpowiedzialność przed sądami.

Istota sporu: SB 3444

Proponowane prawo stanu Illinois zwalnia twórców sztucznej inteligencji z odpowiedzialności, jeśli ich systemy zostaną wykorzystane do spowodowania „krytycznej szkody”, definiowanej jako masowe ofiary lub szkody materialne przekraczające 1 miliard dolarów.

Kontrowersyjna luka w projekcie ustawy jest następująca:
– Laboratorium sztucznej inteligencji może uniknąć odpowiedzialności prawnej za katastrofę (na przykład utworzenie broni biologicznej).
Pod warunkiem, że laboratorium opracowało własny system zabezpieczeń i opublikowało go na swojej stronie internetowej.

OpenAI jest zdecydowanym zwolennikiem tej ustawy, argumentując, że takie zabezpieczenia są niezbędne, aby zachęcać do innowacji. Twierdzą, że ograniczenie odpowiedzialności umożliwia zarówno małym, jak i dużym przedsiębiorstwom korzystanie z zaawansowanej technologii sztucznej inteligencji bez ciągłego zagrożenia rujnującymi procesami sądowymi. OpenAI twierdzi, że jest zaangażowana w stworzenie „zharmonizowanego” podejścia do regulacji we wszystkich stanach, które ostatecznie stanie się podstawą ustawodawstwa federalnego.

Z drugiej strony Anthropic agresywnie lobbuje na rzecz zmiany lub całkowitego uchylenia ustawy. Ich stanowisko jest takie, że przejrzystość bez odpowiedzialności jest bezużyteczna. Anthropic twierdzi, że programiści powinni ponieść pewną odpowiedzialność za szkody wyrządzone społeczeństwu, jakie mogą wyrządzić ich modele, zamiast otrzymywać, jak to nazywają, „darmowy bilet do wolności”.

Dlaczego to ma znaczenie: erozja prawa zwyczajowego

Kontrowersje nie dotyczą tylko jednej ustawy stanowej; mówimy o podstawowych zasadach prawnych rządzących technologią.

Prawnicy, w tym eksperci z Projektu Secure AI, ostrzegają, że SB 3444 może podważyć istniejące zabezpieczenia. Zgodnie z obowiązującym prawem zwyczajowym przedsiębiorstwa mają już motywację do zapobiegania przewidywalnym zagrożeniom, ponieważ w przypadku niezastosowania się do tego mogą zostać pozwane. Ustanawiając immunitet na poziomie legislacyjnym, projekt ustawy może:
1. Ogranicz zachętę dla firm do znacznych inwestycji w dokładne testy bezpieczeństwa.
2. Przesuń ciężar ryzyka z wielomiliardowych korporacji na społeczeństwo i ofiary wypadków spowodowanych przez sztuczną inteligencję.
3. Stwórz próżnię regulacyjną, w której „systemy bezpieczeństwa” są kontrolowane przez samych programistów i brakuje im niezależnego nadzoru.

Reakcja polityków i władzy wykonawczej

Debata dotarła już do najwyższych szczebli władzy w państwie. Podczas gdy prawodawcy stanu Illinois analizują tę propozycję, stanowisko biura gubernatora pozwala na wgląd w klimat polityczny:

„Gubernator Pritzker nie uważa, że gigantom technologicznym należy przyznać całkowity immunitet, aby uchylać się od obowiązków związanych z interesem publicznym”. — Sekretarz prasowy gubernatora JB Pritzkera

Podsumowanie pozycji

Charakterystyka Stanowisko OpenAI Pozycja antropiczna
Główny cel Ochrona innowacji i wzrostu gospodarczego. Zapewnienie bezpieczeństwa publicznego i odpowiedzialności korporacyjnej.
Spojrzenie na odpowiedzialność Aby wdrożyć sztuczną inteligencję, potrzebne są ograniczenia. Odpowiedzialność jest niezbędnym środkiem odstraszającym przed nadużyciami.
Wizja przepisów Struktury „zharmonizowane” na poziomie państwa. Bezpieczeństwo musi wiązać się z realnymi konsekwencjami prawnymi.

Wniosek: W miarę jak technologie sztucznej inteligencji zbliżają się do poziomu „najnowocześniejszych”, branża dzieli się na dwa obozy: niektóre kładą nacisk na szybkie przyjęcie poprzez ochronę prawną, inne nalegają na ścisłą odpowiedzialność za zapewnienie bezpieczeństwa publicznego. Wynik tych batalii legislacyjnych prawdopodobnie ukształtuje krajobraz prawny sztucznej inteligencji na nadchodzące dziesięciolecia.

Exit mobile version