Між двома провідними розробниками ІІ у світі, Anthropic та OpenAI, виник серйозний розкол щодо того, який ступінь юридичної відповідальності мають нести компанії, якщо їхні технології завдають катастрофічних збитків.
У центрі цієї суперечки знаходиться законопроект Сенату 3444 у штаті Іллінойс — законодавча ініціатива, яка надала б лабораторіям ІІ певний рівень юридичного імунітету у разі масштабних катастроф. Хоча прийняття законопроекту залишається під питанням, ця дискусія наголошує на зростаючому ідеологічному протистоянні: чи має індустрія регулюватися самостійно, чи вона повинна нести сувору відповідальність перед судом.
Суть спору: SB 3444
Запропонований закон Іллінойса звільнив би розробників ІІ від відповідальності, якщо їх системи будуть використані для заподіяння «критичної шкоди», під якою розуміються масові жертви або матеріальні збитки, що перевищують 1 мільярд доларів.
Спірна «лазівка» у законопроекті полягає в наступному:
– ІІ-лабораторія може уникнути юридичної відповідальності за катастрофу (наприклад, створення біологічної зброї).
– За умови, що лабораторія розробила власну систему безпеки та опублікувала її на своєму веб-сайті.
OpenAI активно підтримує цей законопроект, стверджуючи, що подібні заходи захисту необхідні стимулювання інновацій. Вони наполягають на тому, що обмеження відповідальності дозволяє як малому бізнесу, так і великим підприємствам використовувати передові технології ІІ, не побоюючись постійної загрози руйнівних судових позовів. OpenAI заявляє, що прагне створення «гармонізованого» підходу до регулювання в різних штатах, який зрештою ляже в основу федерального законодавства.
Anthropic, навпаки, веде агресивну лобістську діяльність, щоб змінити або повністю скасувати законопроект. Їхня позиція полягає в тому, що прозорість без підзвітності марна. Anthropic стверджує, що розробники повинні нести часткову відповідальність за шкоду суспільству, яка може спровокувати їх моделі, а не отримувати те, що вони називають «безкоштовним квитком на свободу».
Чому це важливо: ерозія загального права
Розбіжності стосуються не просто одного законопроекту штату; мова йде про фундаментальні правові принципи, що керують технологіями.
Юристи, включаючи експертів із Secure AI Project, попереджають, що SB 3444 може зруйнувати існуючі механізми захисту. Згідно з чинним загальним правом, компанії вже мають стимул запобігати передбачуваним ризикам, оскільки у разі невиконання цих зобов’язань на них можуть подати до суду. Закріплюючи імунітет на законодавчому рівні, законопроект може:
1. Зменшити стимул для компаній вкладати значні кошти у ретельне тестування безпеки.
2. Перекласти тягар ризику з багатомільярдних корпорацій на суспільство та жертв нещасних випадків, спричинених ІІ.
3. Створити регуляторний вакуум, у якому «системи безпеки» контролюються самими розробниками та позбавлені незалежного нагляду.
Реакція політиків та виконавчої влади
Дебати вже досягли найвищих ешелонів влади штату. Поки законодавці Іллінойсу вивчають пропозицію, позиція офісу губернатора дає уявлення про політичний клімат:
«Губернатор Пріцкер не вважає, що технологічним гігантам слід надавати повний імунітет, що дозволяє ухилятися від обов’язків захисту громадських інтересів». – Прес-секретар губернатора JB Pritzker
Зведення позицій
| Характеристика Позиція OpenAI Позиція Anthropic |
| :— | :— | :— |
| Основна мета | Захист інновацій та економічного зростання. | Забезпечення громадської безпеки та корпоративної підзвітності. |
| Погляд відповідальність | Необхідні обмеження на впровадження ІІ. | Відповідальність – необхідний стримуючий фактор проти зловживань. |
| Бачення регулювання | Гармонізовані структури на рівні штатів. | Безпека має супроводжуватись реальними юридичними наслідками. |
Висновок: У міру того, як технології ІІ наближаються до рівня «передових» можливостей, індустрія розколюється на два табори: одні віддають пріоритет швидкому впровадженню через правовий захист, інші наполягають на суворій відповідальності для забезпечення безпеки суспільства. Результат цих законодавчих баталій, ймовірно, визначить правовий ландшафт штучного інтелекту на десятиліття вперед.
