Surgiu uma divergência significativa entre dois dos principais criadores de IA do mundo, a Anthropic e a OpenAI, relativamente ao grau de responsabilidade legal que as empresas devem assumir quando a sua tecnologia causa danos catastróficos.

No centro desta disputa está o Projeto de Lei 3444 do Senado em Illinois – uma peça legislativa que concederia aos laboratórios de IA um nível de imunidade legal no caso de desastres em grande escala. Embora a aprovação do projecto de lei permaneça incerta, o debate realça uma batalha ideológica crescente sobre se a indústria deve ser auto-regulada ou responsabilizada estritamente através dos tribunais.

O Núcleo da Disputa: SB 3444

A lei proposta em Illinois protegeria os desenvolvedores de IA de responsabilidades se seus sistemas fossem usados para causar “danos críticos”, definidos como vítimas em massa ou danos materiais superiores a US$ 1 bilhão.

A polêmica “brecha” do projeto de lei é a seguinte:
– Um laboratório de IA poderia evitar a responsabilidade legal por um desastre (como a criação de uma arma biológica).
Desde que o laboratório tenha elaborado sua própria estrutura de segurança e publicada em seu site.

OpenAI apoiou ativamente este projeto de lei, argumentando que tais proteções são necessárias para promover a inovação. Eles afirmam que a limitação da responsabilidade permite que tanto as pequenas como as grandes empresas utilizem tecnologias de IA de ponta sem a ameaça constante de litígios paralisantes. A OpenAI afirma que está trabalhando em direção a uma abordagem regulatória “harmonizada” em vários estados para, eventualmente, informar uma estrutura nacional.

A Anthropic, por outro lado, está fazendo lobby agressivamente para alterar ou eliminar o projeto de lei. A sua posição é que a transparência sem responsabilização é insuficiente. A Anthropic argumenta que os desenvolvedores devem permanecer parcialmente responsáveis ​​pelos danos sociais que seus modelos podem facilitar, em vez de receber o que descrevem como um “cartão para sair da prisão”.

Por que isso é importante: a erosão do direito consuetudinário

A discordância não é apenas sobre um único projeto de lei estadual; trata-se dos princípios jurídicos fundamentais que regem a tecnologia.

Especialistas jurídicos, incluindo os do Secure AI Project, alertam que o SB 3444 pode desmantelar as proteções existentes. Ao abrigo do atual direito consuetudinário, as empresas já são incentivadas a prevenir riscos previsíveis porque podem ser processadas se não o fizerem. Ao codificar a imunidade, o projeto de lei poderia:
1. Reduzir o incentivo para que as empresas invistam pesadamente em testes de segurança rigorosos.
2. Transfira o fardo do risco das corporações multibilionárias para o público e as vítimas de acidentes possibilitados pela IA.
3. Criar um vácuo regulatório onde as “estruturas de segurança” sejam autopoliciadas e careçam de supervisão independente.

Reações Políticas e Executivas

O debate já atingiu os mais altos escalões do governo estadual. Embora os legisladores de Illinois ainda estejam a rever a proposta, a posição do gabinete do Governador dá uma ideia do clima político:

“O governador Pritzker não acredita que as grandes empresas de tecnologia devam receber um escudo completo que evite as responsabilidades que deveriam ter para proteger o interesse público.” — Porta-voz do Governador JB Pritzker

Resumo das Posições

Recurso Posição da OpenAI Postura da Antrópica
Meta principal Proteger a inovação e o crescimento económico. Garantir a segurança pública e a responsabilidade corporativa.
Ver sobre Responsabilidade São necessários limites para permitir a implantação de IA. A responsabilidade é um impedimento necessário contra o uso indevido.
Visão Regulatória Quadros “harmonizados” liderados pelo Estado. A segurança deve ser acompanhada de consequências jurídicas reais.

Conclusão: À medida que a tecnologia de IA avança em direção a capacidades de “fronteira”, a indústria está a dividir-se em dois campos: um que dá prioridade à implementação rápida através de proteções legais e outro que insiste na responsabilidade estrita para garantir a segurança pública. O resultado destas batalhas legislativas provavelmente definirá o panorama jurídico da inteligência artificial nas próximas décadas.