Ha surgido una brecha significativa entre dos de los principales desarrolladores de IA del mundo, Anthropic y OpenAI, con respecto a cuánta responsabilidad legal deben asumir las empresas cuando su tecnología causa un daño catastrófico.
En el centro de esta disputa está el Proyecto de Ley Senatorial 3444 de Illinois, una ley que otorgaría a los laboratorios de IA un nivel de inmunidad legal en caso de desastres a gran escala. Si bien la aprobación del proyecto de ley sigue siendo incierta, el debate pone de relieve una creciente batalla ideológica sobre si la industria debería autorregularse o ser estrictamente responsable ante los tribunales.
El núcleo de la disputa: SB 3444
La ley propuesta en Illinois protegería a los desarrolladores de IA de toda responsabilidad si sus sistemas se utilizan para causar “daños críticos”, definidos como víctimas masivas o daños a la propiedad que excedan los mil millones de dólares.
La controvertida “laguna jurídica” del proyecto de ley es la siguiente:
– Un laboratorio de IA podría evitar la responsabilidad legal por un desastre (como la creación de un arma biológica).
– Siempre que el laboratorio haya elaborado su propio marco de seguridad y lo haya publicado en su sitio web.
OpenAI ha respaldado activamente este proyecto de ley, argumentando que dichas protecciones son necesarias para fomentar la innovación. Sostienen que limitar la responsabilidad permite que tanto las pequeñas como las grandes empresas utilicen tecnologías de inteligencia artificial de vanguardia sin la amenaza constante de litigios paralizantes. OpenAI sostiene que están trabajando hacia un enfoque regulatorio “armonizado” en varios estados para eventualmente informar un marco nacional.
Anthropic, por el contrario, está presionando agresivamente para modificar o eliminar el proyecto de ley. Su posición es que la transparencia sin rendición de cuentas es insuficiente. Anthropic sostiene que los desarrolladores deben seguir siendo parcialmente responsables de los daños sociales que sus modelos podrían facilitar, en lugar de recibir lo que describen como una “tarjeta para salir de la cárcel”.
Por qué esto importa: la erosión del derecho consuetudinario
El desacuerdo no se trata sólo de un proyecto de ley estatal único; se trata de los principios legales fundamentales que rigen la tecnología.
Los expertos legales, incluidos los del Secure AI Project, advierten que la SB 3444 podría desmantelar las protecciones existentes. Según el derecho consuetudinario actual, las empresas ya están incentivadas a prevenir riesgos previsibles porque pueden ser demandadas si no lo hacen. Al codificar la inmunidad, el proyecto de ley podría:
1. Reducir el incentivo para que las empresas inviertan mucho en pruebas de seguridad rigurosas.
2. Transferir la carga del riesgo de las corporaciones multimillonarias al público y a las víctimas de accidentes provocados por la IA.
3. Crear un vacío regulatorio donde los “marcos de seguridad” estén autocontrolados y carezcan de supervisión independiente.
Reacciones políticas y ejecutivas
El debate ya ha llegado a los niveles más altos del gobierno estatal. Si bien los legisladores de Illinois todavía están revisando la propuesta, la postura de la oficina del Gobernador ofrece una idea del clima político:
“El gobernador Pritzker no cree que las grandes empresas tecnológicas deban recibir jamás un escudo completo que eluda las responsabilidades que deberían tener para proteger el interés público.” — Portavoz del gobernador JB Pritzker
Resumen de Posiciones
| Característica | Postura de OpenAI | La postura antrópica |
|---|---|---|
| Objetivo principal | Proteger la innovación y el crecimiento económico. | Garantizar la seguridad pública y la responsabilidad corporativa. |
| Ver sobre Responsabilidad | Se necesitan límites para permitir el despliegue de la IA. | La responsabilidad es un elemento disuasorio necesario contra el uso indebido. |
| Visión Regulatoria | Marcos “armonizados” liderados por el Estado. | La seguridad debe ir acompañada de consecuencias legales reales. |
Conclusión: A medida que la tecnología de IA avanza hacia capacidades “de frontera”, la industria se está dividiendo en dos bandos: uno que prioriza el despliegue rápido a través de protecciones legales y otro que insiste en la responsabilidad estricta para garantizar la seguridad pública. El resultado de estas batallas legislativas probablemente definirá el panorama legal de la inteligencia artificial en las próximas décadas.























