Kalifornien schreibt KI-Sicherheitsprüfungen für staatliche Auftragnehmer vor

Der Gouverneur von Kalifornien, Gavin Newsom, erließ am Montag eine Durchführungsverordnung, die von Unternehmen im Bereich der künstlichen Intelligenz (KI), die staatliche Aufträge anstreben, verlangt, strenge Sicherheits- und Datenschutzstandards nachzuweisen. Dieser Schritt stellt einen bedeutenden Schritt in der KI-Regulierung auf Landesebene dar und schafft einen neuen Präzedenzfall für die Art und Weise, wie Regierungen mit sich schnell entwickelnden KI-Technologien interagieren.

Überprüfung von KI-Auftragnehmern

Nach den neuen Regeln müssen Unternehmen, die um staatliche Aufträge konkurrieren, ihre KI-Sicherheits- und Datenschutzrichtlinien im Voraus offenlegen. Kalifornien wird diese Richtlinien genau prüfen, um sicherzustellen, dass sie die Ausbeutung, einschließlich der Verbreitung illegaler Inhalte wie Materialien zum sexuellen Missbrauch von Kindern, aktiv verhindern. Der Staat wird auch prüfen, ob KI-Systeme für ungerechtfertigte Überwachung oder Zensur eingesetzt werden und ob Entwickler Maßnahmen ergreifen, um Vorurteile in ihren Algorithmen abzumildern.

Dabei geht es nicht nur um das Ankreuzen von Kästchen. Der Überprüfungsprozess ist von entscheidender Bedeutung, da KI-Systeme zunehmend in sensiblen Bereichen eingesetzt werden und unkontrollierte Vorurteile oder Datenschutzverletzungen weitreichende Folgen haben können. Ohne Transparenz steigt das Missbrauchsrisiko erheblich.

Unabhängigkeit von Bundesnormen

Kalifornien wird sich nicht automatisch den Bundesbewertungen von KI-Unternehmen unterwerfen. Selbst wenn das Pentagon ein Unternehmen als Lieferkettenrisiko einstuft (wie es kürzlich beim KI-Startup Anthropic der Fall war), wird der Staat seine eigene unabhängige Bewertung durchführen. Dieser Schritt signalisiert die Bereitschaft Kaliforniens, bei der KI-Aufsicht seinen eigenen Weg zu gehen, auch wenn dieser von der Bundespolitik abweicht.

Der Streit des Pentagons mit Anthropic ist ein typisches Beispiel. Das Verteidigungsministerium brach die Beziehungen zum KI-Unternehmen ab, nachdem Anthropic sich geweigert hatte, die Verwendung seiner Modelle für die Massenüberwachung im Inland oder den Einsatz autonomer Waffen zuzulassen. Dies unterstreicht eine grundlegende Spannung zwischen aggressiven militärischen KI-Anwendungen und ethischen Überlegungen.

Wasserzeichen für KI-generierte Inhalte

Die Anordnung weist staatliche Behörden außerdem an, alle von ihnen erstellten, von der KI generierten oder manipulierten Videos mit einem Wasserzeichen zu versehen. Diese Maßnahme zielt darauf ab, Fehlinformationen zu bekämpfen, indem es der Öffentlichkeit erleichtert wird, zwischen authentischen und KI-erstellten Inhalten zu unterscheiden. Durch die Kennzeichnung staatlich produzierter KI-Inhalte erkennt Kalifornien die wachsende Bedrohung durch Deepfakes und synthetische Medien an.

Dies ist ein proaktiver Schritt zum Aufbau von Vertrauen in digitale Medien. Der Aufstieg von KI-generierten Bildern bedeutet, dass Verbraucher zuverlässige Tools zur Überprüfung der Authentizität benötigen, und Wasserzeichen sind ein solches Tool.

Die kalifornische Durchführungsverordnung ist mehr als nur eine bürokratische Änderung; Es ist eine Aussage, dass KI-Innovation verantwortungsvoll sein muss. Der Staat signalisiert seine Absicht, die Bedingungen für die Funktionsweise von KI innerhalb seiner Grenzen festzulegen und dabei Sicherheit, Datenschutz und Transparenz Vorrang vor einem unkontrollierten Einsatz zu geben.