Wettlauf um bundesweite KI-Regeln in den USA inmitten eines Anstiegs auf Ebene der Bundesstaaten
Die Vereinigten Staaten sehen sich einem wachsenden Druck ausgesetzt, umfassende bundesweite KI-Regulierungen zu erlassen, während der Kongress über mehrere Gesetzesentwürfe debattiert, die algorithmische Bias-Audits fordern, während Bundesstaaten wie Colorado mit ihren eigenen durchsetzbaren Rahmenbedingungen voranschreiten.
Ein Flickenteppich unter Druck
Die Vereinigten Staaten stehen an einem regulatorischen Scheideweg. Da künstliche Intelligenz zunehmend Entscheidungen in den Bereichen Einstellung, Kreditvergabe, Gesundheitswesen und Strafjustiz beeinflusst, versucht der Kongress, eine Welle vorgeschlagener Bundesgesetze einzuholen – selbst während einzelne Bundesstaaten begonnen haben, ihre eigenen Regeln zur KI-Rechenschaftspflicht durchzusetzen.
Im Zentrum der Debatte steht der Algorithmic Accountability Act von 2025, der sowohl im Senat (S.2164) als auch im Repräsentantenhaus (H.R.5511) eingebracht wurde. Der Gesetzentwurf würde Unternehmen, die KI in risikoreichen Entscheidungen einsetzen, verpflichten, Algorithmic Impact Assessments durchzuführen – systematische Bewertungen von Bias, Diskriminierung, Transparenz und Datensicherheit. Die Ergebnisse würden an die Federal Trade Commission übermittelt, wobei Zusammenfassungen möglicherweise veröffentlicht würden.
Die Gesetzgebung zielt auf „betroffene Unternehmen“ mit einem Jahresumsatz von mehr als 50 Millionen US-Dollar oder Daten von mehr als einer Million Verbrauchern ab. Zu den betroffenen Sektoren gehören Beschäftigung, Kreditwesen, Wohnungsbau, Gesundheitswesen, Bildung und öffentliche Leistungen – Bereiche, in denen algorithmische Fehler verheerende Auswirkungen auf das Leben haben können.
Konkurrierende Visionen im Kongress
Am 18. März 2026 veröffentlichte Senatorin Marsha Blackburn (R-TN) einen umfassenden 291-seitigen Diskussionsentwurf mit dem Namen TRUMP AMERICA AI Act, der einen deutlich anderen Ansatz verfolgt. Während er eine „Sorgfaltspflicht“ für KI-Entwickler festlegt und Audits durch Dritte auf Diskriminierung aufgrund politischer Ansichten vorschreibt, ist sein Hauptziel, den wachsenden Flickenteppich von KI-Gesetzen der Bundesstaaten durch einen einzigen Bundesstandard zu verdrängen.
Der Blackburn-Entwurf enthält auch Bestimmungen zum Urheberrechtsschutz für Urheber, strafrechtliche Sanktionen für KI-gestützte Kindesausbeutung und die Aufhebung des Haftungsschutzes gemäß Section 230. Kritiker, darunter das Center for Data Innovation, argumentieren, dass der Gesetzentwurf politische Bedenken über eine echte algorithmische Rechenschaftspflicht stellt.
Keiner der beiden Gesetzentwürfe wurde vom Kongress verabschiedet. Der Algorithmic Accountability Act befindet sich weiterhin im Ausschuss, und der TRUMP AMERICA AI Act ist noch ein Diskussionsentwurf, der auf das Feedback von Interessengruppen wartet.
Bundesstaaten warten nicht
Während die Bundesgesetzgeber debattieren, haben die Bundesstaaten entschieden gehandelt. Der AI Act von Colorado (SB 24-205), der am 30. Juni 2026 vollständig in Kraft treten soll, verpflichtet die Betreiber von risikoreichen KI-Systemen, jährliche Folgenabschätzungen durchzuführen, Risikomanagementprogramme zu implementieren und jede entdeckte algorithmische Diskriminierung innerhalb von 90 Tagen dem Generalstaatsanwalt des Bundesstaates zu melden.
Das Local Law 144 von New York City schreibt bereits jährliche Bias-Audits für KI-Tools vor, die bei Einstellungsentscheidungen verwendet werden – ein Modell, das die Gesetzgebung landesweit beeinflusst hat. Illinois und Kalifornien haben ihre eigenen KI-Offenlegungs- und Antidiskriminierungsanforderungen eingeführt, die 2026 in Kraft treten.
Diese Dynamik auf Ebene der Bundesstaaten ist genau das, was die Exekutivverordnung der Trump-Regierung vom Dezember 2025 eindämmen wollte, indem sie Berater anwies, einen „einheitlichen“ Bundesrahmen vorzuschlagen und eine AI Litigation Task Force einzurichten, um staatliche Gesetze anzufechten, die als unvereinbar mit der Bundespolitik erachtet werden.
Der globale Kontext
Das regulatorische Gerangel in den USA findet vor einem globalen Hintergrund statt. Der EU AI Act, der im August 2024 in Kraft trat, wird bis August 2026 vollständig anwendbar sein und strenge Bewertungen vor der Bereitstellung von risikoreichen Systemen vorschreiben. Das AI Basic Act Südkoreas und der Governance-Rahmen Singapurs für Agentic AI wurden beide im Januar 2026 eingeführt.
Die Kluft zwischen diesen umfassenden internationalen Rahmenbedingungen und dem fragmentierten amerikanischen Ansatz wird immer größer. Laut einer OneTrust-Analyse wird sich die regulatorische Divergenz bis 2027 verstärken und Compliance-Herausforderungen für multinationale Unternehmen schaffen, die in verschiedenen Gerichtsbarkeiten tätig sind.
Wie es weitergeht
Ob die USA letztendlich den rechenschaftspflichtorientierten Ansatz des Algorithmic Accountability Act, den präemptionsorientierten TRUMP AMERICA AI Act oder eine Mischform davon übernehmen werden, bleibt ungewiss. Klar ist: Die Ära der unregulierten algorithmischen Entscheidungsfindung in Amerika geht zu Ende – die einzige Frage ist, wer die Regeln schreibt.
Bleib auf dem Laufenden!
Folge uns auf Facebook für die neuesten Nachrichten und Artikel.
Folge uns auf Facebook