Technologia

USA ścigają się z czasem, by stworzyć federalne regulacje dotyczące AI w obliczu ofensywy stanów

Stany Zjednoczone stoją w obliczu rosnącej presji na ustanowienie kompleksowych federalnych regulacji dotyczących AI, podczas gdy Kongres debatuje nad wieloma ustawami wymagającymi audytów obciążenia algorytmicznego, a stany takie jak Kolorado przodują we własnych egzekwowalnych ramach prawnych.

R
Redakcia
4 min czytania
Udostępnij
USA ścigają się z czasem, by stworzyć federalne regulacje dotyczące AI w obliczu ofensywy stanów

Mozaika pod presją

Stany Zjednoczone znajdują się na regulacyjnym rozdrożu. W miarę jak sztuczna inteligencja w coraz większym stopniu wpływa na decyzje dotyczące zatrudniania, udzielania pożyczek, opieki zdrowotnej i wymiaru sprawiedliwości w sprawach karnych, Kongres ściga się z czasem, aby nadrobić zaległości w związku z falą proponowanych federalnych przepisów – nawet gdy poszczególne stany zaczęły egzekwować własne zasady odpowiedzialności za AI.

W centrum debaty znajduje się Ustawa o odpowiedzialności algorytmicznej z 2025 r., wprowadzona zarówno w Senacie (S.2164), jak i Izbie Reprezentantów (H.R.5511). Ustawa wymagałaby od firm wdrażających AI w decyzjach o wysokiej stawce przeprowadzania Ocen Wpływu Algorytmów – systematycznych ocen obciążenia, dyskryminacji, przejrzystości i bezpieczeństwa danych. Wyniki byłyby przekazywane Federalnej Komisji Handlu, a streszczenia potencjalnie udostępniane publicznie.

Ustawodawstwo jest skierowane do „podmiotów objętych zakresem” o rocznych przychodach przekraczających 50 milionów dolarów lub posiadających dane dotyczące ponad miliona konsumentów. Sektory objęte zakresem obejmują zatrudnienie, kredyty, mieszkania, opiekę zdrowotną, edukację i świadczenia publiczne – obszary, w których błędy algorytmiczne mogą zrujnować życie.

Konkurencyjne wizje w Kongresie

18 marca 2026 r. senator Marsha Blackburn (R-TN) opublikowała obszerny, 291-stronicowy projekt dyskusyjny znany jako TRUMP AMERICA AI Act, który przyjmuje wyraźnie odmienne podejście. Chociaż ustanawia „obowiązek staranności” dla twórców AI i nakazuje audyty stron trzecich w zakresie dyskryminacji ze względu na poglądy polityczne, jej głównym celem jest wyprzedzenie rosnącej mozaiki stanowych przepisów dotyczących AI za pomocą jednego federalnego standardu.

Projekt Blackburn obejmuje również przepisy dotyczące ochrony praw autorskich dla twórców, kary kryminalne za wykorzystywanie dzieci z wykorzystaniem AI oraz wygaśnięcie ochrony odpowiedzialności na mocy sekcji 230. Krytycy, w tym Center for Data Innovation, twierdzą, że ustawa priorytetowo traktuje kwestie polityczne nad autentyczną odpowiedzialnością algorytmiczną.

Żadna z ustaw nie została uchwalona przez Kongres. Ustawa o odpowiedzialności algorytmicznej pozostaje w komisji, a TRUMP AMERICA AI Act jest nadal projektem dyskusyjnym, który czeka na opinie zainteresowanych stron.

Stany nie czekają

Podczas gdy federalni ustawodawcy debatują, stany podjęły zdecydowane kroki. Ustawa o AI stanu Kolorado (SB 24-205), która ma w pełni wejść w życie 30 czerwca 2026 r., wymaga od podmiotów wdrażających systemy AI wysokiego ryzyka przeprowadzania corocznych ocen wpływu, wdrażania programów zarządzania ryzykiem i zgłaszania wszelkich wykrytych dyskryminacji algorytmicznych prokuratorowi generalnemu stanu w ciągu 90 dni.

Lokalne prawo 144 Nowego Jorku już teraz nakazuje coroczne audyty obciążenia dla narzędzi AI wykorzystywanych w decyzjach dotyczących zatrudnienia – model, który wpłynął na ustawodawstwo w całym kraju. Illinois i Kalifornia wprowadziły własne wymogi dotyczące ujawniania informacji o AI i przeciwdziałania dyskryminacji, które wejdą w życie w 2026 roku.

Ten impet na poziomie stanowym jest dokładnie tym, co grudniowe rozporządzenie wykonawcze administracji Trumpa z 2025 r. miało na celu powstrzymać, nakazując doradcom zaproponowanie „jednolitych” federalnych ram i utworzenie Grupy Zadaniowej ds. Sporów Sądowych dotyczących AI w celu zakwestionowania stanowych przepisów uznanych za niezgodne z polityką federalną.

Kontekst globalny

Amerykańska walka regulacyjna rozgrywa się na tle globalnym. Akt UE o AI, który wszedł w życie w sierpniu 2024 r., stanie się w pełni obowiązujący do sierpnia 2026 r., nakładając surowe oceny przedwdrożeniowe na systemy wysokiego ryzyka. Koreańskie Prawo Podstawowe o AI i ramy zarządzania AI agentową w Singapurze zostały uruchomione w styczniu 2026 r.

Różnica między tymi kompleksowymi międzynarodowymi ramami a fragmentarycznym amerykańskim podejściem pogłębia się. Według analizy OneTrust, rozbieżności regulacyjne nasilą się do 2027 r., stwarzając wyzwania związane z przestrzeganiem przepisów dla międzynarodowych firm działających w różnych jurysdykcjach.

Co dalej

To, czy USA ostatecznie przyjmą podejście oparte na odpowiedzialności, jak w Ustawie o odpowiedzialności algorytmicznej, zorientowaną na wyprzedzenie TRUMP AMERICA AI Act, czy też jakąś hybrydę, pozostaje niepewne. Jasne jest jedno: era nieuregulowanego podejmowania decyzji algorytmicznych w Ameryce dobiega końca – jedynym pytaniem jest, kto napisze zasady.

Ten artykuł jest dostępny także w innych językach:

Powiązane artykuły