Technológia

Versenyfutás az amerikai szövetségi AI-szabályok megalkotásáért az állami törekvések közepette

Az Egyesült Államok egyre nagyobb nyomás alatt áll, hogy átfogó szövetségi AI-szabályozást hozzon létre, miközben a Kongresszus több, az algoritmikus torzítások auditálását előíró törvényjavaslatot is tárgyal, miközben olyan államok, mint Colorado, saját, végrehajtható keretrendszereket dolgoznak ki.

R
Redakcia
3 perc olvasás
Megosztás
Versenyfutás az amerikai szövetségi AI-szabályok megalkotásáért az állami törekvések közepette

Egyre nagyobb nyomás alatt álló mozaik

Az Egyesült Államok szabályozási válaszúthoz érkezett. Ahogy a mesterséges intelligencia egyre inkább meghatározza a döntéseket a munkaerő-felvételben, a hitelezésben, az egészségügyben és a büntető igazságszolgáltatásban, a Kongresszus versenyt fut az idővel, hogy felzárkózzon a javasolt szövetségi törvények hullámához – miközben egyes államok már elkezdték érvényesíteni saját AI-elszámoltathatósági szabályaikat.

A vita középpontjában a 2025-ös Algoritmikus Elszámoltathatósági Törvény áll, amelyet a Szenátusban (S.2164) és a Képviselőházban (H.R.5511) is benyújtottak. A törvény előírná, hogy a nagy kockázatú döntésekben AI-t alkalmazó vállalatok Algoritmikus Hatásvizsgálatokat végezzenek – a torzítás, a diszkrimináció, az átláthatóság és az adatbiztonság szisztematikus értékelését. Az eredményeket benyújtanák a Szövetségi Kereskedelmi Bizottsághoz, és az összefoglalók potenciálisan nyilvánosságra kerülnének.

A jogszabály azokat a „fedezett entitásokat” célozza meg, amelyek éves bevétele meghaladja az 50 millió dollárt, vagy több mint egymillió fogyasztó adataival rendelkeznek. A hatály alá tartozó ágazatok közé tartozik a foglalkoztatás, a hitel, a lakhatás, az egészségügy, az oktatás és a közjólét – olyan területek, ahol az algoritmikus hibák tönkretehetik az életeket.

Versengő elképzelések a Kongresszusban

2026. március 18-án Marsha Blackburn szenátor (R-TN) kiadott egy átfogó, 291 oldalas vitairatot, amely TRUMP AMERICA AI Act néven ismert, és amely markánsan eltérő megközelítést alkalmaz. Bár megállapít egy „gondossági kötelezettséget” az AI-fejlesztők számára, és harmadik fél általi auditokat ír elő a politikai nézőpont szerinti diszkriminációra vonatkozóan, elsődleges célja, hogy egyetlen szövetségi szabvánnyal megelőzze az állami AI-törvények növekvő mozaikját.

A Blackburn-féle tervezet a szerzők szerzői jogi védelmére, az AI által lehetővé tett gyermek kizsákmányolásért járó büntetőjogi szankciókra és a 230. szakasz szerinti felelősségvédelmek megszűnésére vonatkozó rendelkezéseket is tartalmaz. A kritikusok, köztük a Center for Data Innovation, azzal érvelnek, hogy a törvény a politikai aggályokat helyezi előtérbe a valódi algoritmikus elszámoltathatósággal szemben.

Egyik törvény sem ment át a Kongresszuson. Az Algoritmikus Elszámoltathatósági Törvény továbbra is bizottsági szakaszban van, a TRUMP AMERICA AI Act pedig még mindig egy vitairat, amely érdekelt felek visszajelzéseit várja.

Az államok nem várnak

Miközben a szövetségi törvényhozók vitatkoznak, az államok határozottan léptek. A Colorado AI Act (SB 24-205), amely 2026. június 30-án lép teljes mértékben hatályba, előírja a magas kockázatú AI-rendszerek alkalmazóinak, hogy éves hatásvizsgálatokat végezzenek, kockázatkezelési programokat hajtsanak végre, és a felfedezett algoritmikus diszkriminációt 90 napon belül jelentsék be az állam főügyészének.

New York városának 144. számú helyi törvénye már előírja az éves torzítási auditokat a foglalkoztatási döntésekben használt AI-eszközök esetében – ez a modell országosan befolyásolta a jogszabályokat. Illinois és Kalifornia 2026-ban hatályba lépő saját AI-nyilvánosságra hozatali és diszkriminációellenes követelményeket vezetett be.

Ez az állami szintű lendület pontosan az, amit a Trump-kormányzat 2025 decemberi végrehajtási rendelete megpróbált megfékezni, utasítva a tanácsadókat, hogy javasoljanak egy „egységes” szövetségi keretrendszert, és hozzanak létre egy AI-perindítási munkacsoportot, hogy megtámadják azokat az állami törvényeket, amelyek ellentétesnek minősülnek a szövetségi politikával.

A globális kontextus

Az amerikai szabályozási versenyfutás globális háttér előtt zajlik. Az EU AI Act, amely 2024 augusztusában lépett hatályba, 2026 augusztusára válik teljes mértékben alkalmazhatóvá, szigorú, telepítés előtti értékeléseket írva elő a magas kockázatú rendszerekre. Dél-Korea AI Basic Act-je és Szingapúr ügynöki AI-ra vonatkozó irányítási keretrendszere egyaránt 2026 januárjában indult.

Egyre nő a szakadék ezen átfogó nemzetközi keretrendszerek és a töredezett amerikai megközelítés között. A OneTrust elemzése szerint a szabályozási eltérések 2027-ig fokozódni fognak, ami megfelelési kihívásokat teremt a több joghatóságban működő multinacionális vállalatok számára.

Mi következik

Az, hogy az Egyesült Államok végül az Algoritmikus Elszámoltathatósági Törvény elszámoltathatóság-központú megközelítését, a TRUMP AMERICA AI Act megelőzés-orientált megközelítését vagy valamilyen hibridet fogad el, továbbra is bizonytalan. Ami világos: az algoritmikus döntéshozatal szabályozatlan korszakának Amerikában vége – az egyetlen kérdés az, hogy ki írja a szabályokat.

Ez a cikk más nyelveken is elérhető:

Kapcsolódó cikkek