Technologie

Les États-Unis se précipitent pour élaborer des règles fédérales sur l'IA face à la poussée des États

Les États-Unis sont confrontés à une pression croissante pour établir une réglementation fédérale globale sur l'IA, tandis que le Congrès débat de plusieurs projets de loi exigeant des audits des biais algorithmiques, et que des États comme le Colorado mettent en place leurs propres cadres applicables.

R
Redakcia
4 min de lecture
Partager
Les États-Unis se précipitent pour élaborer des règles fédérales sur l'IA face à la poussée des États

Un patchwork sous pression

Les États-Unis se trouvent à un carrefour réglementaire. Alors que l'intelligence artificielle influence de plus en plus les décisions en matière d'embauche, de prêts, de soins de santé et de justice pénale, le Congrès se démène pour rattraper une vague de propositions législatives fédérales, alors même que certains États ont commencé à appliquer leurs propres règles de responsabilité en matière d'IA.

Au centre du débat se trouve l'Algorithmic Accountability Act of 2025, présentée au Sénat (S.2164) et à la Chambre des représentants (H.R.5511). Le projet de loi obligerait les entreprises déployant l'IA dans des décisions à enjeux importants à mener des Algorithmic Impact Assessments, c'est-à-dire des évaluations systématiques des biais, de la discrimination, de la transparence et de la sécurité des données. Les résultats seraient soumis à la Federal Trade Commission, et des résumés pourraient être rendus publics.

La législation cible les "entités concernées" dont le chiffre d'affaires annuel dépasse 50 millions de dollars ou qui détiennent des données sur plus d'un million de consommateurs. Les secteurs concernés comprennent l'emploi, le crédit, le logement, les soins de santé, l'éducation et les prestations publiques, des domaines où les erreurs algorithmiques peuvent avoir des conséquences désastreuses sur la vie des gens.

Des visions concurrentes au Congrès

Le 18 mars 2026, la sénatrice Marsha Blackburn (R-TN) a publié un vaste projet de discussion de 291 pages connu sous le nom de TRUMP AMERICA AI Act, qui adopte une approche nettement différente. Bien qu'il établisse un "devoir de diligence" pour les développeurs d'IA et qu'il impose des audits par des tiers en cas de discrimination fondée sur des opinions politiques, son objectif principal est de remplacer le patchwork croissant de lois étatiques sur l'IA par une norme fédérale unique.

Le projet Blackburn comprend également des dispositions sur la protection des droits d'auteur pour les créateurs, des sanctions pénales pour l'exploitation infantile facilitée par l'IA et la suppression progressive des protections de responsabilité de la Section 230. Les critiques, notamment le Center for Data Innovation, affirment que le projet de loi donne la priorité aux préoccupations politiques plutôt qu'à une véritable responsabilité algorithmique.

Aucun des deux projets de loi n'a été adopté par le Congrès. L'Algorithmic Accountability Act reste en commission, et le TRUMP AMERICA AI Act est toujours un projet de discussion qui sollicite les commentaires des parties prenantes.

Les États n'attendent pas

Pendant que les législateurs fédéraux débattent, les États ont agi de manière décisive. L'AI Act du Colorado (SB 24-205), qui entrera pleinement en vigueur le 30 juin 2026, oblige les déployeurs de systèmes d'IA à haut risque à effectuer des évaluations d'impact annuelles, à mettre en œuvre des programmes de gestion des risques et à signaler toute discrimination algorithmique découverte au procureur général de l'État dans un délai de 90 jours.

La Local Law 144 de la ville de New York impose déjà des audits annuels des biais pour les outils d'IA utilisés dans les décisions en matière d'emploi, un modèle qui a influencé la législation à l'échelle nationale. L'Illinois et la Californie ont introduit leurs propres exigences en matière de divulgation de l'IA et de lutte contre la discrimination, qui entreront en vigueur en 2026.

Cette dynamique au niveau des États est précisément ce que l'ordre exécutif de l'administration Trump de décembre 2025 cherchait à contenir, en demandant aux conseillers de proposer un cadre fédéral "uniforme" et en créant un groupe de travail sur les litiges liés à l'IA pour contester les lois des États jugées incompatibles avec la politique fédérale.

Le contexte mondial

La course à la réglementation américaine se déroule dans un contexte mondial. L'EU AI Act, qui est entré en vigueur en août 2024, deviendra pleinement applicable d'ici août 2026, imposant des évaluations strictes avant le déploiement des systèmes à haut risque. La loi fondamentale sur l'IA de Corée du Sud et le cadre de gouvernance de Singapour pour l'IA agentique ont tous deux été lancés en janvier 2026.

L'écart entre ces cadres internationaux complets et l'approche américaine fragmentée se creuse. Selon une analyse de OneTrust, la divergence réglementaire s'intensifiera jusqu'en 2027, créant des difficultés de conformité pour les entreprises multinationales opérant dans plusieurs juridictions.

Quelles sont les prochaines étapes ?

Il reste incertain si les États-Unis adopteront en fin de compte l'approche axée sur la responsabilité de l'Algorithmic Accountability Act, la TRUMP AMERICA AI Act axée sur la préemption, ou une forme hybride. Ce qui est clair, c'est que l'ère de la prise de décision algorithmique non réglementée en Amérique touche à sa fin, la seule question étant de savoir qui écrira les règles.

Cet article est également disponible dans d'autres langues :

Articles connexes