EE. UU. se apresura a crear normas federales sobre IA en medio del auge estatal
Estados Unidos se enfrenta a una creciente presión para establecer una regulación federal integral sobre la IA mientras el Congreso debate múltiples proyectos de ley que exigen auditorías de sesgos algorítmicos, mientras que estados como Colorado avanzan con sus propios marcos ejecutables.
Un mosaico bajo presión
Estados Unidos se encuentra en una encrucijada regulatoria. A medida que la inteligencia artificial impulsa cada vez más las decisiones en materia de contratación, préstamos, atención médica y justicia penal, el Congreso se apresura a ponerse al día con una ola de legislación federal propuesta, incluso cuando los estados individuales han comenzado a hacer cumplir sus propias normas de rendición de cuentas de la IA.
En el centro del debate se encuentra la Ley de Responsabilidad Algorítmica de 2025, presentada tanto en el Senado (S.2164) como en la Cámara de Representantes (H.R.5511). El proyecto de ley exigiría a las empresas que implementen la IA en decisiones de alto riesgo que realicen Evaluaciones de Impacto Algorítmico: evaluaciones sistemáticas de sesgos, discriminación, transparencia y seguridad de los datos. Los resultados se presentarían a la Comisión Federal de Comercio, y los resúmenes podrían hacerse públicos.
La legislación se dirige a las "entidades cubiertas" con ingresos anuales superiores a 50 millones de dólares o datos de más de un millón de consumidores. Los sectores incluidos son el empleo, el crédito, la vivienda, la atención médica, la educación y las prestaciones públicas, áreas en las que los errores algorítmicos pueden devastar vidas.
Visiones contrapuestas en el Congreso
El 18 de marzo de 2026, la senadora Marsha Blackburn (R-TN) publicó un amplio borrador de debate de 291 páginas conocido como la Ley TRUMP AMERICA AI, que adopta un enfoque marcadamente diferente. Si bien establece un "deber de diligencia" para los desarrolladores de IA y exige auditorías de terceros para la discriminación de puntos de vista políticos, su objetivo principal es anticiparse al creciente mosaico de leyes estatales de IA con un único estándar federal.
El borrador de Blackburn también incorpora disposiciones sobre la protección de los derechos de autor para los creadores, sanciones penales por la explotación infantil habilitada por la IA y la extinción de las protecciones de responsabilidad de la Sección 230. Los críticos, incluido el Center for Data Innovation, argumentan que el proyecto de ley prioriza las preocupaciones políticas sobre la verdadera rendición de cuentas algorítmica.
Ninguno de los dos proyectos de ley ha sido aprobado por el Congreso. La Ley de Responsabilidad Algorítmica permanece en comisión, y la Ley TRUMP AMERICA AI sigue siendo un borrador de debate que busca la opinión de las partes interesadas.
Los estados no esperan
Mientras los legisladores federales debaten, los estados se han movido con decisión. La Ley de IA de Colorado (SB 24-205), que entrará en pleno vigor el 30 de junio de 2026, exige a los que implementen sistemas de IA de alto riesgo que realicen evaluaciones de impacto anuales, implementen programas de gestión de riesgos y revelen cualquier discriminación algorítmica descubierta al fiscal general del estado en un plazo de 90 días.
La Ley Local 144 de la ciudad de Nueva York ya exige auditorías anuales de sesgos para las herramientas de IA utilizadas en las decisiones de empleo, un modelo que ha influido en la legislación a nivel nacional. Illinois y California han introducido sus propios requisitos de divulgación de la IA y de lucha contra la discriminación que entrarán en vigor en 2026.
Este impulso a nivel estatal es precisamente lo que la orden ejecutiva de la administración Trump de diciembre de 2025 pretendía contener, dirigiendo a los asesores a proponer un marco federal "uniforme" y creando un Grupo de Trabajo de Litigios sobre IA para impugnar las leyes estatales consideradas incompatibles con la política federal.
El contexto global
La lucha regulatoria de Estados Unidos se desarrolla en un contexto global. La Ley de IA de la UE, que entró en vigor en agosto de 2024, será plenamente aplicable en agosto de 2026, imponiendo estrictas evaluaciones previas a la implementación en los sistemas de alto riesgo. La Ley Básica de IA de Corea del Sur y el marco de gobernanza de Singapur para la IA agentiva se lanzaron en enero de 2026.
La brecha entre estos marcos internacionales integrales y el enfoque estadounidense fragmentado se está ampliando. Según un análisis de OneTrust, la divergencia regulatoria se intensificará hasta 2027, creando desafíos de cumplimiento para las empresas multinacionales que operan en diferentes jurisdicciones.
Lo que viene después
Sigue siendo incierto si Estados Unidos adoptará en última instancia el enfoque centrado en la rendición de cuentas de la Ley de Responsabilidad Algorítmica, la Ley TRUMP AMERICA AI orientada a la prevención, o algún híbrido. Lo que está claro: la era de la toma de decisiones algorítmicas no reguladas en Estados Unidos está terminando, la única pregunta es quién escribe las reglas.