Conflito Federal versus Estadual na Regulamentação da Inteligência Artificial

A corrida para regular a inteligência artificial acendeu um confronto entre o governo federal e os estados norte-americanos.

Pela primeira vez, Washington está próximo de decidir como regular a IA. E a disputa que está se formando não é sobre a tecnologia em si, mas sobre quem ficará responsável pela regulamentação.

Na ausência de um padrão federal significativo para IA que foque na segurança do consumidor, os estados introduziram dezenas de projetos de lei para proteger os residentes contra danos relacionados à inteligência artificial, incluindo o projeto de lei de segurança de IA da Califórnia, SB-53, e a Lei de Governança de IA Responsável do Texas, que proíbe o uso intencional indevido de sistemas de IA.

As gigantes da tecnologia e startups barulhentas nascidas no Vale do Silício argumentam que tais leis criam uma colcha de retalhos inviável que ameaça a inovação.

‘Isso vai nos atrasar na corrida contra a China’, afirmou Josh Vlasto, cofundador do pró-IA PAC Leading the Future, à TechCrunch.

A indústria, e vários de seus representantes na Casa Branca, está pressionando por um padrão nacional ou nenhum padrão. Nas trincheiras dessa batalha de tudo ou nada, novos esforços surgiram para proibir os estados de promulgarem sua própria legislação de IA.

Legisladores da Câmara estariam tentando usar a Lei de Autorização de Defesa Nacional (NDAA) para bloquear leis estaduais de IA. Ao mesmo tempo, um rascunho vazado de uma ordem executiva da Casa Branca também demonstra forte apoio para anular os esforços estaduais de regular a IA.

Uma anulação abrangente que tiraria o direito dos estados de regular a IA é impopular no Congresso, que votou maciçamente contra uma moratória semelhante no início deste ano. Legisladores argumentaram que, sem um padrão federal em vigor, bloquear os estados deixará os consumidores expostos a danos e as empresas de tecnologia livres para operar sem supervisão.

Para criar esse padrão nacional, o deputado Ted Lieu (D-CA) e o Grupo de Trabalho de IA bipartidário da Câmara estão preparando um pacote de projetos de lei federais de IA que cobrem uma gama de proteções ao consumidor, incluindo fraudes, saúde, transparência, segurança infantil e risco catastrófico. Um megaprojeto como esse provavelmente levará meses, senão anos, para se tornar lei, ressaltando por que a atual corrida para limitar a autoridade estadual se tornou uma das lutas mais contenciosas na política de IA.

As linhas de batalha: NDAA e a Ordem Executiva

Esforços para bloquear os estados de regulamentar a IA aumentaram nas últimas semanas.

A Câmara considerou incluir uma linguagem na NDAA que impediria os estados de regulamentar a IA, disse o líder da maioria Steve Scalise (R-LA) ao Punchbowl News. O Congresso estaria trabalhando para finalizar um acordo sobre o projeto de lei de defesa antes do Dia de Ação de Graças, relatou a Politico. Uma fonte familiarizada com o assunto disse à TechCrunch que as negociações se concentraram em estreitar o escopo para potencialmente preservar a autoridade estadual sobre áreas como segurança infantil e transparência.

Enquanto isso, um rascunho vazado de uma Ordem Executiva (EO) da Casa Branca revela a própria estratégia potencial de anulação da administração. A EO, que supostamente foi suspensa, criaria uma ‘Força-Tarefa de Litígio de IA’ para contestar leis estaduais de IA nos tribunais, direcionaria agências para avaliar leis estaduais consideradas ‘onerosas’ e pressionaria a Comissão Federal de Comunicações e a Comissão Federal de Comércio em direção a padrões nacionais que substituem as regras estaduais.

Notavelmente, a EO daria a David Sacks – o Czar de IA e Cripto de Trump e cofundador da firma de VC Craft Ventures – autoridade de co-liderança na criação de uma estrutura legal uniforme. Isso daria a Sacks influência direta sobre a política de IA que substitui o papel típico do Escritório de Política de Ciência e Tecnologia da Casa Branca e seu chefe, Michael Kratsios.

Sacks defendeu publicamente o bloqueio da regulamentação estadual e a manutenção da supervisão federal mínima, favorecendo a autorregulamentação da indústria para ‘maximizar o crescimento’.

O argumento da colcha de retalhos

A posição de Sacks espelha o ponto de vista de grande parte da indústria de IA. Vários super PACs pró-IA surgiram nos últimos meses, injetando centenas de milhões de dólares em eleições locais e estaduais para se opor a candidatos que apoiam a regulamentação de IA.

O Leading the Future – apoiado pela Andreessen Horowitz, o presidente da OpenAI Greg Brockman, Perplexity, e o cofundador da Palantir Joe Lonsdale – arrecadou mais de US$ 100 milhões. Esta semana, o Leading the Future lançou uma campanha de US$ 10 milhões pressionando o Congresso a elaborar uma política nacional de IA que substitua as leis estaduais.

‘Quando você está tentando impulsionar a inovação no setor de tecnologia, você não pode ter uma situação onde todas essas leis continuam surgindo de pessoas que não necessariamente têm a expertise técnica’, disse Vlasto à TechCrunch.

Ele argumentou que uma colcha de retalhos de regulamentações estaduais vai ‘nos atrasar na corrida contra a China’.

Nathan Leamer, diretor executivo do Build American AI, o braço de advocacy do PAC, confirmou que o grupo apoia a anulação sem proteções federais específicas para o consumidor de IA em vigor. Leamer argumentou que as leis existentes, como as que abordam fraude ou responsabilidade por produtos, são suficientes para lidar com danos de IA. Onde as leis estaduais geralmente buscam prevenir problemas antes que eles surjam, Leamer favorece uma abordagem mais reativa: deixar as empresas se moverem rápido, abordar os problemas nos tribunais depois.

Não há anulação sem representação

Alex Bores, um membro da Assembleia de Nova York candidatando-se ao Congresso, é um dos primeiros alvos do Leading the Future. Ele patrocinou a Lei RAISE, que exige que grandes laboratórios de IA tenham planos de segurança para prevenir danos críticos.

‘Eu acredito no poder da IA, e é por isso que é tão importante ter regulamentações razoáveis’, disse Bores à TechCrunch. ‘No final das contas, a IA que vai vencer no mercado será a IA confiável, e muitas vezes o mercado subestima ou coloca incentivos de curto prazo ruins em investir em segurança.’

Bores apoia uma política nacional de IA, mas argumenta que os estados podem se mover mais rápido para abordar riscos emergentes.

E é verdade que os estados se movem mais rápido.

Em novembro de 2025, 38 estados adotaram mais de 100 leis relacionadas à IA este ano, visando principalmente deepfakes, transparência e divulgação, e uso governamental de IA. (Um estudo recente descobriu que 69% dessas leis não impõem nenhum requisito sobre os desenvolvedores de IA.)

A atividade no Congresso fornece mais evidências do argumento ‘mais lento que os estados’. Centenas de projetos de lei de IA foram introduzidos, mas poucos foram aprovados. Desde 2015, o deputado Lieu introduziu 67 projetos de lei no Comitê de Ciência da Câmara. Apenas um se tornou lei.

Mais de 200 legisladores assinaram uma carta aberta se opondo à anulação na NDAA, argumentando que ‘os estados servem como laboratórios da democracia’ que devem ‘reter a flexibilidade para confrontar novos desafios digitais à medida que surgem’. Quase 40 procuradores-gerais estaduais também enviaram uma carta aberta se opondo a uma proibição da regulamentação estadual de IA.

O especialista em cibersegurança Bruce Schneier e o cientista de dados Nathan E. Sanders – autores de ‘Rewiring Democracy: How AI Will Transform Our Politics, Government, and Citizenship’ – argumentam que a queixa da colcha de retalhos é exagerada.

As empresas de IA já cumprem regulamentações mais rígidas da UE, eles observam, e a maioria das indústrias encontra uma maneira de operar sob leis estaduais variadas. O motivo real, eles dizem, é evitar a responsabilidade.

Como seria um padrão federal?

Lieu está redigindo um megaprojeto de lei com mais de 200 páginas que espera introduzir em dezembro. Ele cobre uma variedade de questões, como penalidades por fraude, proteções contra deepfakes, proteções para denunciantes, recursos de computação para a academia e testes obrigatórios e divulgação para empresas de modelos de linguagem grandes.

Essa última disposição exigiria que os laboratórios de IA testassem seus modelos e publicassem os resultados – algo que a maioria já faz voluntariamente agora. Lieu ainda não introduziu o projeto de lei, mas disse que ele não direciona nenhuma agência federal para revisar modelos de IA diretamente. Isso difere de um projeto de lei semelhante introduzido pelos senadores Josh Hawley (R-MS) e Richard Blumenthal (D-CT), que exigiria um programa de avaliação administrado pelo governo para sistemas de IA avançados antes de serem implantados.

Lieu reconheceu que seu projeto de lei não seria tão rigoroso, mas disse que teria uma chance melhor de se tornar lei.

‘Meu objetivo é conseguir algo na lei neste mandato’, disse Lieu, observando que o Líder da Maioria da Câmara, Scalise, é abertamente hostil à regulamentação de IA. ‘Não estou escrevendo um projeto de lei que eu teria se fosse rei. Estou tentando escrever um projeto de lei que possa passar por uma Câmara controlada pelos republicanos, um Senado controlado pelos republicanos e uma Casa Branca controlada pelos republicanos.’

Confira também

Rivian demonstra avanços em direção autônoma com novo modelo de IA, mas desafios persistem

O robô se esquivava pela cafeteria do escritório da Rivian em Palo Alto, passando por …

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *