Flowers
Flowers

Conteúdo

Content

Voltar

ARTIGOS

Da inércia federal à ação estadual: a estratégia da Califórnia para IA

Beatriz Haikal, Daniel Becker e Gabriela Sotomayor

Publicado no ConJur.

Em setembro de 2025, a Califórnia aprovou uma legislação abrangente voltada à segurança e à transparência no desenvolvimento de modelos avançados de inteligência artificial (IA). O Projeto de Lei do Senado nº 53 (SB 53), também conhecido como Lei de Transparência em Inteligência Artificial de Fronteira (TFAIA), estabelece um marco normativo pioneiro ao impor obrigações específicas a empresas que desenvolvem os chamados frontier models — sistemas de IA treinados com poder computacional elevado (acima de 10²⁶ operações), capazes de produzir efeitos amplos e potencialmente disruptivos sobre a sociedade.

A medida surge em um contexto estratégico: a Califórnia abriga 32 das 50 principais empresas de IA do mundo, incluindo líderes como OpenAI, Anthropic, Google DeepMind e Meta AI, concentrando tanto o polo de inovação quanto o centro do debate sobre os riscos associados à IA generativa e fundacional.

A proposta original da SB 53 chegou a ser vetada pelo governador Gavin Newsom, diante da forte resistência da indústria de tecnologia, mas foi posteriormente reestruturada com base em recomendações técnicas de especialistas e evoluiu após a exclusão de dispositivos considerados excessivamente onerosos.

A aprovação da SB 53 não apenas marca uma inflexão no debate federativo sobre a regulação da IA nos Estados Unidos, promulgada apesar das tentativas fracassadas do presidente Donald Trump de impedir a atuação normativa dos estados, como também reafirma a tradição da Califórnia de ocupar a vanguarda regulatória, a exemplo do que ocorreu com o California Consumer Privacy Act (CCPA) e sua posterior atualização pelo California Privacy Rights Act (CPRA).

Regras e sanções

A nova legislação se estrutura em torno de cinco eixos centrais: governança técnica e organizacional, transparência pública, notificação de riscos críticos, proteção a denunciantes e incentivo à inovação pública. Dentre suas principais inovações, destaca-se a exigência de que grandes desenvolvedores de modelos de fronteira, definidos como aqueles com receita anual superior a 500 milhões de dólares, publiquem, de forma clara em seus websites, um framework de IA. Esse documento deve detalhar os procedimentos adotados para incorporar padrões técnicos reconhecidos, avaliar riscos catastróficos, aplicar medidas de mitigação, proteger os pesos dos modelos contra vazamentos e subversões internas e instituir práticas robustas de governança interna. Também são exigidos relatórios de transparência a cada novo lançamento ou modificação substancial de modelo, contendo informações como usos pretendidos, idiomas e modalidades suportadas, limitações contratuais e resultados das avaliações de risco.

Além das obrigações de divulgação, a SB 53 impõe o dever de notificar incidentes críticos de segurança ao Departamento Estadual de Serviços de Emergência da Califórnia, com prazo de até quinze dias após a descoberta do incidente, ou até vinte e quatro horas nos casos em que houver risco iminente à vida. Consideram-se incidentes críticos situações como vazamentos não autorizados de pesos de modelo que resultem em morte ou lesão corporal, perda de controle do sistema ou comportamentos enganosos por parte da IA com aumento significativo de risco. Os desenvolvedores deverão ainda enviar relatórios periódicos sobre riscos decorrentes do uso interno dos modelos e colaborar com a autoridade estadual na análise de impacto contínuo das tecnologias. O órgão estatal deverá publicar relatórios anuais com dados agregados e anonimizados sobre incidentes, respeitando limites de segurança cibernética e segredo comercial.

O descumprimento dessas obrigações pode ensejar a aplicação de sanções previstas na SB 53, o que reforça o caráter vinculante da norma e sinalizam o compromisso com sua efetiva implementação. A supervisão da SB 53 caberá ao Escritório de Serviços de Emergência do Estado da Califórnia (Cal OES), enquanto a aplicação das penalidades ficará a cargo do procurador-geral do Estado. As penalidades previstas incluem multas de até um milhão de dólares por infração, especialmente em casos de omissão na publicação dos frameworks exigidos, falhas na notificação de incidentes críticos ou fornecimento de informações enganosas.

Embora a nova legislação não esteja formalmente vinculada à Agência de Proteção da Privacidade dos Consumidores da Califórnia (CPPA), responsável pelo CCPA e CPRA, o histórico de fiscalizações proativas e sanções expressivas em matéria de proteção de dados indica que a abordagem regulatória da Califórnia tende a ser igualmente rigorosa no campo da inteligência artificial.

Inovação pública

No campo trabalhista, a legislação inova ao introduzir proteções específicas a empregados que atuam na avaliação de riscos catastróficos associados a modelos fundacionais. Esses profissionais passam a contar com salvaguardas contra retaliações, inclusive contratuais, e com o direito de utilizar canais internos anônimos para denunciar comportamentos ou falhas de segurança. Nos casos envolvendo grandes desenvolvedores, as denúncias devem ser monitoradas diretamente por instâncias superiores da empresa, com atualizações periódicas aos denunciantes e comunicação regular à diretoria, salvo se os fatos envolverem membros da própria alta administração. O texto legal também estabelece a inversão do ônus da prova nas ações judiciais por retaliação, mecanismo que visa conferir efetividade prática à norma.

Outro ponto de destaque da SB 53 é a criação do CalCompute, um consórcio público de computação em nuvem vinculado à Universidade da Califórnia e estruturado para oferecer infraestrutura tecnológica segura, ética e equitativa para pesquisa e desenvolvimento em IA. A proposta busca garantir que o Estado disponha de uma plataforma própria, com capacidade computacional suficiente para atender projetos públicos, acadêmicos e comunitários, promovendo a democratização do acesso a recursos hoje concentrados nas grandes corporações.

Mesmo quando não são formalmente vinculantes, como é o caso do Código de Práticas da União Europeia para modelos de IA de uso geral, esses instrumentos acabam moldando expectativas regulatórias e pressionando sua adoção como padrão de mercado — sobretudo para empresas com atuação internacional. A coexistência de múltiplas camadas normativas (globais, nacionais, estaduais, voluntárias e obrigatórias) cria um cenário desafiador para desenvolvedores, que precisam navegar entre exigências técnicas, riscos reputacionais e incertezas regulatórias crescentes.

Ao concentrar esforços na transparência, na governança pública e na proteção de denunciantes, a Califórnia busca posicionar-se como um contraponto à inércia federal — não necessariamente para frear a inovação, mas para dar contornos públicos ao seu desenvolvimento. A SB 53 avança justamente por traduzir preocupações técnicas em linguagem legislativa, apoiando-se em padrões, evidências e mecanismos viáveis de implementação. É uma tentativa de construção normativa que não parte da negação da inovação, mas da negociação com ela.

Essa postura se repete em outras frentes: além da SB 53, o estado também aprovou leis que coíbem o uso de IA para simular profissionais de saúde, exigem lembretes de pausa para menores e estabelecem punições severas para pornografia deepfake. Independentemente do mérito específico de cada norma, o recado é claro: no epicentro da indústria global de IA, não fazer nada também é uma decisão política — e a Califórnia decidiu agir.

BBL Advogados; Inteligência Artificial; IA