A assembleia legislativa da Geórgia suspende hoje, 6 de abril, após ter enviado três projetos de lei relacionados com IA para a secretária do governador Brian Kemp, sendo o mais notável um projeto de lei georgiano sobre um chatbot de IA que impõe divulgação, proteções para crianças e protocolos de resposta para autoagressão.
Resumo
A sessão legislativa de 2026 da Geórgia encerra hoje com três projetos de lei de IA à espera da assinatura do governador Brian Kemp, incluindo um projeto de lei georgiano sobre um chatbot de IA que está a atrair atenção nacional pela sua amplitude e pela ausência de isenções para a indústria, segundo o registo de legislação (legislative tracker) da Transparency Coalition AI. O pacote chega numa altura em que mais de 27 estados avançam com legislação de segurança para chatbots em 2026, criando um mosaico em rápida evolução de regulamentações de IA contra o qual a Casa Branca alertou publicamente.
O SB 540 da Geórgia foi aprovado no Senado a 6 de março, foi aprovado na Câmara a 25 de março e recebeu acordo do Senado na versão de reconciliação a 27 de março. O projeto de lei exige que os operadores de chatbots notifiquem os utilizadores de que estão a interagir com IA, implementem medidas que limitem certas interações com menores, disponibilizem ferramentas de privacidade e estabeleçam protocolos de resposta quando os utilizadores expressem ideação suicida ou intenção de autoagressão.
O que torna o projeto de lei invulgar a nível nacional é que não inclui uma cláusula de exceção para chatbots integrados num serviço mais amplo, uma isenção que a maioria dos projetos de lei semelhantes inclui e que, caso contrário, protegeria plataformas como a Meta e a Google de terem de cumprir. Tal como a crypto.news noticiou, o impulso global por regulação da segurança infantil de chatbots ganhou força no início deste ano quando o primeiro-ministro do Reino Unido, Keir Starmer, sinalizou planos para submeter os chatbots de IA a regras mais rigorosas de segurança online, apontando preocupações idênticas sobre dependência emocional e conselhos gerados por IA sem regulamentação dirigidos a menores.
O SB 444 proíbe que decisões de cobertura de seguro de saúde sejam baseadas apenas em sistemas de IA ou ferramentas de software, exigindo envolvimento humano nas decisões de cobertura. O projeto de lei aborda uma preocupação crescente de que sistemas automatizados de negação estão a substituir o julgamento clínico sem supervisão adequada.
A SR 789 é uma resolução do Senado que cria uma Comissão de Estudo do Senado sobre o Impacto da Inteligência Artificial, um reconhecimento de que a assembleia legislativa da Geórgia pretende continuar a envolver-se na questão após o adiamento.
Como a crypto.news salientou, a aceleração da regulamentação da segurança da IA sem normas claras arrisca criar um panorama de conformidade em que a aplicação é inconsistente e carece de recursos. A administração Trump alertou explicitamente os estados contra leis de IA “onerosas” e está a impulsionar uma norma nacional para contornar esses mosaicos a nível estatal. Um moratório de 10 anos sobre leis de IA nos estados foi proposto no One Big Beautiful Bill Act no verão passado, mas foi retirado do texto final numa votação do Senado de 99-1.
O governador da Tennessee, Bill Lee, assinou recentemente uma proibição de bots de terapia com IA em lei. O Idaho aprovou quatro projetos de lei de IA antes do fim da sessão. Com a Geórgia agora a adiar, a onda legislativa de IA de 2026 a nível estatal ainda não atingiu o pico.
“SB 540 é um projeto de lei sobre divulgação de chatbots e segurança infantil, exigindo notificação da natureza da IA, medidas para limitar certas ações por parte de menores, ferramentas de privacidade e protocolos para resposta a ideação suicida ou autoagressão,” escreveu a Transparency Coalition AI na sua atualização legislativa de 3 de abril. Se o governador Kemp assina ou veta os projetos de lei será um dos primeiros sinais de como os estados liderados por republicanos irão contornar a pressão de Washington para recuar na regulação da IA.