Descobre como as novas leis de IA da Califórnia equilibram a inovação com a responsabilidade, abrangendo a privacidade, os deepfakes, os cuidados de saúde, a educação e a segurança.
Desde os carros autónomos aos cuidados de saúde, as inovações em matéria de inteligência artificial (IA) e as empresas de tecnologia da próxima geração estão a começar a desempenhar um papel fundamental na remodelação da nossa vida quotidiana. Consequentemente, a dimensão do mercado global da IA foi de 196,63 mil milhões de dólares em 2023 e espera-se que cresça em média 36% por ano de 2024 a 2030. Estes números demonstram a rapidez com que a IA está a crescer.
Por um lado, o rápido desenvolvimento da IA está a criar soluções para vários problemas em diferentes sectores. Por outro lado, esta velocidade traz à tona a necessidade de um desenvolvimento responsável da IA para garantir que as melhorias sejam éticas e benéficas para a sociedade.
Por exemplo, em 2016, a Microsoft lançou um chatbot, Tay, no X (antigo Twitter). Foi concebido para aprender com as conversas com os utilizadores. No entanto, pouco depois do seu lançamento, o Tay começou a gerar respostas com linguagem pouco profissional, à medida que ia captando uma série de interações. Embora o Microsoft tenha rapidamente retirado o bot do ar, este é um bom exemplo da importância de garantir que os dados utilizados para o treino de IA são fiáveis e que o público está ciente da forma como as empresas estão a utilizar esses dados para produtos de IA.
Para responder a esta preocupação, o governador da Califórnia, Gavin Newsom, promulgou em setembro mais de uma dúzia de projectos de lei relacionados com a IA. Estas leis abordam tudo, desde a divulgação de detalhes sobre dados de treino até ao tratamento de deepfakes. Neste artigo, vamos explorar as leis de IA da Califórnia e o que elas implicam. Toca a começar!
Foram aprovados três importantes projectos de lei para apoiar o desenvolvimento da IA, tornando-a mais segura e fiável. A Assembly Bill (AB) 2013, que entra em vigor em 2026, exige que os fornecedores de IA generativa publiquem pormenores sobre os seus conjuntos de dados de treino. Estes detalhes incluem as fontes dos conjuntos de dados, detalhes sobre a forma como os dados são utilizados, o número de pontos de dados no conjunto, se estão incluídos dados protegidos por direitos de autor ou licenciados, o período de tempo em que os dados foram recolhidos, etc. A partilha destas informações ajudará as empresas de IA a ganhar a confiança do público.
Outro projeto de lei importante que foi assinado foi o AB 1008. Estende as leis de privacidade existentes na Califórnia a soluções de IA generativas. O AB 1008 foi apresentado para responder às preocupações e aumentar a confiança do público na forma como os sistemas de IA tratam as informações pessoais. Um inquérito revelou que mais de 81% dos consumidores estão preocupados com o facto de as empresas de IA poderem utilizar as suas informações de formas que não pretendiam. Ao estabelecer limites claros sobre a forma como as empresas podem utilizar e lucrar com informações pessoais, como nomes, moradas e dados biométricos, esta lei ajuda as empresas de IA a garantir aos utilizadores que os seus dados serão tratados de forma responsável, mesmo que sejam expostos por um sistema de IA.
Da mesma forma, o Projeto de Lei do Senado (SB) 896, ou Lei de Responsabilidade da IA Generativa, exige que o Gabinete de Serviços de Emergência da Califórnia (CalOES) efectue análises de risco sobre potenciais ameaças colocadas por sistemas de IA generativa. O CalOES trabalhará com empresas pioneiras de IA, como a OpenAI e a Anthropicpara discutir e analisar as potenciais ameaças da IA a infra-estruturas estatais críticas.
Já explorámos anteriormente a forma como a IA na educação pode personalizar as experiências de aprendizagem, redefinir as práticas de ensino, oferecer feedback em tempo real e apoiar os educadores com ferramentas e conhecimentos avançados. De facto, as inovações da IA podem criar um ambiente de estudo mais eficaz e envolvente para os alunos. Educadores e professores de todo o mundo estão a utilizar a IA com mais regularidade, com projectos-piloto bem sucedidos e implementações mais amplas em curso. Estudos mostram que mais de 50% dos professores consideram que a IA nas salas de aula teve um impacto positivo no processo de ensino e aprendizagem.
A Califórnia introduziu duas leis relativas à utilização da IA nas instituições de ensino. A AB 2876 obriga o Conselho de Educação do Estado da Califórnia a considerar a literacia em IA (após 1 de janeiro de 2025) nas suas estruturas curriculares e materiais didácticos de matemática, ciências e história. O objetivo desta lei é garantir que as escolas da Califórnia educam os alunos sobre os princípios básicos do funcionamento da inteligência artificial, bem como sobre as limitações, os impactos e as considerações éticas da utilização da tecnologia.
Além disso, o SB 1288 exige que os superintendentes da Califórnia criem grupos de trabalho (até 1 de janeiro de 2026) para explorar a forma como a IA está a ser utilizada nas escolas públicas. Estes grupos de trabalho terão de apresentar as suas conclusões e recomendações às comissões políticas e fiscais relevantes da Assembleia Legislativa até 1 de janeiro de 2027. Após a apresentação do relatório, o grupo de trabalho será dissolvido e as disposições serão revogadas em 1 de janeiro de 2031.
A IA generativa está a melhorar o sector dos cuidados de saúde, permitindo inovações na descoberta de novos medicamentos, no diagnóstico de doenças, no planeamento de tratamentos e nos chatbots médicos. Estas aplicações podem proporcionar benefícios como monitorização em tempo real, aconselhamento e apoio para melhorar os resultados dos doentes. Outras tecnologias de IA, como a realidade aumentada (RA), também podem ser utilizadas para planear e simular procedimentos cirúrgicos.
A integração da IA generativa nos cuidados de saúde acarreta algumas advertências relacionadas com a privacidade dos dados e a regulamentação. É crucial dar prioridade à precisão, fiabilidade e justiça dos resultados gerados pela IA, salvaguardando simultaneamente a privacidade das informações de saúde.
Para enfrentar estes desafios, a Califórnia aprovou duas leis sobre a utilização de IA generativa nos cuidados de saúde. A AB 3030 exige que os prestadores de cuidados de saúde divulguem quando utilizam IA generativa para comunicar com um doente, especificamente quando essas mensagens contêm informações clínicas do doente. O SB 1120 impõe limitações à forma como os prestadores de serviços de saúde e as seguradoras de saúde podem automatizar os seus serviços. Estas novas leis também garantem que os médicos licenciados supervisionem a utilização de ferramentas de IA nestes contextos.
O estado da Califórnia também aprovou leis relacionadas com o controlo da utilização da IA para divulgar informações enganosas ou inexactas. O SB 942 exige que os sistemas populares de IA generativa indiquem claramente nos seus dados de origem que o conteúdo foi criado por IA. Muitas empresas de IA já o fazem e existem várias ferramentas gratuitas (ZeroGPT, Winston AI, GLTR, etc.) que podem ajudar as pessoas a ler estes dados de origem e a detetar conteúdos gerados por IA.
Três novas leis(AB 1831, SB 926, SB 981) foram aprovadas na Califórnia para abordar questões relacionadas com as falsificações profundas. Essas leis expandem as proteções existentes, criminalizam o uso indevido de conteúdo gerado por IA e exigem que as plataformas de mídia social criem canais de denúncia para conteúdo deepfake. As leis deverão ser implementadas até janeiro de 2025.
Um dos projectos de lei aprovados centrou-se na definição correta de IA. O AB 2885 afirma que a IA é definida como "um sistema concebido ou baseado em máquinas que varia no seu nível de autonomia e que pode, para objectivos explícitos ou implícitos, inferir a partir dos dados que recebe como gerar resultados que podem influenciar ambientes físicos ou virtuais".
Foram também adoptadas duas leis interessantes para a indústria do entretenimento. O maior sindicato de actores de cinema e televisão dos Estados Unidos (SAG-AFTRA) desempenhou um papel crucial na entrada em vigor destas leis. A AB 2602 exige que os estúdios de cinema obtenham autorização de um ator antes de utilizarem a IA para criar uma réplica da sua voz e semelhança. Entretanto, a AB 1836 proíbe os estúdios de criarem réplicas digitais de actores falecidos (à semelhança da personagem de Peter Cushing em Star Wars: Rogue One) sem o consentimento das suas propriedades.
Ao analisarmos cada uma destas leis, podes ter-te perguntado porque é que elas são realmente necessárias. Os regulamentos sobre IA têm sido um tema de discussão popular há já algum tempo, mas ganharam um impulso significativo com o aumento do conteúdo deepfake, que teve impacto em várias áreas, incluindo os meios de comunicação social e a política. A utilização de conteúdos gerados por IA em linha suscitou preocupações sobre a desinformação e o seu potencial impacto nos resultados eleitorais, por exemplo. Há também apreensões crescentes sobre a privacidade e a utilização indevida de dados pessoais pelas inovações da IA. Estas questões têm sido um fator que explica o facto de estarem atualmente em vigor várias novas leis para abordar estas questões.
Por exemplo, a AB 2905 obriga as chamadas automáticas a revelar se são vozes geradas por IA. Além disso, o AB 2655 exige que as grandes plataformas em linha, como o Facebook e o X, removam ou identifiquem os deepfakes relacionados com as eleições e criem canais de denúncia para esses conteúdos. Os candidatos e os funcionários eleitos também podem pedir medidas cautelares se as plataformas não cumprirem a lei.
Outra lei, a AB 2839, visa os utilizadores das redes sociais que publicam ou repostam deepfakes que podem induzir os eleitores em erro. Da mesma forma, a AB 2355 estipula a divulgação clara de anúncios políticos feitos com ferramentas de IA.
As novas leis de IA da Califórnia reflectem um compromisso crescente para equilibrar a inovação com a responsabilidade. Ao abordar as principais preocupações em áreas como a transparência dos dados, a privacidade, os deepfakes e a utilização da IA nos cuidados de saúde e na educação, estas leis visam salvaguardar os indivíduos e a sociedade, promovendo simultaneamente o desenvolvimento responsável da IA. À medida que a IA continua a evoluir, estes regulamentos ajudarão a garantir que o seu crescimento é acompanhado por práticas éticas e pela confiança do público. Estas leis podem também incentivar outras regiões do mundo a seguir o exemplo.
Para saber mais, visita o nosso repositório GitHub e participa na nossa comunidade. Explora as aplicações de IA no fabrico e na agricultura nas nossas páginas de soluções. 🚀
Começa a tua viagem com o futuro da aprendizagem automática