quarta-feira, 11 de junho de 2025

Como Diferentes Países Estão Regulando o Uso da IA Generativa

Universidade Federal de Santa Catarina

EGC- Ambientes Virtuais de Aprendizagem

Autor: Sara Almeida da Silva

Introdução

Nos últimos anos, a inteligência artificial (IA) tem avançado rapidamente, e uma de suas áreas mais impactantes é a chamada IA generativa, considerada uma inovação mais recente, que é capaz de produzir novos conteúdos em diversas mídias digitais — como textos, vídeos, áudios e imagens —, áreas anteriormente associadas exclusivamente à inteligência e criatividade humanas (Timpone; Guidi, 2023). Ferramentas como ChatGPT, DALL·E e Midjourney tornaram-se amplamente acessíveis e estão transformando a forma como criamos, consumimos e nos relacionamos com a arte, a informação e a tecnologia.

No entanto, esse avanço traz também desafios éticos, legais e sociais. Quem é o autor de uma obra criada por uma IA? Como garantir que a IA não dissemina desinformação, preconceitos ou conteúdos danosos? Quais os direitos de quem teve suas imagens ou textos usados para treinar esses sistemas?

Diante dessas questões, diferentes países estão adotando caminhos distintos para regulamentar o uso da IA generativa. Este artigo apresenta um panorama comparativo de como União Europeia, Estados Unidos, China e Brasil estão lidando com a governança dessa tecnologia emergente.

União Europeia: Pioneirismo com o AI Act

Fonte: Explain

A União Europeia foi a primeira grande região do mundo a propor e aprovar um conjunto robusto de regras específicas para a inteligência artificial. Em 2024, os países-membros aprovaram o AI Act, um regulamento que estabelece critérios para o desenvolvimento e uso de IA com base em níveis de risco (Lexprime, 2024).

Sistemas de IA considerados de “risco inaceitável” (como sistemas de vigilância biométrica em tempo real) serão proibidos, já as ferramentas de IA generativa, como o ChatGPT, se enquadram na categoria de “risco limitado” ou “alto risco”, dependendo de sua aplicação (Europarl, 2025).

Segundo informações da European Comission (2025), os sistemas de IA de alto risco estão sujeitos a obrigações rigorosas antes de poderem ser colocados no mercado, sendo elas:

  • Sistemas adequados de avaliação e mitigação de riscos

  • alta qualidade dos conjuntos de dados que alimentam o sistema para minimizar os riscos de resultados discriminatórios

  • Registro de atividades para garantir a rastreabilidade dos resultados

  • Documentação detalhada fornecendo todas as informações necessárias sobre o sistema e sua finalidade para que as autoridades avaliem sua conformidade

  • Medidas adequadas de supervisão humana

  • Alto nível de robustez, segurança cibernética e precisão

Esse modelo europeu é visto como uma tentativa de equilibrar inovação com proteção aos cidadãos, servindo de inspiração para outros países.

Estados Unidos: Foco na inovação com diretrizes setoriais

Fonte: Gizmodo

Ao contrário da abordagem regulatória da União Europeia, os Estados Unidos adotam uma política mais fragmentada e descentralizada em relação à IA. Até o momento, não existe uma lei federal específica para regular a IA generativa. No entanto, o governo federal e alguns estados têm criado diretrizes e legislações pontuais.

Em 2022, a Casa Branca publicou o Blueprint for an AI Bill of Rights, projeto elaborado com o objetivo de orientar a criação de políticas e práticas que assegurem a proteção dos direitos civis e promovam valores democráticos na utilização e na governança de sistemas automatizados. (Jonker; Krantz, 2025; Whitecase, 2025). 

Tendo como objetivo garantir:

  • Privacidade e segurança dos dados;

  • Não discriminação por algoritmos;

  • Explicabilidade e transparência dos sistemas de IA;

  • Consentimento e controle por parte dos usuários.

Além disso, estados como Nova York e Califórnia já implementaram leis próprias sobre uso ético de algoritmos em áreas como recrutamento e segurança pública (Engler; Friedler; Venkatasubramanian, 2023).

As grandes empresas de tecnologia, como OpenAI, Microsoft e Google, têm adotado códigos de conduta voluntários, especialmente após serem convocadas pelo governo para discutir riscos como deepfakes e automação massiva (Coelho, 2023). Essa abordagem americana, mais aberta ao setor privado, visa incentivar a inovação, embora seja criticada por falta de controle efetivo.

China: Regulação com foco em controle e segurança

Fonte: SCMP

A China tem adotado abordagens que dizem respeito à regulação da inteligência artificial generativa. O país implementou regras específicas para obrigar que qualquer conteúdo produzido por IA — como imagens, textos ou vídeos — seja rotulado de forma clara, tanto visualmente quanto nos metadados do arquivo (Freitas, 2025). Essa nova regra, busca combater o uso indevido da tecnologia, sobretudo na propagação de desinformação e conteúdo sensível.

Além disso, o governo chinês exige que as empresas que disponibilizam sistemas de IA generativa ao público passem por uma avaliação de segurança e obtenham uma licença específica, para garantir um desenvolvimento saudável no campo tecnológico da  IA generativa (He, 2023). 

Dessa forma, a abordagem da China demonstra uma preocupação em equilibrar o avanço tecnológico com a segurança pública e a estabilidade social. Ao estabelecer regras claras para o uso da IA generativa, o país busca promover um ambiente de inovação controlada, no qual os benefícios da tecnologia possam ser explorados de forma responsável, minimizando riscos como a disseminação de desinformação e o uso indevido de conteúdos gerados por máquinas.

Brasil: Debates em andamento e foco na responsabilidade

Fonte: ITForum

No Brasil, foi aprovado pelo senado Projeto de Lei nº 2338/2023 no ano de 2024, 

O texto estabelece princípios e diretrizes para o desenvolvimento e uso da IA no país, tais como:

  • Garantia dos direitos fundamentais;

  • Proteção da privacidade e dos dados pessoais;

  • Promoção da transparência e da explicabilidade;

  • Responsabilidade civil por danos causados por sistemas de IA.

O projeto prevê um tratamento especial para sistemas considerados de alto risco como uso da Inteligência Artificial. Além disso, organizações da sociedade civil, universidades e especialistas têm participado ativamente do processo de construção da lei, com foco na ética, inclusão digital e soberania tecnológica. 

Em nota oficial, o Instituto de Defesa de Consumidores (Idec) manifestou críticas à Lei nº 2338/2023, afirmando que “o texto aprovado no Senado deixa a desejar ao não abordar adequadamente questões centrais enfrentadas pelos consumidores brasileiros, como golpes e fraudes digitais, a proteção de crianças e adolescentes, os riscos associados ao reconhecimento facial e as desigualdades amplificadas pelo score de crédito.” (Costa, 2024). Ainda segundo o Idec, há a expectativa de que o projeto possa ser aprimorado durante sua tramitação na Câmara dos Deputados.

Diante dos avanços legislativos em torno da inteligência artificial no Brasil, observa-se um esforço importante para estabelecer diretrizes éticas e proteger direitos fundamentais. A efetividade da regulação dependerá da capacidade do Estado em considerar os impactos sociais e promover um uso responsável e inclusivo da tecnologia.

Conclusão

A regulação da inteligência artificial generativa tem se mostrado um tema urgente e complexo para governos ao redor do mundo. Cada país adota uma abordagem distinta, refletindo suas prioridades políticas, econômicas e sociais. A União Europeia se destaca por implementar um conjunto robusto e detalhado de regras que buscam equilibrar inovação tecnológica e proteção dos direitos dos cidadãos. Já os Estados Unidos privilegiam uma postura mais flexível e descentralizada, com ênfase na auto regulação do setor privado e diretrizes setoriais.

Por sua vez, a China investe em um controle mais rigoroso e centralizado, exigindo licenciamento e rotulagem clara dos conteúdos produzidos por IA, com o objetivo de garantir a segurança pública e evitar abusos. No Brasil, apesar dos avanços recentes com a aprovação do Projeto de Lei nº 2338/2023, o debate ainda está em andamento, envolvendo a sociedade civil, especialistas e o poder legislativo. A discussão nacional gira em torno da ética, da responsabilidade civil e da proteção dos direitos fundamentais, embora críticos apontem a necessidade de aprimoramento em pontos essenciais para o consumidor.

Diante desse cenário, fica claro que a regulamentação da IA generativa não pode ser vista de forma isolada ou uniforme. A diversidade de estratégias adotadas reflete a complexidade da tecnologia e os desafios que ela impõe. O desenvolvimento de normas eficazes será fundamental para assegurar que o uso da IA seja transparente, seguro e responsável, promovendo benefícios reais para a sociedade, sem comprometer direitos ou a inovação tecnológica. A continuidade desse diálogo regulatório será decisiva para o futuro da inteligência artificial no mundo.

Referências:

COELHO, Cido. OpenAI, Google e Microsoft são convocados pelos EUA para discutir riscos da IA. SBT News, 2023. Disponível em: https://sbtnews.sbt.com.br/noticia/tecnologia/246488-openai-google-e-microsoft-sao-convocados-pelos-eua-para-discutir-riscos-da-ia. Acesso em: 06 de Jun, 2025

COSTA, Gilberto. Organizações civis pedem mudanças nas regras para IA na Câmara. Agência Brasil, 2024. Disponível em: https://agenciabrasil.ebc.com.br/politica/noticia/2024-12/organizacoes-civis-esperam-melhoria-de-regras-para-ia-na-camara.Acesso em: 06 de Jun, 2025

ENGLER, Alex; FRIEDLER, Sorelle; VENKATASUBRAMANIAN, Suresh. How California and other states are tackling AI legislation. Brookings, 2023. Disponível em: https://www.brookings.edu/articles/how-california-and-other-states-are-tackling-ai-legislation/.Acesso em: 06 de Jun, 2025 

EUROPARL,2025. Lei da UE sobre IA: primeira regulamentação de inteligência artificial. Temas, 2025. Disponível em: https://www.europarl.europa.eu/topics/pt/article/20230601STO93804/lei-da-ue-sobre-ia-primeira-regulamentacao-de-inteligencia-artificial. Acesso em: 06 de Jun, 2025

EUROPEAN COMISSION. AI Act. European Comission, 2025. Disponível em: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai. Acesso em: 06 de Jun, 2025

FREITAS, Felipe. China decide: todo conteúdo gerado por IA terá rótulo especial. Tecnoblog, 2025. Disponível em: https://tecnoblog.net/noticias/china-decide-todo-conteudo-gerado-por-ia-tera-rotulo-especial/. Acesso em: 06 de Jun, 2025

HE, Laura. China aprova novas regras de regulamentação de IA generativo, como o ChatGPT. CNN Brasil, 2023 Disponível em: https://www.cnnbrasil.com.br/economia/macroeconomia/china-aprova-novas-regras-de-regulamentacao-de-ia-generativo-como-o-chatgpt/. Acesso em: 06 de Jun, 2025

JONKER, Alexandra; KRANTZ, Tom. O que é o AI Bill of Rights?. IBM, 2024. Disponível em:
https://www.ibm.com/br-pt/think/topics/ai-bill-of-rights

LEXPRIME. Entenda a primeira lei do mundo sobre inteligencia artificial. 2024, Disponível em: https://lexprime.com.br/entenda-a-primeira-lei-do-mundo-sobre-inteligencia-artificial/. Acesso em: 06 de Jun, 2025

TIMPONE, Rich; GUIDI, Michel. Explorando a mudança de cenário da IA. Da IA Analítica a IA Generativa. São Paulo: Ipsos Knowledge Centre, 2023.

WHITECASE. AI Watch: Global regulatory tracker - United States, White Case, 2025. Disponível em: https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-united-states. Acesso em: 06 de Jun, 2025

Declaração de IA e tecnologias assistidas por IA no processo de escrita: durante a preparação deste trabalho, os autores utilizaram ferramentas de IAG (ChatGPT) no processo de criação de planejamento, para aperfeiçoamento do texto e melhoria da legibilidade. Após o uso destas ferramentas, o texto foi revisado, editado e o conteúdo está em conformidade com o método científico. A autora Sara Almeida da Silva, assume total responsabilidade pelo conteúdo da publicação.


Nenhum comentário:

Postar um comentário