Skip to the content Solicite demonstração

Manage your privacy program with one of
the most complete and reliable tools on the market

Test our platform
x
PrivacyTools - LGPD PrivacyTools - LGPD - Menu
  • en
    • br
Ask for demonstration Login
  • About
  • Solutions

    Marketing & Privacy UX

    • Cookies Management Manage cookies and make your portal compliant
    • Policy Management Create and manage your site policies

    Privacy Management

    • Consent Management Register and manage universal consent
    • Holders' Requests DSAR - Respect the rights of data subjects
    • Audit Management Generate monitoring reports for your projects

    Governance and Compliance

    • Incident Management React quickly and provide appropriate notifications
    • Data Mapping Promote inventory, transfers and DPIA
    • Data Discovery Discover, analyze and correct data at scale
    • ESG Define and carry out the controls, actions and strategies of your ESG program
    • AI Governance Centralize, manage, and ensure compliance for your AI projects
  • Government
  • Resources
  • Blog
  • Contact us
  • Login
  • About
  • Solutions
  • Government
  • Resources
  • Blog
  • Contact us
Imagem 2 5 1 scaled - Privacy Tools
Categories
Blog

É possível treinar IAs gigantescas sem comprometer a privacidade?

  • Post author By Eduarda Chacon Rosas
  • Post date 02/12/2025
Tempo de leitura estimado (em minutos): 3

A explosão dos grandes modelos de linguagem (LLMs), que hoje aprendem com base em volumes de dados equivalentes a bibliotecas inteiras, gerou um receio comum: o de que essa fome por informação seria incompatível com a proteção da privacidade das pessoas. É importante ter em mente, aliás, que os LLMs são modelos de linguagem, não de conteúdo. O objetivo sempre foi comunicar, não criar. 

Assim, a verdade é que o treinamento de IAs gigantescas e o respeito a leis de proteção de dados, como a LGPD, não só podem andar de mãos dadas, como essa parceria é um bom caminho para construir uma tecnologia confiável e sustentável para o futuro.

Banner 3 - Privacy Tools

Governança de Dados

A chave para essa compatibilidade está em uma governança de dados inteligente, que começa muito antes de o modelo de IA sequer começar a ser treinado. Na prática, os dados brutos, sejam eles coletados da internet ou de bancos de dados privados, passam por uma rigorosa “limpeza”. 

Nesse processo, via de regra, técnicas de anonimização removem informações que poderiam identificar uma pessoa, como nomes, CPFs e endereços. Além disso, os desenvolvedores podem usar “dados sintéticos” — dados fictícios criados por computador que imitam os padrões dos dados reais, mas sem qualquer conexão com pessoas de verdade —, garantindo que o modelo aprenda a partir da estrutura da informação.

Tokenização

O processo de treinamento de LLMs não armazena dados pessoais da forma como um banco de dados convencional faria. Um dos processos técnicos mais importantes nesse cenário é a tokenização. De forma simples, é o ato de quebrar textos longos em pedaços menores, ou “tokens”, para que o computador possa entendê-los. É justamente nessa etapa que a proteção de dados pode ser automatizada. 

Programas inteligentes são capazes de identificar tokens que correspondem a informações sensíveis e substituí-los por etiquetas genéricas. Assim, o modelo aprende, por exemplo, a estrutura de uma frase que contém um endereço, mas nunca vê o endereço real. Ele aprende o conceito, não o dado pessoal. 

Em outras palavras, apesar do resultado do modelo poder, probabilisticamente, se assemelhar aos dados de treinamento, isso não significa que informações pessoais foram “memorizadas”. Essa abstração resulta na perda de referências a indivíduos específicos.

Privacidade como prioridade

Em resumo, embora o uso de dados em larga escala para o treinamento de LLMs apresente desafios, a combinação de técnicas de anonimização, a minimização, o uso de dados sintéticos, a natureza abstrata do aprendizado dos modelos e a implementação de uma governança de dados alinhada aos direitos dos titulares demonstram que o avanço da IA é compatível com a proteção da privacidade e dos dados pessoais

No fim das contas, tratar a proteção de dados como prioridade é uma vantagem competitiva. Modelos de IA treinados com dados de alta qualidade, coletados de forma ética e devidamente “higienizados”, são mais confiáveis e menos propensos a erros e preconceitos. Ao incorporar a privacidade desde o início do projeto (privacy by design), as empresas constroem a confiança do público, que é essencial para o sucesso de qualquer tecnologia. Fica claro, portanto, que é perfeitamente possível treinar modelos de IA com trilhões de parâmetros e, ao mesmo tempo, proteger os direitos fundamentais das pessoas.

Quer saber mais sobre IA no âmbito dos direitos autorais? Clique aqui. Ou então aesse os outros textos da autora.

Autor

  • D88923CA 45C8 41F6 8572 6FD2EC1EE932 - Privacy Tools
    Eduarda Chacon Rosas

    Advogada e Coordenadora no BFBM Advogados. Professora. Autora de livro e artigos. Doutoranda e Mestre pela UNB. Pós-Graduada lato sensu em Direito Empresarial pela Fundação Getúlio Vargas, FGV. Pós-Graduada lato sensu em Relações Internacionais, UnB. Graduada em Direito, Universidade Federal do Rio Grande do Norte, UFRN. Pesquisadora no IDP (Ethics4AI). CIPM e CDPO pelo IAPP. ECPC-B DPO pela Universidade de Maastricht. Membro da Comissão de IA e do Observatório Nacional de Cibersegurança, Inteligência Artificial e Proteção de Dados da OAB.

    Ver todos os posts
  • Tags IA, inteligência artificial, lgpd, privacidade, privacy tools
Avatar of Eduarda Chacon Rosas

By Eduarda Chacon Rosas

Advogada e Coordenadora no BFBM Advogados. Professora. Autora de livro e artigos. Doutoranda e Mestre pela UNB. Pós-Graduada lato sensu em Direito Empresarial pela Fundação Getúlio Vargas, FGV. Pós-Graduada lato sensu em Relações Internacionais, UnB. Graduada em Direito, Universidade Federal do Rio Grande do Norte, UFRN. Pesquisadora no IDP (Ethics4AI). CIPM e CDPO pelo IAPP. ECPC-B DPO pela Universidade de Maastricht. Membro da Comissão de IA e do Observatório Nacional de Cibersegurança, Inteligência Artificial e Proteção de Dados da OAB.

View Archive →

Posts relacionados

PrivacyTools - LGPD

Artificial Intelligence and Copyright. Warming Up the Debate

PrivacyTools - LGPD

Automated Decisions and the New Frontier of Privacy: The...

PrivacyTools - LGPD

Will Robots Take Over the World? LGPD, AI Governance,...


← Privacy Tools is Top 3 among Legaltechs in the 100 Open Startups 2025 Ranking





Marketing & UX

  • Cookie management
  • Policy management

Privacy management

  • Consent Management
  • Holders' requests
  • Audit

Governance and compliance

  • Incident management
  • Data mapping
  • Data discovery
  • ESG
  • AI Governance

Social networks

  • Privacy Policy
  • Cookies Policy
  • Code of Ethics

© Privacy Tools 2025 PrivacyTools - LGPD