A evolução tecnológica cria a ilusão de que velocidade é mais importante do que estrutura. E a inteligência artificial não foge à regra. Enquanto organizações públicas e privadas aceleram a adoção de sistemas capazes de automatizar decisões, prever comportamentos e redefinir fluxos de trabalho, cresce também a percepção de que inovação sem governança não representa avanço, representa exposição. A corrida pela IA não é apenas tecnológica, deve ser institucional. E o desafio central não está exclusivamente em implementar sistemas inteligentes, mas em garantir que eles operem dentro de parâmetros claros de responsabilidade.
Um indicativo concreto dessa mudança aparece em levantamento noticiado pelo Convergência Digital, segundo o qual 95% das empresas no Brasil passaram a tratar a IA como alerta de privacidade e reforçaram seus programas de proteção de dados em razão dessa tecnologia. Esse movimento revela uma transformação relevante: a inteligência artificial depende de dados, e dados implicam governança. À medida que decisões automatizadas passam a influenciar processos críticos, a proteção de dados deixa de ser um tema periférico para assumir posição estratégica na arquitetura institucional.

Durante muito tempo, programas de proteção de dados foram percebidos como estruturas voltadas principalmente à conformidade regulatória. A evolução recente demonstra que essa visão se tornou insuficiente. A inteligência artificial exige qualidade informacional, bases legais claras, rastreabilidade e mecanismos robustos de supervisão. Nesse cenário, a privacidade deixa de ser entendida como freio à inovação e passa a funcionar como infraestrutura necessária para que ela ocorra de forma sustentável. Não se trata mais de inovar primeiro e governar depois, mas de estruturar governança para viabilizar a própria inovação.
Essa mudança reflete uma convergência mais ampla já observada em estudos internacionais. Como sintetiza pesquisa da Cisco ao analisar quase uma década de evolução do tema:
“Across nearly ten years of Cisco research, one message is clear: privacy, data governance, and AI accountability are converging into a single framework for digital trust. As AI becomes embedded across every operational layer, privacy leaders now find themselves at the center of a new governance ecosystem — one that unites compliance, security, ethics, and innovation under a broad umbrella of data responsibility.”
Evidencia-se que a governança contemporânea não pode mais ser fragmentada em silos técnicos ou jurídicos; ela passa a integrar múltiplas dimensões sob uma mesma lógica de responsabilidade digital.
Isso porque o principal risco associado à inteligência artificial não está necessariamente na tecnologia em si, mas na ausência de curadoria institucional capaz de estabelecer limites, critérios e responsabilidades.
A adoção acelerada de soluções algorítmicas frequentemente ocorre em ambientes organizacionais ainda imaturos do ponto de vista da governança de dados, o que pode resultar em decisões automatizadas opacas, reutilização indevida de informações, amplificação de vieses e dificuldades de atribuição de responsabilidade. A IA não cria fragilidades inéditas, mas torna visíveis, e mais intensas, as fragilidades já existentes.
É nesse contexto que o papel do Encarregado de Proteção de Dados Pessoais, deve assumir papel estratégico. Mais do que um agente de conformidade, o DPO passa a integrar a arquitetura institucional que conecta tecnologia, direito e gestão de riscos. A participação desde a concepção dos sistemas, o acompanhamento de avaliações de impacto, a garantia de supervisão humana significativa e a construção de mecanismos de transparência e accountability tornam-se elementos essenciais para que sistemas de inteligência artificial sejam implementados com segurança e legitimidade. A experiência demonstra que a falha da IA raramente decorre apenas do erro algorítmico: surge quando não há governança clara sobre quem decide, como decide e quem responde pelas consequências.
Outro desafio relevante reside na qualidade e organização dos dados utilizados para treinamento e operação dos sistemas. Sem políticas estruturadas de governança informacional, modelos algorítmicos tendem a reproduzir inconsistências, ampliando riscos operacionais e jurídicos. Dados desestruturados produzem decisões frágeis, e decisões frágeis, quando escaladas pela tecnologia, podem comprometer a confiança institucional e a credibilidade das organizações.
Portanto, a discussão contemporânea sobre inteligência artificial evidencia que inovação tecnológica não pode ser tratada como tema exclusivamente técnico. Trata-se de uma questão de responsabilidade institucional, de proteção de direitos e de construção de confiança na organização, pública ou privada, e a proteção de dados pessoais (não apenas LGPD) deve ser o filtro ético-normativo para a inovação. A próxima fase da transformação digital será definida não apenas pela velocidade da adoção da IA, mas pela capacidade de governá-la de forma responsável. Nesse cenário, a conclusão torna-se inevitável: IA sem DPO, nem pensar.



















