A biometria deixou de ser um recurso futurista. Está nos nossos celulares, sistemas de segurança, portarias de prédios, caixas de lojas e até no controle de presença de alunos em escolas públicas. Com a promessa de agilidade e segurança, essa tecnologia avança a passos largos. Mas o que parece ser um avanço inevitável pode também encobrir um desafio perigoso: a erosão da privacidade.
O que é biometria e por que preocupa?
A biometria é uma tecnologia que permite a identificação ou autenticação de indivíduos a partir de características únicas e mensuráveis do corpo humano (biometria física) ou de seus comportamentos (biometria comportamental). Ao contrário de senhas ou cartões, que podem ser compartilhados, extraviados ou substituídos, os dados biométricos estão intrinsecamente ligados à identidade da pessoa, sendo, por definição, imutáveis e permanentes. Entre os exemplos mais comuns estão as impressões digitais, reconhecimento facial, íris, geometria da mão, vascularização, voz, DNA, além de características comportamentais como forma de andar, dinâmica de digitação, assinatura e expressões faciais. Essas informações são amplamente utilizadas em sistemas de controle de acesso, autenticação bancária, programas de benefícios sociais, vigilância pública e em plataformas digitais e aplicativos móveis.

No entanto, apesar da eficácia e praticidade, o uso da biometria levanta preocupações relevantes do ponto de vista ético, jurídico e técnico. Um dos principais pontos de alerta está na natureza irreversível desses dados. Ao contrário de senhas, que podem ser alteradas em caso de vazamento, uma íris ou uma impressão digital exposta em um incidente de segurança não pode ser substituída. Isso significa que uma violação representa um risco vitalício à identidade da pessoa. Além disso, a biometria possibilita o rastreamento de indivíduos à distância e, muitas vezes, sem seu conhecimento, como no caso do reconhecimento facial por câmeras instaladas em espaços públicos. Esse tipo de prática pode levar à vigilância massiva e ao comprometimento das liberdades civis e dos direitos fundamentais.
Outro ponto de preocupação diz respeito às desigualdades algorítmicas. Sistemas biométricos, especialmente os de reconhecimento facial, podem apresentar vieses de desempenho, como taxas mais altas de erro em mulheres, pessoas negras e outras minorias. Isso se deve a bases de dados de treinamento desequilibradas e pode levar a discriminação algorítmica. Soma-se a isso o risco de uso indevido dos dados, como o aproveitamento para finalidades não informadas ao titular no momento da coleta — por exemplo, análises comportamentais, marketing direcionado ou compartilhamento com bases policiais e comerciais sem consentimento válido.
No campo da cibersegurança, a centralização de dados biométricos em grandes bases de governos, instituições financeiras e empresas de tecnologia representa um atrativo para criminosos, já que eventuais brechas de segurança podem comprometer informações sensíveis e inalteráveis. Diante desse cenário, a Lei Geral de Proteção de Dados (Lei nº 13.709/2018) classifica a biometria como dado pessoal sensível, impondo requisitos rigorosos para sua coleta, uso e armazenamento. Entre as obrigações estão a necessidade de consentimento específico e destacado, a definição clara e legítima da finalidade, a adoção de medidas técnicas e administrativas de segurança da informação, além da realização de Relatórios de Impacto à Proteção de Dados Pessoais (DPIA) nos casos de alto risco.
Em suma, embora a biometria represente uma importante ferramenta de segurança e autenticação, seu uso demanda critérios técnicos e jurídicos rigorosos. Quando mal utilizada ou desprovida de governança adequada, ela pode transformar-se em um vetor de risco para a privacidade, a dignidade da pessoa humana e a liberdade individual. O avanço tecnológico, especialmente com a disseminação da inteligência artificial e da vigilância algorítmica, torna o debate sobre a biometria cada vez mais urgente e essencial para assegurar os direitos fundamentais no ambiente digital.
O uso indiscriminado no Brasil
O estudo mais recente da ANPD revelou que diversos estados brasileiros já utilizam reconhecimento facial e outras formas de biometria em escolas, aeroportos, sistemas de segurança pública, farmácias e até no varejo. Casos como o da ViaQuatro, em que câmeras escondidas em totens publicitários do metrô captavam expressões faciais de passageiros para medir reações a anúncios, provocaram reações judiciais e culminaram em indenização por dano moral coletivo.
Em outros contextos, como no programa de embarque +Seguro do Governo Federal, já há integração da biometria facial com dados do Serpro, em voos domésticos nos aeroportos de Congonhas e Santos Dumont. E no setor de saúde, testes com biometria da íris vêm sendo explorados para autenticação de pacientes inconscientes ou sem documentos.
Clubes de futebol e o novo dever de identificar torcedores
Um setor particularmente impactado por essa evolução é o esportivo. A nova Lei Geral do Esporte (Lei nº 14.597/2023) e iniciativas como o PL do Estádio Seguro (PL nº 4.438/2020) impõem aos clubes de futebol e às entidades organizadoras obrigações específicas quanto à identificação biométrica de torcedores. A ideia é coibir práticas como o racismo, a violência nos estádios e o descumprimento de restrições judiciais impostas a torcedores.
A biometria facial, nestes casos, surge como alternativa preferencial. A Confederação Brasileira de Futebol (CBF), inclusive, firmou acordo com o Ministério da Justiça para viabilizar um sistema nacional de reconhecimento facial nos estádios. Os clubes, por sua vez, precisam adequar suas operações — desde a infraestrutura de captura das imagens até a adoção de medidas técnicas e organizacionais exigidas pela LGPD, como a elaboração de Relatórios de Impacto à Proteção de Dados Pessoais (RIPD).
Além disso, as bases legais para o tratamento desses dados sensíveis devem ser sólidas, o que inclui a análise do legítimo interesse, da proteção do crédito ou da execução de políticas públicas quando realizadas em cooperação com o Estado. Não basta “implantar câmeras”; é preciso pensar em governança de dados, segurança da informação e transparência — sob pena de os clubes responderem administrativa e judicialmente.
Entre a inovação e a vigilância disfarçada
Entre a promessa de inovação e o risco da vigilância disfarçada, os sistemas biométricos têm avançado sob o manto do discurso de segurança pública e modernização tecnológica. Cada vez mais cidades e instituições públicas e privadas investem em ferramentas de reconhecimento facial, leitura de íris e outras formas de identificação automatizada com o argumento de oferecer maior controle, eficiência e proteção à população. Um exemplo emblemático é o programa “Smart Sampa”, da cidade de São Paulo, que prevê a instalação de até 40 mil câmeras com reconhecimento facial espalhadas por vias públicas. Embora anunciado como uma medida voltada à segurança, o projeto vem sendo criticado por especialistas e entidades da sociedade civil pela ausência de transparência quanto ao uso, compartilhamento e proteção dos dados coletados, especialmente os armazenados em bancos de dados compartilhados entre órgãos públicos e empresas.
A biometria, nesse contexto, deixa de ser apenas uma ferramenta de autenticação e passa a ocupar um papel central nas políticas de vigilância e controle social. Tecnologias como o escaneamento da íris, que oferecem altíssimo grau de precisão na identificação de indivíduos, têm gerado controvérsias em diversos países. Um caso recente que ganhou destaque internacional foi o da empresa Tools for Humanity, ligada ao projeto Worldcoin, que realizou a coleta de dados biométricos de cidadãos brasileiros — em especial imagens da íris — em troca de criptomoedas. A Autoridade Nacional de Proteção de Dados (ANPD) entendeu que a prática violava princípios da Lei Geral de Proteção de Dados, especialmente por caracterizar um consentimento viciado, obtido mediante recompensa financeira, o que compromete sua liberdade e espontaneidade. Além disso, a ANPD apontou falhas estruturais no tratamento desses dados, como a ausência de informações claras sobre a exclusão dos registros, a inexistência de encarregado indicado no Brasil e a impossibilidade de revogação efetiva do consentimento.
Esse cenário acende um alerta: ao mesmo tempo em que a biometria é promovida como símbolo de progresso e sofisticação, ela também pode ser utilizada como mecanismo de controle social disfarçado, especialmente em contextos nos quais os cidadãos não têm plena ciência ou controle sobre como seus dados são coletados, armazenados e utilizados. A ausência de governança robusta, transparência e limites bem definidos para o uso dessas tecnologias pode transformar medidas de proteção em instrumentos de vigilância contínua, afetando de maneira direta o direito à privacidade e a liberdade individual. Assim, é essencial que o uso de soluções biométricas, principalmente quando adotadas por entes públicos, seja acompanhado de regulamentações claras, fiscalização ativa e garantias efetivas de proteção de dados — sob pena de se instaurar uma cultura de vigilância incompatível com os princípios de um Estado Democrático de Direito.
O papel da regulação
Apesar de a Lei Geral de Proteção de Dados (LGPD) reconhecer dados biométricos como sensíveis, o Brasil ainda carece de regulação específica sobre o uso de videomonitoramento e tecnologias como a leitura da íris. Projetos de lei como o PL 3.069/2022 e o PL 2.338/2023 tentam suprir essa lacuna, mas avançam lentamente no Congresso Nacional.
Enquanto isso, países como Itália e França já aplicaram multas milionárias contra empresas por coleta indevida de imagens faciais e biometria ocular, como no caso da Clearview¹.
Biometria e o futuro da identidade
A biometria está cada vez mais consolidada como elemento central no futuro da identidade digital, e sua adoção em sistemas sem senha (passwordless) já é uma realidade em larga escala. Gigantes da tecnologia como Apple, Google e Microsoft têm implementado soluções que substituem credenciais tradicionais por autenticação biométrica, utilizando reconhecimento facial, leitura da íris ou impressão digital. O que antes era apenas um reforço adicional de segurança passou a ser o critério principal de acesso a dispositivos, aplicativos e serviços digitais. Essa mudança de paradigma exige uma nova abordagem quanto à proteção desses dados: tratá-los não apenas como informação técnica, mas como extensão da própria identidade do indivíduo. Nesse contexto, assegurar a integridade, a confidencialidade e o uso ético da biometria torna-se não apenas uma obrigação legal, mas um imperativo ético diante da irreversibilidade dos danos que uma violação pode causar.
Mais complexa ainda é a chegada das chamadas neurobiometrias, um campo emergente que envolve tecnologias capazes de mapear, registrar e interpretar sinais neurais emitidos pelo cérebro humano. Interfaces cérebro-computador (BCIs), que inicialmente se desenvolveram com fins terapêuticos — como o auxílio a pessoas com paralisia —, já vêm sendo testadas para aplicações comerciais e, potencialmente, estatais. Essas interfaces são capazes de captar padrões únicos de atividade cerebral, criando uma nova fronteira na identificação individual baseada em dados biométricos profundamente sensíveis. A possibilidade de ler intenções, emoções ou padrões cognitivos a partir da atividade cerebral abre espaço para usos que colocam em xeque princípios fundamentais, como a autodeterminação informativa e a privacidade mental.
Nesse cenário, o uso indiscriminado de neurodados por empresas ou governos pode representar uma ameaça ainda mais grave do que as formas tradicionais de biometria. Afinal, trata-se não apenas de reconhecer um rosto ou uma íris, mas de acessar e interpretar conteúdos ligados diretamente aos pensamentos e processos internos do indivíduo. A ausência de regulamentação específica sobre neurobiometria, tanto no Brasil quanto em outras jurisdições, agrava os riscos, exigindo um debate urgente sobre os limites éticos e legais para a exploração comercial e estatal desses dados.
A evolução da biometria como padrão global de identidade traz consigo benefícios evidentes em termos de conveniência e segurança, mas impõe desafios proporcionais em termos de proteção de direitos fundamentais. À medida que os dados biométricos substituem senhas e se tornam credenciais universais de acesso, cresce a responsabilidade de garantir que sua coleta, armazenamento e uso estejam amparados por princípios de transparência, necessidade, proporcionalidade e responsabilidade. Quando se trata da identidade humana em sua expressão mais íntima — seja uma impressão digital, uma íris ou uma sinapse —, proteger é mais do que prevenir: é respeitar os limites da dignidade e da autonomia individual em uma era de profunda transformação digital.
Conclusão
A biometria representa um avanço significativo em termos de conveniência e segurança, permitindo a autenticação de identidade de forma rápida, precisa e, muitas vezes, invisível ao usuário. No entanto, sua adoção exige responsabilidade proporcional à sensibilidade dos dados envolvidos. Ao lidarmos com características únicas e imutáveis do corpo humano — como a íris, o rosto ou a impressão digital —, a exposição indevida ou o uso inadequado desses dados pode acarretar consequências graves e irreversíveis. Diferentemente de senhas, que podem ser alteradas, os dados biométricos, uma vez comprometidos, permanecem vulneráveis por toda a vida.
Diante disso, é essencial que o uso da biometria esteja sempre pautado por princípios de transparência, necessidade, proporcionalidade e segurança. A coleta desses dados deve ter uma finalidade clara e legítima, com base jurídica adequada e com pleno conhecimento do titular. A adoção de medidas técnicas e administrativas para prevenir acessos não autorizados, vazamentos ou reutilização indevida não é apenas uma boa prática — é uma obrigação legal e ética.
Em tempos de crescente digitalização e dependência de tecnologias de identificação automatizada, proteger os dados biométricos é proteger a própria identidade humana. O desafio que se impõe não é o de barrar o progresso, mas de assegurar que ele ocorra com respeito aos direitos fundamentais. A biometria deve ser uma ferramenta a serviço da liberdade e da dignidade, e não um instrumento de controle ou exclusão. O futuro da identidade digital dependerá, cada vez mais, da nossa capacidade de equilibrar inovação com responsabilidade.
Quer saber mais sobre a biometria no futebol? Clique aqui e saiba mais!