A tecnologia de reconhecimento facial se espalhou pelo Brasil como uma promessa de segurança em tempos de alta criminalidade. Os números são massivos: são 376 projetos ativos com potencial para monitorar 41% da população, com investimentos públicos que já ultrapassam R$ 160 milhões. A narrativa oficial, impulsionada por casos de sucesso no Carnaval e em grandes eventos, vende a imagem de uma ferramenta cirúrgica e infalível na captura de foragidos.

Mas por baixo dessa superfície de marketing, opera uma realidade muito mais perigosa. A implementação da tecnologia no Brasil não é apenas falha; ela é um sistema que opera sob uma lógica perversa que pode ser resumida em uma expressão da ciência da computação: “Garbage In, Gospel Out”.

Isso significa que alimentamos o sistema com dados problemáticos (“lixo para dentro”) e tratamos seus resultados probabilísticos como uma verdade absoluta (“evangelho para fora”). O resultado é a automação e a amplificação da injustiça, transformando uma ferramenta de segurança em uma arma de vigilância seletiva. Este post disseca como esse ciclo perigoso funciona e por que suas vítimas têm, consistentemente, o mesmo rosto.

 

A Lição que Ninguém Explica: Verificação vs. Identificação

A aceitação da tecnologia se baseia em uma confusão fundamental, muitas vezes explorada por seus defensores.

  • Verificação (1 para 1): É quando você usa o rosto para desbloquear o celular ou validar uma compra. É um ato consensual, iniciado por você, que responde à pergunta: “Eu sou quem digo ser?”. É conveniente e percebido como seguro.

  • Identificação (1 para Muitos): É quando o Estado aponta uma câmera para você na rua e a compara com um vasto banco de dados de suspeitos. É um ato de vigilância não consensual, que responde à pergunta: “Quem é você?”.

A indústria e o poder público misturam esses conceitos, apresentando a vigilância em massa como uma simples extensão da conveniência do seu smartphone. Mas são coisas fundamentalmente diferentes. Uma é um serviço; a outra, um sistema de controle com imensos riscos.

 

O Ciclo da Injustiça: “Garbage In, Gospel Out”

A falha do reconhecimento facial no Brasil não está apenas no algoritmo, mas em toda a sua cadeia operacional.

1. O “Garbage In” (A Alimentação do Sistema) A precisão de qualquer sistema depende da qualidade de seu banco de dados de referência. No Brasil, essas bases são o “lixo” que alimenta a máquina:

  • Opacidade e Desatualização: Os bancos de dados da polícia, que formam as “listas de observação”, são caixas-pretas. Eles contêm informações desatualizadas, como mandados de prisão que já foram revogados ou cumpridos.

  • Viés Histórico: As fotos nesses bancos de dados não representam a criminalidade, mas sim quem a polícia historicamente aborda e prende. No Rio de Janeiro, 63% das pessoas abordadas pela polícia são negras, em uma cidade onde elas compõem 48% da população. Esses bancos de dados são um espelho do racismo estrutural.

  • Fontes Ilegais: Documentos já revelaram que o Ministério da Justiça licenciou o uso de tecnologias como a do Clearview AI, que constrói seu banco de dados “raspando” ilegalmente bilhões de fotos de redes sociais sem qualquer consentimento.

2. O “Gospel Out” (A Verdade Absoluta da Máquina) Quando uma câmera na rua captura um rosto e o compara com esse banco de dados problemático, o sistema não dá uma resposta “sim” ou “não”. Ele gera uma pontuação de probabilidade.

O problema é que, na ponta, não existe um protocolo nacional obrigatório e auditado sobre como agir. Na ausência de regras claras, o policial na rua, influenciado por seus próprios vieses e pela aparente autoridade da tecnologia, trata um alerta probabilístico como uma identificação confirmada. A máquina se torna um oráculo. Um “match” se transforma em uma ordem de detenção imediata, atropelando o devido processo legal e colocando o ônus da prova no cidadão.

 

A Face Documentada do Erro

Essa falha sistêmica não é teórica. Ela produz vítimas reais, com casos documentados que expõem a brutalidade do ciclo “Garbage In, Gospel Out”.

  • São Paulo (2024): Um homem negro de 80 anos foi detido por 10 horas após o sistema o identificar erroneamente como o autor de um crime cometido por uma pessoa branca.

  • Aracaju (2023): Uma mulher negra foi retirada à força de um festival por policiais após um “match” incorreto, sendo publicamente humilhada.

  • Rio de Janeiro: Uma psicóloga foi constrangida em uma conferência após ser confundida com uma foragida da justiça, precisando buscar reparação por danos morais.

  • Piauí: Um homem foi preso injustamente por três dias e transferido para outro estado depois que um sistema o apontou erroneamente como procurado.

Esses não são “erros” isolados. São o resultado previsível de um sistema mal projetado e implementado em um contexto de profunda desigualdade social.

 

O Paradoxo da LGPD: A Lei que Protege, mas Não na Rua

A situação jurídica é um paradoxo. A Lei Geral de Proteção de Dados (LGPD) classifica dados biométricos como “sensíveis”, garantindo a eles o mais alto nível de proteção. No entanto, a mesma lei abre uma exceção ampla para o tratamento de dados para fins de “segurança pública”.

Na prática, essa exceção virou uma brecha gigantesca. Atores estatais a interpretam da forma mais ampla possível, usando-a como um “cheque em branco” para justificar a coleta indiscriminada de dados de milhões de brasileiros, anulando as proteções que a própria lei deveria garantir. A categoria de dados mais sensível que temos tornou-se, na prática, a mais vulnerável à vigilância do Estado.

A expansão do reconhecimento facial no Brasil não pode ser vista como um simples avanço tecnológico. Ela é uma escolha política. Uma escolha que, até agora, tem priorizado a promessa de segurança em detrimento da justiça e da igualdade. A tecnologia, vendida como uma solução, tornou-se parte do problema, modernizando e automatizando formas de discriminação que há séculos marcam a sociedade brasileira.


O debate não é mais sobre ser a favor ou contra a tecnologia. A questão fundamental é: que tipo de sociedade queremos construir? Uma que aceita o erro sistêmico e a discriminação como um dano colateral aceitável em nome de uma segurança ilusória, ou uma que exige que a tecnologia sirva, antes de tudo, aos direitos e à dignidade de todos os seus cidadãos?