A cientista da computação, pesquisadora e ativista brasileira Nina da Hora. Foto: Divulgação
Em um país em que mais de 90% das prisões com base em reconhecimento facial envolvem pessoas negras, segundo levantamento da Rede de Observatórios da Segurança, a cientista da computação e pesquisadora Nina da Hora faz um alerta: “No Brasil, os riscos da tecnologia de reconhecimento facial se intensificam pela ausência de regulação, pelas desigualdades raciais históricas e pelo uso pouco transparente das forças de segurança”.
Cientista da computação, pesquisadora e ativista brasileira, Nina é fundadora e diretora do Instituto Dahora, que colaborou com a Conectas na publicação do relatório De olho nos Vigilantes: Combatendo a Propagação do Reconhecimento Facial na Segurança Pública, tradução para o português do estudo desenvolvido pela International Network of Civil Liberties Organizations (INCLO).
Reconhecida por articular ética, justiça social e inteligência artificial, Nina tem se destacado no debate público ao denunciar os impactos do racismo algorítmico e os perigos de uma vigilância sem controle democrático. Para ela, o caminho mais seguro no curto prazo é adotar uma moratória sobre o uso policial da TRF. “Diante da incapacidade de neutralizar vieses agora, a política mais protetiva é suspender os usos em ambientes de alta vulnerabilidade, como transporte público e eventos de massa”, afirma. Confira a entrevista:
Nina da Hora: No Brasil, os riscos apontados pelo documento da INCLO se intensificam por três fatores estruturais: ausência de regulação, desigualdades raciais e sociais históricas, e uso fragmentado e pouco transparente de tecnologias pelas forças de segurança. Risco de vigilância política e social: a TRF já foi usada para monitorar torcidas organizadas, protestos e até blocos de carnaval. Isso cria efeito inibidor sobre a liberdade de manifestação, num país com tradição de mobilização social forte e, ao mesmo tempo, marcado por repressões violentas em manifestações (como em 2013 ou em comunidades periféricas). Risco de criminalização de populações vulneráveis: dados mostram que jovens negros e periféricos são os principais alvos da abordagem policial. Quando a TRF erra mais com rostos negros, ela reforça uma dinâmica já violenta: falsos positivos aumentam o risco de prisões arbitrárias e até de letalidade policial. Risco institucional de expansão sem controle: Estados como RJ e SP já testaram sistemas de TRF em metrôs, rodoviárias e carnaval, muitas vezes em parceria com empresas privadas e sem debate público. O vácuo regulatório permite que diferentes órgãos de segurança adotem sistemas distintos, sem padronização ou fiscalização. Risco democrático: no contexto de crises políticas recentes, a TRF pode se tornar instrumento de vigilância massiva contra opositores, jornalistas ou movimentos sociais. Isso é especialmente grave em um país onde o Estado já acumulou histórico de uso autoritário de ferramentas de vigilância (da ditadura militar às operações recentes em manifestações).
Nina da Hora: O desafio é transformar princípios em prática, enfrentando um cenário de normalização da vigilância. Alguns caminhos realistas: Marco legal específico, apesar da LGPD tratar de dados pessoais e biométricos, ela não regula diretamente a TRF no policiamento. Um projeto de lei deveria proibir ou estabelecer moratória sobre o uso policial até haver condições técnicas, sociais e jurídicas claras. Controle legislativo e judicial: o Congresso e o STF têm papel-chave. O STF, que já julgou temas de vigilância digital, pode ser provocado a definir limites constitucionais à TRF. O Legislativo pode criar comissões de acompanhamento com participação da sociedade civil. Órgãos de controle independentes: o Brasil possui corregedorias, ouvidorias de polícia e a Autoridade Nacional de Proteção de Dados (ANPD). Todos poderiam ganhar competências para auditar sistemas de TRF, exigir relatórios públicos e aplicar sanções. Participação comunitária: conselhos comunitários de segurança, movimentos negros, sindicatos e coletivos de direitos digitais devem ser incorporados a instâncias deliberativas. Sem isso, a tecnologia será decidida apenas entre polícia e fornecedores privados.
Nina da Hora: A experiência brasileira de desigualdade racial impõe soluções robustas e contextualizadas: moratória como ponto de partida. Diante da incapacidade de neutralizar vieses no curto prazo, a política mais protetiva é suspender usos policiais da TRF — sobretudo em ambientes de alta vulnerabilidade, como transporte público e eventos de massa. Auditorias independentes obrigatórias: toda tecnologia de reconhecimento facial deveria ser submetida a testes por entidades independentes, com publicação de métricas de erro desagregadas por raça, gênero e idade. Litigância estratégica e controle judicial: casos de prisões injustas por TRF já ocorreram no Brasil. A Defensoria Pública e organizações da sociedade civil podem judicializar casos para gerar jurisprudência restritiva. Enfrentamento estrutural do racismo: o TRF amplifica a seletividade penal. Combater o racismo algorítmico não é só melhorar os sistemas, mas reduzir práticas policiais discriminatórias — como abordagens sem justificativa (“paradas suspeitas”), que hoje poderiam ser automatizadas pela TRF. Produção de dados nacionais: Universidades e centros de pesquisa devem ser financiados para mapear o impacto racial da TRF no Brasil, produzindo evidências que fundamentem políticas públicas e decisões judiciais. Caminhos práticos para o Brasil: Projetos de lei municipais e estaduais proibindo a TRF em espaços públicos (seguindo exemplos de cidades dos EUA e Europa). Resoluções do CNJ e do CNMP proibindo que provas baseadas apenas em TRF sejam aceitas em processos judiciais ou denúncias. Protocolos das polícias proibindo o uso da TRF para abordagens em tempo real, sob pena de nulidade processual. Atuação do Ministério Público e Defensorias para monitorar contratos com empresas de TRF e exigir accountability.