ouro.capital
||
seguranca

Reconhecimento facial no Brasil: os vieses que excluem milhões de pessoas do sistema financeiro

2026-02-17·8 min read·Matheus Feijão

Ponto-chave

Algoritmos de biometria facial treinados em bases de dados pouco diversas apresentam taxas de erro severamente maiores para pessoas negras e pardas. No ecossistema de pagamentos brasileiro, essa falha tecnológica funciona como uma porta giratória digital que bloqueia o acesso de milhões de cidadãos a serviços financeiros básicos.

Você aponta a câmera do celular para o próprio rosto. Pisca duas vezes, sorri, vira a cabeça levemente para a direita. A tela carrega por três segundos e devolve a mensagem fria: "Não foi possível validar sua identidade". Você tenta de novo na luz da janela. Limpa a lente. Reinicia o aplicativo. Nada.

Para um executivo branco operando da Faria Lima, isso é um bug raro de sistema. Para milhões de brasileiros negros e pardos, é a barreira invisível que os impede de abrir uma conta, pedir um cartão de crédito ou receber o salário.

A promessa das fintechs nos últimos dez anos era democratizar o acesso ao dinheiro. Nubank, Stone, PagSeguro e Mercado Pago construíram impérios sob a premissa de que a fila física da agência bancária acabou. Nós digitalizamos o onboarding. O Banco Central, através da Resolução 4.753 de 2019, chancelou a abertura de contas de forma 100% digital. A biometria facial virou o padrão-ouro para o processo de Conheça Seu Cliente (KYC).

O problema estrutural? Substituímos o gerente preçonceituoso por um algoritmo míope. E esse algoritmo tem um viés claro de cor.

A anatomia do viés algorítmico

Se você opera um e-commerce ou lidera o produto de uma carteira digital, preste atenção aqui. A biometria facial não é mágica. Ela é estatística aplicada. O motor de reconhecimento facial compara a selfie tirada pelo usuário (o probe) com a foto do documento oficial (a reference).

Para fazer isso com precisão, redes neurais profundas precisam ser treinadas com dezenas de milhões de rostos. O erro nasce na base de dados. Se os engenheiros de machine learning treinam seus modelos usando majoritariamente rostos de homens brancos, o algoritmo se torna um especialista em diferenciar traços caucasianos. Quando confrontado com a pele negra, o sistema perde a capacidade de ler pontos nodais — a distância entre os olhos, o formato do maxilar, a profundidade do nariz.

Estudos globais, como o seminal Gender Shades do MIT (Massachusetts Institute of Technology), já escancararam a ferida. Algoritmos comerciais de gigantes da tecnologia erravam a identificação de mulheres negras em até 34,7% das vezes, enquanto a taxa de erro para homens brancos era de 0,8%.

No Brasil, onde 56% da população se declara negra ou parda segundo o IBGE, importar esses motores biométricos sem um retreinamento massivo e localizado é um suicídio comercial. Observamos que muitas instituições financeiras implementaram APIs estrangeiras baratas nos últimos cinco anos sem auditar a Taxa de Falsa Rejeição (FRR) por recorte demográfico.

O impacto financeiro: milhões trancados do lado de fora

A matemática da exclusão afeta o balanço financeiro das empresas de forma direta. Imagine uma fintech média com um Custo de Aquisição de Clientes (CAC) de R$ 65,00. O marketing faz o trabalho perfeitamente. O usuário baixa o app, preenche os dados, envia a foto do RG e tenta fazer a selfie.

Se o motor biométrico possui uma taxa de falsa rejeição 10% maior para usuários de pele escura, a fintech não está apenas discriminando — ela está queimando dinheiro de investidor. São milhares de usuários que chegam ao fundo do funil de conversão e são abortados por falha na tecnologia.

O pesadelo do bloqueio preventivo

O Conselho de Controle de Atividades Financeiras (COAF) exige regras rigorosas de prevenção à lavagem de dinheiro. A Circular 3.978 do BACEN obriga as instituições a terem certeza absoluta de quem está transacionando.

O resultado prático? Os bancos digitais configuram seus sistemas de segurança no nível máximo de paranóia. Na dúvida, o algoritmo bloqueia a conta. O cliente negro tenta transferir via PIX o dinheiro do aluguel, o sistema de segurança pede uma revalidação facial de rotina, a biometria falha devido à baixa iluminação, e a conta é congelada por "suspeita de fraude".

Para destravar o acesso, o usuário entra num purgatório de atendimento via chat que pode durar semanas. A confiança na marca é destruída instantaneamente.

Prova de vida ou prova de luz?

Outro ponto crítico é o Liveness Detection (prova de vida). Esse é o mecanismo que impede fraudadores de usarem uma foto impressa ou uma máscara de silicone para enganar o sistema.

O liveness ativo exige que o usuário sorria ou mova a cabeça. O liveness passivo analisa a textura da pele e a reflexão da luz na imagem. Aqui temos um gargalo duplo: smartphones mais baratos de entrada (Androids de baixo custo), amplamente usados pelas classes C e D, possuem câmeras de baixa qualidade. Os sensores de imagem desses aparelhos têm baixo alcance dinâmico. Eles esmagam os tons escuros.

A pele negra absorve mais luz. Quando combinamos uma câmera ruim, iluminação inadequada dentro de um ônibus voltando do trabalho, e um algoritmo mal treinado, a prova de vida falha miseravelmente. O sistema classifica um cidadão honesto como uma tentativa de fraude em spoofing.

O que o mercado brasileiro está fazendo

Fornecedores nacionais de identidade digital entenderam o tamanho do abismo. Empresas como Único (antiga Acesso Digital), Caf (Combaté à Fraude) e Oiti Technologies processam a esmagadora maioria das autenticações do varejo e das fintechs no Brasil.

Elas foram obrigadas a adaptar seus motores. A Único, por exemplo, criou comitês de diversidade específicos para avaliar vieses algorítmicos e investiu pesado em aumentar a representatividade racial no seu banco de dados de treinamento. A estratégia envolve capturar milhões de faces em diferentes condições de iluminação e com diferentes qualidades de hardware, criando um dataset genuinamente brasileiro.

Mesmo com esses avanços, a dependência exclusiva de um único motor de biometria facial é um erro primário de arquitetura. Bancos mais maduros operam hoje com orquestração de identidade. Se o motor A reprova o rosto, a imagem é roteada em frações de segundo para o motor B. Se ambos reprovam com um score limitrofe, a requisição cai numa mesa de análise manual.

Regulação: CVM, BACEN e o peso da LGPD

Não existe hoje uma norma específica do Banco Central que multe uma fintech exclusivamente por "viés algorítmico no onboarding". A pressão regulatória chega por outras vias.

A Lei Geral de Proteção de Dados (LGPD) classifica dados biométricos como dados sensíveis (Artigo 5º, inciso II). O tratamento desses dados exige extremo rigor. O Artigo 20 da LGPD garante ao titular dos dados o direito de solicitar a revisão de decisões tomadas únicamente com base em tratamento automatizado.

Na prática, se o seu algoritmo bloqueia um usuário sem intervenção humana, e esse bloqueio tem um componente discriminatório comprovado, a empresa está exposta a processos civis agressivos. O Ministério Público e a Senacon (Secretaria Nacional do Consumidor) já abriram inquéritos contra varejistas e instituições financeiras por práticas discriminatórias disfarçadas de "segurança sistêmica".

O BACEN tem a inclusão financeira como pilar de sua agenda (Agenda BC#). Bloquear sistematicamente uma parcela demográfica específica vai contra as diretrizes primárias do órgão regulador. Instituições que não corrigirem suas taxas de rejeição assimétrica sofrerão sanções indiretas via auditorias de conduta.

Implicações práticas: o que fazer se você opera uma fintech

Nossa análise do mercado mostra que culpar o fornecedor de tecnologia não salva a reputação da sua marca no ReclameAqui. A responsabilidade pela esteira de aprovação é sua. Se você está desenhando ou otimizando um fluxo de KYC, adote as seguintes defesas:

  1. Meça o erro de forma segmentada. Não aceite uma taxa genérica de 98% de aprovação do seu fornecedor. Exija relatórios de FRR (False Rejection Rate) e FAR (False Acceptance Rate) divididos por gênero, faixa etária e tom de pele (escala Fitzpatrick).
  2. Crie rotas de escape amigáveis (Fallbacks). Se a biometria falhar três vezes, direcione o cliente imediatamente para um atendimento via WhatsApp com um humano ou ofereça autenticação via Open Finance.
  3. Implemente mesas de revisão manual (Mesa de Fraude). Casos duvidosos não devem ser recusados automaticamente. Uma equipe treinada visualizando o documento e a selfie salva milhares de contas legitimas por mês.
  4. Invista em biometria comportamental. A forma como o usuário digita a senha, o ângulo em que segura o celular (captado pelo giroscópio) e a velocidade de navegação no app são fatores de autenticação silenciosos e totalmente isentos de viés racial.

O futuro da identidade digital sem atrito

A biometria facial não vai desaparecer. Ela é rápida, barata em escala e infinitamente mais segura que uma senha alfanumérica esquecida num bloco de notas. O desafio para o período 2026-2030 é amadurecer a tecnologia para que ela sirva a toda a população, e não apenas a uma parcela privilegiada.

A verdadeira inovação financeira não é lançar mais um cartão de crédito sem anuidade. A inovação real é garantir que a porta de entrada do sistema funcione para todo mundo, independente da cor da pele ou da luz da sala.

Perguntas Frequentes

MF

Matheus Feijão

CEO & Fundador — ouro.capital

Especialista em fintech e criptoativos desde 2002. CEO da ouro.capital.