ouro.capital
||
seguranca

Machine Learning e Fraude: O Preço Alto Quando o Algoritmo Aprende Errado

2026-03-07·10 min read·Matheus Feijão

Ponto-chave

Modelos de prevenção à fraude mal calibrados geram mais prejuízo com falsos positivos do que a própria fraude em si. O mercado brasileiro perde bilhões anualmente porque algoritmos sofrem de drift, viés e overfitting, exigindo recalibragem contínua, MLOps eficiente e supervisão humana.

Você lança uma campanha agressiva de vendas. O tráfego dobra. As conversões começam a cair exatamente na tela de pagamento. O painel da sua adquirente mostra um pico de transações negadas por "suspeita de fraude". O cliente legítimo liga irritado, vai para o concorrente e ainda xinga sua marca no Reclame Aqui e nas redes sociais.

O que aconteceu? Seu modelo de machine learning enlouqueceu.

Na Ouro Capital, acompanhamos os bastidores das maiores operações de pagamentos do Brasil. Observamos um padrão perturbador nos últimos anos: as empresas estão perdendo mais dinheiro bloqueando clientes bons do que sofrendo golpes reais. O varejo brasileiro e as fintechs adotaram a inteligência artificial com pressa, terceirizando decisões críticas para caixas-pretas algorítmicas.

A promessa era simples. Você alimenta um algoritmo com milhões de transações históricas, ele aprende os padrões dos fraudadores e bloqueia as compras ruins em milissegundos. Na prática, a teoria é outra. O mercado subestimou a velocidade com que o comportamento humano — e o crime organizado — muda.

Quando um modelo de machine learning para detecção de fraude aprende errado, ou quando ele fica obsoleto, o impacto financeiro é imediato e brutal. Vamos dissecar exatamente onde a máquina falha, por que isso acontece e como os principais players do mercado estão consertando esses motores de decisão.

O Custo Oculto do "Falso Positivo"

Antes de falarmos de código, precisamos falar de dinheiro. O falso positivo ocorre quando o modelo classifica uma transação legítima como fraude e a bloqueia.

Dados da indústria mostram que, para cada R$ 1 perdido efetivamente com fraudes de cartão de crédito, o comércio eletrônico perde até R$ 3 rejeitando clientes genuínos. Se você opera um e-commerce ou uma carteira digital, preste atenção aqui: o custo da fraude não é apenas o chargeback. O custo real inclui o Custo de Aquisição de Clientes (CAC) jogado no lixo e o Lifetime Value (LTV) destruído.

Imagine um usuário que acabou de abrir uma conta no Nubank ou no Mercado Pago. Ele tenta fazer sua primeira compra de alto valor — um iPhone de R$ 7.000 — em uma loja online útilizando o cartão virtual. O modelo da loja olha para o histórico zerado daquele dispositivo, cruza com o valor alto e bloqueia a transação. O cliente tenta de novo. Bloqueado de novo. O cartão emite um alerta preventivo.

O resultado? O cliente desiste da compra, culpa a loja e, muitas vezes, culpa o banco. A loja perdeu uma venda de R$ 7.000 para evitar um chargeback hipotético. Multiplique isso por milhares de transações diárias. Estamos falando de bilhões de reais evaporando do PIB digital brasileiro anualmente por puro excesso de zelo algorítmico.

O problema central reside na forma como calibramos a tolerância ao risco. Modelos de ML calculam um score de propensão à fraude (geralmente de 0 a 100). A linha de corte — o ponto exato onde a transação é negada — é uma decisão de negócio, não de tecnologia. Gestores de risco frequentemente apertam essa linha de corte por medo do COAF ou de multas das bandeiras (Visa/Mastercard), transformando o modelo em uma máquina de rejeição paranoica.

Concept Drift: Quando o Fraudador Muda a Regra do Jogo

Modelos de machine learning não têm intuição. Eles são puramente estatísticos. Eles aprendem mapeando o passado para prever o futuro. O problema é que, no mundo da fraude financeira, o passado fica irrelevante em poucas semanas.

Chamamos isso de Concept Drift (desvio de conceito). Isso acontece quando as propriedades estatísticas da variável que o modelo tenta prever mudam de forma imprevista.

Vamos olhar para o mercado brasileiro em 2025/2026. Há cinco anos, o grande vilão era o teste de cartão de crédito roubado (card testing) e a clonagem física. Os modelos foram treinados exaustivamente para identificar compras sequenciais de baixo valor seguidas de uma compra grande em eletrônicos. Eles ficaram excelentes nisso.

Então veio o Pix.

O fraudador brasileiro abandonou o foco exclusivo no cartão de crédito e migrou para a engenharia social, roubo de contas (Account Takeover) e redes de contas laranja. O golpe do motoboy evoluiu para a falsa central de atendimento. O fraudador convence a própria vítima a fazer um Pix de R$ 50.000.

Como o modelo tradicional reage a isso? Ele aprova a transação. Afinal, o dispositivo é o mesmo de sempre (o celular da vítima), a geolocalização é a mesma (a casa da vítima) e a biometria facial baté (a vítima logou no app). O modelo, treinado com dados de 2022, não entende o padrão de fraude de 2026. O conceito de "fraude" mudou, mas o cérebro da máquina não.

Se a sua equipe de dados não possui pipelines automatizados para retreinar os algoritmos com dados frescos semanalmente (ou até diariamente), seu sistema de prevenção está operando às cegas. Empresas de ponta como a Stone e o PagSeguro investem pesado em MLOps (Machine Learning Operations) exatamente para reduzir o tempo entre a descoberta de um novo golpe e a imunização do modelo.

Overfitting: O Modelo "Decoreba"

Outro erro clássico nas trincheiras de dados das fintechs é o overfitting (sobreajuste).

Para explicar de forma simples: imagine um aluno estudando para o vestibular. Em vez de aprender a lógica da matemática, ele decora as respostas de todas as provas dos últimos dez anos. Nos simulados (dados de treinamento), ele tira nota máxima. No dia da prova real (dados de produção), com questões inéditas, ele zera.

Na detecção de fraude, o overfitting ocorre quando o algoritmo aprende os ruídos e as anomalias específicas do banco de dados de treinamento em vez de capturar a tendência geral. O modelo se torna excessivamente complexo. Ele cria regras bizarras internamente, como: "Se a compra for feita numa terça-feira, às 14h33, usando um IP da operadora X no bairro Y, é fraude".

Isso aconteceu com uma grande varejista brasileira recentemente. Eles treinaram um modelo XGBoost com milhares de variáveis (features). O modelo atingiu 99% de precisão no laboratório. Quando foi para produção durante a Black Friday, começou a aprovar fraudes óbvias e bloquear clientes VIPs.

A causa raiz? O modelo havia decorado os padrões exatos dos fraudadores da base antiga. Quando os criminosos mudaram levemente a estratégia — por exemplo, usando emuladores de Android diferentes ou roteando a conexão por novas VPNs —, o modelo "decoreba" não soube generalizar. Ele procurava a assinatura exata do passado e, não a encontrando, deixava a fraude passar livremente.

Como Evitar o Overfitting

A solução técnica exige disciplina. Engenheiros de machine learning precisam aplicar técnicas de regularização, limitando a profundidade das árvores de decisão. Precisam usar validação cruzada (cross-validation) rigorosa. Mais importante ainda: menos é mais. Um modelo com 50 variáveis bem compreendidas e correlacionadas com a fraude geralmente performa melhor em produção do que um monstro com 2.000 variáveis obscuras.

O Perigo do Viés Algorítmico e a Exclusão Financeira

Chegamos a um terreno espinhoso que atrai a atenção direta do Banco Central (BACEN) e do Ministério Público: o viés (bias) algorítmico.

O modelo aprende com os dados históricos que os humanos fornecem. Se esses dados contêm preçonceitos ou refletem desigualdades socioeconômicas, a máquina vai amplificar isso com eficiência assustadora.

Na nossa análise do mercado de crédito e pagamentos, vimos modelos de prevenção à fraude penalizarem pesadamente usuários baseados no CEP de entrega. Se o histórico mostra alto índice de fraudes originadas em determinadas periferias de São Paulo ou Rio de Janeiro, o algoritmo passa a associar o CEP ao risco criminal.

O que acontece a seguir? Um trabalhador honesto, morador daquela região, tentando comprar uma geladeira parcelada, tem sua transação sumariamente negada. O modelo não está sendo racista ou classista de propósito — ele é matemática fria. Mas o impacto prático é a exclusão financeira discriminatória.

O mesmo ocorre com o tipo de dispositivo. Fraudadores costumam usar celulares Android baratos, comprados em lote, para criar contas falsas. O modelo percebe isso e cria uma regra implícita: "Android versão X = Risco Alto". De repente, toda a base da classe C e D, que útiliza exatamente esses aparelhos legítimos, começa a sofrer fricção severa ao usar o aplicativo do banco.

Resolver o viés exige uma abordagem de Fairness in Machine Learning. As equipes de dados precisam remover variáveis proxy que indicam indiretamente raça ou classe social. Precisam testar o modelo em fatias demográficas específicas para garantir que as taxas de falso positivo sejam equitativas. Ignorar isso hoje gera não apenas perda de receita, mas risco de imagem e litígio regulatório.

Como Calibrar a Máquina: Estratégias Práticas

Se o modelo sofre de drift, overfitting e viés, devemos abandonar a IA e voltar para as regras manuais? Absolutamente não. O volume transacional do PIX e do Open Finance torna a análise humana em larga escala impossível. A saída é construir sistemas resilientes.

1. Arquitetura Champion/Challenger

Nunca substitua o seu modelo principal da noite para o dia. A prática padrão da indústria financeira é rodar modelos em paralelo. O modelo atual (Champion) toma as decisões reais. O novo modelo retreinado (Challenger) roda em background, pontuando as mesmas transações, mas sem bloquear nada.

Você compara os resultados. Se o Challenger demonstrar que pegaria as fraudes novas que o Champion deixou passar, sem aumentar os falsos positivos, você faz a troca gradualmente. 10% do tráfego, depois 50%, depois 100%.

2. Análise de Grafos (Graph Networks)

Os modelos tradicionais olham para a transação de forma isolada. Fulano está pagando Ciclano. Os fraudadores modernos operam em rede (sindicatos de fraude). Para combater isso, bancos têm adotado bancos de dados de grafos (como Neo4j).

Em vez de olhar apenas para o valor da compra, o grafo analisa os relacionamentos: O celular de Fulano já acessou a conta de Ciclano? O Wi-Fi usado nesta compra já esteve associado a cinco contas que sofreram chargeback no ano passado? A inteligência de rede destrói a vantagem tática das "contas laranja".

3. Human-in-the-Loop

A IA não substitui o analista de fraude experiente; ela direciona o foco dele. Transações no meio da tabela de score (ex: score 60 a 75) formam a "zona cinzenta". O modelo não tem certeza. Em vez de bloquear automaticamente, essas transações devem cair em uma fila de revisão manual rápida.

A decisão do humano (aprovar ou rejeitar) retroalimenta o modelo. Esse loop contínuo de feedback humano ensina a máquina a lidar com as nuances que a estatística pura não enxerga.

O Futuro da Prevenção: Inteligência Compartilhada

A regulamentação está empurrando o mercado para a colaboração. A Resolução Conjunta nº 6 do Banco Central obriga as instituições reguladas a compartilhar dados sobre indícios de fraudes.

Isso muda o jogo. Até pouco tempo atrás, o fraudador aplicava um golpe no Banco A e, no dia seguinte, abria conta no Banco B com a ficha limpa. O modelo do Banco B não tinha como saber do histórico. Com o compartilhamento de dados via chaves criptografadas e infraestrutura do BACEN, a inteligência antifraude deixa de ser um silo.

Caminhamos para o Federated Learning (Aprendizado Federado). Nessa arquitetura, múltiplos bancos podem treinar um modelo global de IA de forma colaborativa, sem precisar compartilhar os dados pessoais sensíveis dos clientes entre si. O algoritmo viaja até o banco, aprende os padrões de fraude locais e retorna apenas com o "conhecimento matemático" atualizado.

O combaté à fraude no Brasil é uma corrida armamentista assimétrica. Os criminosos inovam rápido, sem burocracia e com alto orçamento. Para as fintechs e o varejo, confiar cegamente em um modelo de machine learning estático é a receita para o desastre financeiro. A tecnologia só funciona quando acompanhada de monitoramento obsessivo, recalibragem constante e uma compreensão profunda de que, por trás de cada transação negada, existe um cliente real que sua empresa lutou caro para conquistar.

Perguntas Frequentes

MF

Matheus Feijão

CEO & Fundador — ouro.capital

Especialista em fintech e criptoativos desde 2002. CEO da ouro.capital.