A Regulação Brasileira de IA em Finanças: O Que a Proposta de Lei Exige
Ponto-chave
O PL de IA brasileiro classifica sistemas de score de crédito e biometria como 'alto risco', exigindo auditorias algorítmicas e explicabilidade clara. Fintechs precisarão adaptar seus modelos de machine learning para evitar multas de até R$ 50 milhões.
O mercado financeiro brasileiro operou um verdadeiro faroeste tecnológico na última década. Colocamos algoritmos complexos para rodar, aprovamos limites de crédito na velocidade da luz e deixamos as redes neurais decidirem quem compra uma geladeira em 12 vezes e quem fica de fora do sistema bancário. Observamos gigantes como Nubank, que hoje ultrapassa 90 milhões de clientes, e players como Mercado Pago e Stone construírem impérios baseados em modelos de machine learning que analisam milhares de variáveis em milissegundos.
A brincadeira acabou. O projeto de lei que regula a Inteligência Artificial no Brasil (PL 2338) amadureceu, ganhou dentes e colocou um alvo gigante nas costas do setor financeiro. Se você opera um e-commerce com crediário próprio, uma SCD (Sociedade de Crédito Direto) ou uma plataforma de investimentos, preste atenção aqui. A nova regra não pede licença. Ela exige a chave da sua caixa preta algorítmica.
Historicamente, o Banco Central do Brasil (BACEN) sempre foi um regulador pró-inovação. O Pix e o Open Finance provam isso. Mas a velocidade de adoção da IA generativa e de modelos preditivos profundos assustou Brasília. A inspiração óbvia veio da Europa, com o EU AI Act, mas o legislador brasileiro adicionou temperos locais que vão custar caro para as operações financeiras no país.
O Fim da Caixa Preta Algorítmica
O principal pilar da nova regulação é a explicabilidade. Até ontem, um cientista de dados de uma fintech podia jogar milhares de features em um modelo de Gradient Boosting ou em uma rede neural profunda, e o algoritmo cuspia um score de crédito altamente preciso. Ninguém sabia exatamente qual variável pesou mais para negar o crédito do João ou da Maria. A máquina apenas sabia que funcionava.
Agora em 2025, a lei exige que o consumidor tenha o direito de saber exatamente por que teve um serviço negado por uma decisão automatizada. Explicar o funcionamento de uma rede neural profunda para um auditor ou para um juiz leigo é como tentar explicar a receita exata de um bolo provando apenas uma fatia. É técnicamente inviável na maioria dos modelos complexos (black-box).
O resultado prático? Muitas fintechs terão que dar um passo atrás na complexidade de seus modelos. Veremos um retorno forçado a modelos mais simples e interpretáveis, como regressões logísticas avançadas ou árvores de decisão claras, onde o peso de cada variável é documentável. Perde-se um pouco de acurácia preditiva, mas ganha-se conformidade legal. A alternativa é investir pesadamente em técnicas de interpretabilidade de IA (como SHAP values), o que encarece o custo computacional da operação.
Classificação de Risco: Onde Sua Fintech Se Encaixa
A regulação brasileira divide os sistemas de IA em categorias de risco. Se a sua startup usa IA para redigir e-mails de marketing ou resumir reuniões internas, você está na zona de risco baixo ou mínimo. Respire aliviado. Mas se você mexe com dinheiro, a história muda drasticamente.
O texto da lei enquadra explicitamente como 'Alto Risco' os sistemas útilizados para avaliação de capacidade de endividamento, score de crédito e identificação biométrica. Basicamente, o core business de 90% das fintechs brasileiras.
Estar na categoria de alto risco significa entrar em um labirinto burocrático. A empresa passa a ser obrigada a realizar uma Avaliação de Impacto Algorítmico antes de colocar o modelo em produção. Não basta testar em sandbox. É preciso documentar os dados de treinamento, provar que a base não contém vieses discriminatórios e estabelecer protocolos de supervisão humana. A figura do 'humano no circuito' (human-in-the-loop) passa a ser uma exigência para decisões que impactam significativamente a vida financeira do usuário.
O Problema do Viés Oculto na Análise de Crédito
Vamos falar de dados reais. O mercado de crédito brasileiro movimenta mais de R$ 6 trilhões. Os algoritmos são alimentados com dados históricos. O problema é que a nossa história financeira é estruturalmente desigual. Se um algoritmo de concessão de crédito percebe que, estatisticamente, moradores de um determinado CEP têm maior taxa de inadimplência, ele vai negar crédito para aquela região.
A regulação baté de frente com isso. Se o CEP for uma proxy para discriminação racial ou de classe, a fintech será responsabilizada por viés algorítmico. O regulador não aceitará a desculpa de que 'a máquina aprendeu sozinha'. A responsabilidade pela curadoria dos dados de treinamento recai inteiramente sobre a instituição financeira. Limpar bases de dados para remover variáveis correlacionadas a gênero, raça ou orientação sexual vai se tornar a principal dor de cabeça dos times de engenharia de dados.
Custos de Conformidade e o Impacto no Caixa
Adequar-se à nova lei não será barato. Na nossa análise, os custos de compliance tecnológico vão disparar. Grandes players como Itaú, Bradesco e gigantes do setor de pagamentos como PagSeguro já possuem exércitos de advogados e engenheiros para lidar com isso. O baque real será nas fintechs de médio e pequeno porte.
A lei prevê a criação da figura do 'Encarregado de IA', um profissional semelhante ao DPO (Data Protection Officer) da LGPD, mas focado em governança algorítmica. Além disso, as empresas precisarão contratar auditorias algorítmicas independentes. Sim, empresas terceirizadas que farão testes de estrêsse nos seus modelos de machine learning para atestar que eles não são discriminatórios e são seguros contra ataques adversariais.
As penalidades para quem tentar burlar as regras são severas. Estamos falando de multas que podem chegar a R$ 50 milhões ou até 2% do faturamento bruto do grupo econômico. Pior que a multa financeira é a sanção de suspensão do sistema de IA. Imagine uma fintech de crédito sendo proibida de usar seu motor de score por 30 dias. É a morte súbita da operação.
A Lupa do BACEN, CVM e a Guerra de Jurisdição
Um bastidor que acompanhamos de perto é a disputa de poder sobre quem vai fiscalizar tudo isso. A Autoridade Nacional de Proteção de Dados (ANPD) puxa a responsabilidade para si, argumentando que IA depende de dados pessoais. O Banco Central, por sua vez, não quer abrir mão de regular o Sistema Financeiro Nacional.
Na prática, as fintechs terão que responder a múltiplos mestrês. O BACEN já possui a Resolução Conjunta nº 6 e a Resolução CMN 4.893, que tratam de segurança cibernética e contratação de serviços em nuvem. A nova regulação de IA se sobrepõe a essas regras. O regulador bancário vai exigir que os planos de contingência das instituições incluam cenários onde os modelos de IA falham catastroficamente (model drift) devido a choques macroeconômicos.
No mercado de capitais, a Comissão de Valores Mobiliários (CVM) também afia suas garras. Robôs de investimento (robo-advisors) e algoritmos de high-frequency trading (HFT) entram na mira. Se um algoritmo de negociação causar uma anomalia no mercado ou recomendar produtos inadequados ao perfil do investidor (suitability), a corretora não poderá culpar o software. A responsabilidade civil é objetiva e solidária.
O Impacto na Prevenção a Fraudes e no Pix
Aqui temos um paradoxo interessante. O BACEN exige que as instituições combatam fraudes no Pix de forma implacável, útilizando o Mecanismo Especial de Devolução (MED). Para bloquear transações suspeitas em tempo real, os bancos dependem de IA agressiva. A nova lei de IA exige transparência e minimização de falsos positivos.
Se o algoritmo bloqueia preventivamente a conta de um usuário legítimo por suspeita de fraude, a instituição precisa explicar o motivo rápidamente. O conflito entre a necessidade de bloquear fraudadores e a obrigação de não discriminar usuários legítimos vai gerar uma enxurrada de ações judiciais nos Juizados Especiais Cíveis. Os times de prevenção a fraudes terão que recalibrar seus limiares de risco (thresholds) quase diariamente.
Implicações Práticas: O Que Fazer Agora
Se você está no comando de uma operação financeira no Brasil, o relógio está correndo. Ignorar a regulação esperando que ela seja 'letra morta' é uma aposta suicida. O Ministério Público e as associações de defesa do consumidor já estão com as petições prontas.
Primeiro passo: crie um comitê multidisciplinar de governança de IA hoje. Não deixe isso apenas nas mãos do CTO. Você precisa de engenheiros de dados, advogados especialistas em direito digital e especialistas em produtos sentados na mesma mesa.
Segundo passo: faça um inventário completo de todos os modelos de machine learning rodando em produção. Classifique cada um deles segundo a matriz de risco do PL. Para os sistemas de alto risco (crédito, biometria facial, precificação de seguros), inicie imediatamente a documentação técnica (Avaliação de Impacto).
Terceiro passo: revise seus contratos com fornecedores (vendors). Se a sua fintech usa APIs de IA do Google, OpenAI ou AWS para atendimento ao cliente ou análise de risco, certifique-se de que os contratos garantem a explicabilidade e a auditoria exigidas pela lei brasileira. A responsabilidade final perante o BACEN será sua, não da Big Tech americana.
A regulação de IA no Brasil vai separar os amadores dos profissionais. Modelos de machine learning construídos de forma negligente, que funcionavam na base da 'tentativa e erro', vão custar as licenças de operação de muitas empresas. A tecnologia continua sendo o motor do mercado financeiro, mas o volante acaba de voltar para as mãos do Estado. Quem não souber dirigir sob as novas regras, vai sair da pista.
Perguntas Frequentes
Matheus Feijão
CEO & Fundador — ouro.capital
Especialista em fintech e criptoativos desde 2002. CEO da ouro.capital.