IA que move
métricas,
não slides.
AI that moves
metrics,
not slides.
Sistemas de IA que rodam em produção, processam volume real e geram impacto financeiro mensurável — em pagamentos, crédito e operações financeiras. AI systems that run in production, process real volume, and generate measurable financial impact — in payments, credit, and financial operations.
O problema
com IA hoje
The problem
with AI today
A maioria das iniciativas de IA dentro de empresas vive numa de duas armadilhas: hype sem resultado ou resultado sem escala. Most AI initiatives inside companies fall into one of two traps: hype without results or results without scale.
O modelo funciona no notebook. Em produção, quebra. The model works in the notebook. In production, it breaks.
Um modelo que funciona no notebook ainda precisa sobreviver a dados reais, latência real e volume real. IA que importa vive em pipelines auditáveis, com fallbacks definidos, monitorada e integrada a processos de negócio que dependem dela. A model that works in the notebook still needs to survive real data, real latency, and real volume. AI that matters lives in auditable pipelines, with defined fallbacks, monitored and integrated into business processes that depend on it.
Acurácia não é métrica de negócio. Accuracy isn't a business metric.
Um modelo com 94% de acurácia pode ser um fracasso comercial se os 6% restantes forem exatamente os casos que custam mais. IA aplicada exige entender profundamente o problema de negócio antes de escolher o modelo — e medir o resultado certo depois. A model with 94% accuracy can be a commercial failure if the remaining 6% are exactly the cases that cost the most. Applied AI requires deeply understanding the business problem before choosing a model — and measuring the right outcome after.
Casos
reais
Real
cases
IA construída e colocada em produção ao longo de 8 anos em Meta e Stripe — impactando receita, automação financeira e otimização de pagamentos. AI built and deployed over 8 years at Meta and Stripe — impacting revenue, financial automation, and payments optimization.
Credit scoring
com IA
Credit scoring
with AI
Construí o modelo de credit score de clientes usado na automação de crédito da Meta — cobrindo 60% da receita total de ads. O modelo avaliava risco em tempo real e alimentava decisões de crédito sem intervenção manual. I built Meta's customer credit score model used in credit automation — covering 60% of total ads revenue. The model evaluated risk in real time and fed credit decisions without manual intervention.
ML · Python · Automação
OCR e NLP em
operações
OCR and NLP in
operations
IA para OCR de cheques de clientes e detecção de spam em emails do time de Collections. Dois problemas de naturezas diferentes, mesma abordagem: substituir trabalho manual repetitivo por inferência escalável. AI for OCR of customer cheques and spam detection in Collections team emails. Two problems of different natures, same approach: replacing repetitive manual work with scalable inference.
OCR · NLP · Classificação
Reconciliação
de pagamentos
Payment
reconciliation
Pipeline Spark/Scala para reconciliar pagamentos via wire com faturas internas — atingindo 65% de automação. O sistema processava extratos bancários e identificava correspondências sem intervenção manual. Spark/Scala pipeline to reconcile wire payments with internal invoices — reaching 65% automation. The system processed bank statements and identified matches without manual intervention.
Spark · Scala · Big Data
Otimização de
autorização
Authorization
optimization
Authorization Boost, Adaptive Acceptance e Minerva — IA da Stripe para otimizar acceptance rates. Authorization Boost aumenta aprovações em 3,8% em média e reduz custo de processamento em até 2,8% para clientes elegíveis. Authorization Boost, Adaptive Acceptance, and Minerva — Stripe's AI for optimizing acceptance rates. Authorization Boost increases approvals by 3.8% on average and reduces processing costs by up to 2.8% for eligible customers.
Pagamentos · ML · No-code
Configurando
MCP
Configuring
MCP
Model Context Protocol é o padrão aberto da Anthropic que conecta modelos de IA a ferramentas externas — bancos de dados, APIs, sistemas de arquivos — de forma controlada e auditável. Model Context Protocol is Anthropic's open standard that connects AI models to external tools — databases, APIs, file systems — in a controlled and auditable way.
O que é MCP What is MCP
MCP define como um modelo de linguagem pode invocar ferramentas externas — ler arquivos, consultar bancos de dados, chamar APIs — de forma padronizada. O modelo não acessa esses recursos diretamente: ele solicita ao servidor MCP, que executa a ação localmente e retorna o resultado. MCP defines how a language model can invoke external tools — reading files, querying databases, calling APIs — in a standardized way. The model doesn't access these resources directly: it requests from the MCP server, which executes the action locally and returns the result.
Configuração básica Basic configuration
Servidores MCP são configurados em claude_desktop_config.json. Cada servidor é um processo local que expõe ferramentas específicas ao modelo.
MCP servers are configured in claude_desktop_config.json. Each server is a local process that exposes specific tools to the model.
Escopo mínimo Minimum scope
Configure cada servidor MCP com o menor escopo possível. Para filesystem, aponte para um diretório específico — não para o home inteiro. Para bancos de dados, use um usuário com permissões restritas ao que o modelo precisa acessar. Configure each MCP server with the smallest possible scope. For filesystem, point to a specific directory — not the entire home. For databases, use a user with permissions restricted to what the model needs to access.
Variáveis de ambiente para segredos Environment variables for secrets
Nunca coloque credenciais diretamente no arquivo de config — use variáveis de ambiente no campo env. Assim as credenciais ficam fora do contexto do modelo e fora do controle de versão.
Never put credentials directly in the config file — use environment variables in the env field. This keeps credentials out of the model's context and out of version control.
MCP e
segurança
de dados
MCP and
data
security
A pergunta mais comum: "meus dados vão vazar?" A resposta curta é não — se configurado corretamente. Aqui está o modelo mental correto. The most common question: "will my data leak?" The short answer is no — if configured correctly. Here's the right mental model.
Servidores MCP rodam localmente MCP servers run locally
Servidores MCP são processos locais na sua máquina — não serviços externos. O dado sai do servidor MCP e vai para o contexto do modelo (processado pela API da Anthropic), mas não é roteado para terceiros. Você controla quais dados entram no contexto. MCP servers are local processes on your machine — not external services. Data leaves the MCP server and goes into the model's context (processed by Anthropic's API), but is not routed to third parties. You control which data enters the context.
Segredos nunca entram no contexto Secrets never enter the context
API keys, passwords e tokens configurados via variáveis de ambiente são usados pelo servidor MCP para autenticar com serviços externos — mas nunca aparecem no contexto do modelo. O modelo vê o resultado da chamada, não a credencial usada para fazê-la. API keys, passwords, and tokens configured via environment variables are used by the MCP server to authenticate with external services — but never appear in the model's context. The model sees the result of the call, not the credential used to make it.
Você decide o que o modelo pode ver You decide what the model can see
O modelo só acessa o que você expõe explicitamente: diretórios específicos, tabelas específicas, endpoints específicos. Privilégio mínimo não é apenas uma boa prática de segurança — é a arquitetura correta para manter o contexto do modelo focado e os resultados precisos. The model only accesses what you explicitly expose: specific directories, specific tables, specific endpoints. Least privilege isn't just a security best practice — it's the correct architecture for keeping the model's context focused and results accurate.
Como penso
sobre IA
How I think
about AI
Princípios que emergiram de anos construindo sistemas de IA que precisam funcionar de verdade — não apenas no paper de avaliação. Principles that emerged from years building AI systems that need to actually work — not just on the eval paper.
Entenda o problema de negócio antes de escolher o modelo Understand the business problem before choosing the model
A escolha de algoritmo é a última decisão, não a primeira. Primeiro: qual métrica de negócio estamos movendo? Qual é o custo de falso positivo vs falso negativo? Qual é o volume real? Com essas respostas, a escolha técnica fica óbvia. Algorithm choice is the last decision, not the first. First: which business metric are we moving? What's the cost of false positive vs false negative? What's the real volume? With those answers, the technical choice becomes obvious.
Fallback não é opcional, é arquitetura Fallback isn't optional, it's architecture
Todo sistema de IA em produção vai falhar em algum momento — latência alta, modelo fora do ar, dado inesperado. A diferença entre um sistema robusto e um frágil é saber o que acontece quando o modelo não responde. O fallback precisa ser projetado junto com o caminho feliz. Every production AI system will fail at some point — high latency, model unavailable, unexpected data. The difference between a robust and fragile system is knowing what happens when the model doesn't respond. The fallback needs to be designed alongside the happy path.
Monitoramento de drift é tão importante quanto acurácia inicial Drift monitoring is as important as initial accuracy
Um modelo calibrado hoje pode ser um modelo desatualizado em seis meses. Dados mudam, comportamento de clientes muda, padrões de fraude mudam. Sistemas de IA em produção precisam de monitoramento contínuo do desempenho real — não apenas métricas do dia do deploy. A well-calibrated model today can be an outdated model in six months. Data changes, customer behavior changes, fraud patterns change. Production AI systems need continuous monitoring of real performance — not just metrics from deployment day.
LLMs são ferramentas, não substitutos de engenharia LLMs are tools, not engineering substitutes
LLMs são extraordinariamente bons em raciocínio de linguagem natural, síntese e geração. São péssimos em contar, seguir regras rígidas e ser determinísticos. Usá-los bem significa entender onde eles são superiores e onde um simples regex ou uma query SQL resolve melhor. LLMs are extraordinarily good at natural language reasoning, synthesis, and generation. They're terrible at counting, following rigid rules, and being deterministic. Using them well means understanding where they're superior and where a simple regex or SQL query solves it better.