FABR Framework: Um guia para Liderar a Adoção de IA

Descubra como o FABR Framework (Five AI Business Risks) ajuda analistas de negócios a liderar projetos de IA com segurança, ética e foco em valor.

A inteligência artificial já está transformando profundamente a forma como organizações operam, tomam decisões e entregam valor. Nesse novo cenário, analistas de negócios não podem se limitar ao papel de simples usuários de IA que escrevem requisitos mais rapidamente — devem se tornar líderes estratégicos na definição de como a IA será utilizada para garantir resultados positivos para o negócio e toda a sociedade.

Foi com esse propósito que tenho promovido o movimento BA4AI (Business Analysis for Artificial Intelligence), explorado no artigo publicado no The Corner do IIBA com a parceria de Michael Augello e introdução de Delvin Fletcher. Esse movimento propõe uma mudança de foco: em vez de somente reagir à tecnologia (AI4BA), os analistas devem liderar sua adoção, conectando as capacidades da IA aos resultados de negócio (BA4AI).

Para apoiar esse papel de liderança, estou compartilhando aqui o FABR Framework (Five AI Business Risks Framework), uma ferramenta que organiza os cinco principais grupos de risco que precisam ser antecipados e gerenciados em qualquer iniciativa envolvendo IA.

FABR Framework – Five AI Business Risks

Este framework é um guia prático para estruturar a análise, orientar decisões e desenhar soluções que criem valor de forma responsável e sustentável.

🧠 Duas formas de pensar

Para entender esses riscos, é preciso começar entendendo como a IA “pensa” — e, curiosamente, essa lógica se assemelha muito à forma como nós, seres humanos, pensamos.

Daniel Kahneman, prêmio Nobel de Economia, descreveu em “Rápido e Devagar” dois modos complementares de pensamento:

  • Sistema 1 – rápido, automático, intuitivo (pattern-based reasoning), guiado por experiências e padrões.
  • Sistema 2 – lento, deliberativo, lógico (rule-based reasoning), guiado por regras explícitas e raciocínio analítico.

Nós alternamos naturalmente entre esses dois sistemas. Às vezes minha esposa olha para meu filho e diz: “Você não está bem.” Ela não faz nenhum exame clínico, simplesmente percebe sinais sutis — postura, tom de voz, aparência — e reconhece um padrão. Isso é intuição – Sistema 1. 
Se quero saber se meu filho está com febre, uso lógica: SE a temperatura for maior que 37,5 °C, ENTÃO ele está com febre – Sistema 2.

Duas formas de pensar.

Os sistemas de IA também se distinguem da mesma forma:

  • Modelos de aprendizado de máquina funcionam como o Sistema 1: identificam padrões complexos em grandes volumes de dados e tomam decisões sem conseguir explicá-las em regras claras.
  • Algoritmos determinísticos funcionam como o Sistema 2: seguem regras claras e previsíveis.

Compreender essa dualidade é fundamental para entender onde surgem os riscos de IA para negócios e como o analista pode antecipá-los. Cada um dos cinco riscos do FABR Framework está diretamente relacionado à forma como a IA “pensa” e toma decisões.

🔐 Risco 1: Privacy Violation – Quando a informação certa cai nas mãos erradas

Modelos de IA precisam de grandes volumes de dados para aprender e gerar valor. Mas nem todos os dados podem — ou devem — ser utilizados.
Imagine que seu histórico de gastos com cartão de crédito ou seu prontuário médico seja usado para treinar um modelo de IA, e esta IA acabe revelando informações sobre você que deveriam permanecer privadas. Isso é uma violação de privacidade.

É papel do analista garantir que os dados utilizados nos treinamentos respeitem leis e políticas de consentimento e que exista governança clara sobre coleta, armazenamento e uso. O risco não se restringe apenas ao vazamento, mas também ao uso indevido de dados legítimos em contextos inadequados. Por exemplo, meus dados coletados numa campanha de marketing de sabão em pó não podem ser utilizados para avaliar meu crédito imobiliário.

⚖️ Risco 2: Bias & Discrimination – Quando dados históricos não mais representam a realidade

A intuição humana nem sempre se aplica a novos contextos — e com a IA acontece o mesmo.
Pense em alguém que mora na Amazônia e afirma: “Vai chover.” Por quê? Porque no fim da tarde chove quase todos os dias. Mas se essa pessoa estiver no Colorado, a previsão baseada em experiência passada pode estar completamente errada.

Se a base de treinamento de uma IA não for representativa do contexto onde está sendo usada, o modelo “aprenderá” padrões enviesados e suas respostas só serão corretas em contextos semelhantes aos dos dados originais. Isso leva a decisões discriminatórias, injustas e fora de contexto — por exemplo, um algoritmo de recrutamento pode rejeitar candidatas mulheres porque os dados históricos da empresa refletem um passado em que a maioria dos contratados eram homens.

O analista deve garantir que os dados de treinamento sejam diversos e representativos, e mesmo em caso de algoritmos determinísticos, auditar modelos continuamente e considerar o impacto das decisões sobre diferentes grupos de stakeholders.

🎯 Risco 3: Decision Errors – Quando a máquina erra com confiança

Mesmo com dados de qualidade, modelos podem tomar decisões equivocadas — e muitas vezes com extrema segurança.
A IA pode negar crédito a um cliente solvente, classificar um comportamento inofensivo como suspeito ou recomendar uma ação incorreta. Isso ocorre porque padrões estatísticos não são verdades absolutas. É como a intuição, não dá para confiar cegamente.

Distinguir assertividade de correção é essencial: a IA pode ser altamente assertiva – ou seja, pode expressar algo de maneira segura, sem hesitações – mesmo quando está errada. Por isso, o analista precisa projetar mecanismos de validação, incluir revisões humanas em pontos críticos e monitorar continuamente o desempenho do modelo ao longo do tempo para promover ajustes e corrigir eventuais equívocos.

🤖 Risco 4: Over-Reliance on AI – Quando a confiança cega leva à complacência

A confiança excessiva em sistemas automatizados cria uma ilusão perigosa de infalibilidade.
Como a IA apresenta respostas com segurança e muito bem articuladas, os usuários tendem a aceitá-las sem questionar — mesmo quando estão erradas. Isso leva à passividade humana e, muitas vezes, a decisões sem supervisão. É como quando o corretor ortográfico sugere automaticamente uma palavra que parece certa, mas muda completamente o sentido da frase — se não avaliarmos a sugestão, acabamos enviando a mensagem errada.

O papel do analista é definir claramente quais decisões podem ser automatizadas e onde a intervenção humana é necessária. Processos críticos podem exigir validações humanas obrigatórias, revisões periódicas e combinações híbridas entre modelos estatísticos e algoritmos determinísticos.

📊 Risco 5: Explainability & Accountability – Quando não sabemos o “porquê”

Como mencionei antes, muitos modelos de IA funcionam de forma “intuitiva” — eles reconhecem padrões e chegam a conclusões sem necessariamente seguir um raciocínio lógico explícito. Assim como um ser humano pode “sentir” que algo está errado sem saber exatamente o motivo, a IA pode tomar decisões que parecem certas, mas são difíceis de explicar.
Imagine que um modelo de IA tome uma decisão errada, mas não consiga explicar por que chegou a essa conclusão. Quem se responsabiliza pelas consequências? A empresa que desenvolveu a IA? O usuário que a executou? Quem forneceu os dados do treinamento?

A falta de explicabilidade mina a confiança e cria riscos legais e éticos. Cabe ao analista exigir modelos explicáveis, registrar critérios de decisão e criar relatórios que permitam auditorias. Em muitos casos, um modelo híbrido que combina a capacidade intuitiva da IA com regras lógicas explícitas e supervisão humana é a forma mais segura de garantir justiça e transparência.

🚀 BA4AI – A liderança dos analistas na era da IA

O FABR Framework (Five AI Business Risks Framework) foi criado para apoiar analistas de negócios a liderarem com segurança e estratégia a adoção de inteligência artificial nas organizações.
Ao entender como a IA pensa, antecipar riscos e estruturar soluções que combinem lógica e intuição de maneira consciente, os analistas podem garantir que as tecnologias realmente entreguem valor aos stakeholders — e não apenas resultados automáticos.

💡 Participe do movimento BA4AI: entenda o funcionamento da IA, antecipe-se aos riscos e desenhe soluções que sejam explicáveis, éticas, justas e eficazes. Essa é a contribuição que transforma analistas em protagonistas na era da inteligência artificial.

📚 Referências Bibliográficas