A Inteligência Artificial está rapidamente se tornando parte essencial das operações das empresas, mas junto com o potencial de inovação vêm riscos que precisam ser compreendidos e monitorados. Como parte do movimento #BA4AI, o FABR Framework (Five AI Business Risks Framework) foi criado para ajudar analistas de negócios, líderes e profissionais de tecnologia a identificar, avaliar e mitigar riscos em iniciativas que envolvem IA.
Mais do que uma ferramenta teórica, o FABR busca ser um instrumento prático de governança — uma lente crítica para mapear requisitos e garantir que a adoção da tecnologia esteja alinhada aos valores humanos e aos objetivos do negócio.

Este é o terceiro e último artigo que compartilho sobre este guia.
No primeiro, FABR Framework: Um guia para Liderar a Adoção de IA, apresentei a origem de cada um dos 5 riscos de negócios associados à adoção de IA, a partir da compreensão da forma como a IA toma decisões em modelos probabilísticos vs orientados a regras.
O segundo artigo, FABR Framework aplicado: Estudos de Caso, mostra sua aplicação sobre 4 estudos de casos realistas em diferentes setores (Governo, Educação, Financeiro e Turismo) onde o analista precisa antecipar riscos para a adoção de IA com segurança.
Compartilho aqui, por fim, uma lista de perguntas que podem ser incorporadas à metodologia de qualquer organização que investe em projetos com uso de IA, para auxiliar na identificação de riscos e antecipar ações preventivas nas cinco grandes dimensões do framework.
🧮 Decision Errors
- Cálculos matemáticos ou decisões lógicas estão sendo realizados por modelos matemáticos e processos determinísticos baseados em regras, em vez de serem inferidos por modelos estatísticos?
- Nos processos com geração de resultado baseados em modelos estatísticos, os dados usados para o treinamento foram validados e são confiáveis?
- Há auditorias periódicas sobre os resultados obtidos das decisões automáticas para verificar a consistência e a acurácia do modelo?
- Existe uma rotina periódica definida para ajustar o modelo e melhorar seus resultados?
- Decisões sensíveis passam por revisão humana?
⚖️ Bias & Discrimination
- Os dados usados no treinamento da IA representam, de maneira adequada e proporcional à realidade, as diferentes classes de dados do contexto em que o modelo será aplicado?
- Os dados de treinamento trazem algum viés histórico que pode reproduzir injustiças ou prejudicar certos grupos?
- Métricas de justiça e equidade foram definidas para verificar os resultados do modelo em testes incluindo dados que representam situações sensíveis?
- Há garantia de que dados gerados pela IA não são usados para novos treinamentos do modelo (o que geraria a tendência de um viés exponencial)?
- Foram criadas restrições lógicas (guardrails) para evitar injustiças e comportamentos nocivos?
- Situações que fogem do padrão são identificadas e encaminhadas para serem tratadas por um processo à parte com supervisão humana?
🔐 Privacy Violation
- Há autorização para usar os dados que treinarão o modelo?
- Os dados de treinamento foram anonimizados para evitar que o modelo de linguagem aprenda informações privadas?
- Informações sensíveis mantidas ou processadas pela IA possuem políticas implementadas de segurança, criptografia e restrição de acesso apenas por pessoas autorizadas?
- As leis de privacidade, consentimento e políticas de governança estão sendo respeitadas na coleta, armazenamento e uso dos dados?
- Informações dos usuários estão sendo utilizadas para fins diferentes daqueles para os quais foram autorizadas?
🤖 Over-Reliance on AI
- Há procedimentos de testes e validação estabelecidos para verificar a acurácia das respostas do sistema?
- Nos casos em que a automação não pode dar 100% de certeza, há exigência de supervisão humana para confirmar ou corrigir a resposta sugerida pela IA?
- As pessoas são treinadas e incentivadas a avaliar criticamente as respostas geradas?
- As respostas informam claramente suas limitações e alertam para o risco de erros sempre que possível?
- Em caso de falhas, há mecanismos para correção manual de dados e adequação do processo?
🧩 Explainability & Accountability
- É possível auditar o processo e identificar os eventos ocorridos e os resultados obtidos?
- É possível apresentar a justificativa de uma decisão ou do resultado de um processo de maneira clara e transparente, com critérios explícitos, adequados ao contexto e na linguagem do negócio (não técnica)?
- Com os mesmos dados de entrada, o resultado do modelo é o mesmo (dentro do esperado)?
- Está claramente definido quem será responsabilizado em caso de erros ou danos?
- Foram avaliados modelos híbridos que combinam regras determinísticas e modelos estatísticos para obter o melhor resultado para o contexto analisado?
- As regras e processos de decisão utilizados estão devidamente documentados?
🚀 Conclusão – De Perguntas a Boas Decisões com o FABR Framework
O FABR Framework não é apenas um modelo conceitual, mas uma ferramenta de reflexão e análise.
Fazer as perguntas certas é o primeiro passo para reduzir riscos e criar soluções de IA éticas, seguras e orientadas a resultados reais.
Profissionais de análise de negócios devem incorporar práticas como esta para liderar a transformação de suas organizações com a adoção de IA de forma transparente, justa e responsável.
💡 A tecnologia pode tomar decisões; cabe a nós garantir que sejam as decisões certas.
Outros artigos e referências
- IIBA – International Institute of Business Analysis. (2024). BA4AI: Business Analysis for Artificial Intelligence. The Corner – Special Article.
- FABR Framework: Um guia para Liderar a Adoção de IA
- FABR Framework aplicado: Estudos de Caso
- Todos os artigos relacionados à Inteligência Artificial deste site.

