FABR Framework Checklist: para a adoção responsável da IA

Uma lista de questões que servem de roteiro para analistas avaliarem os 5 riscos de negócio na adoção de Inteligência Artificial definidos no FABR Framework.

A Inteligência Artificial está rapidamente se tornando parte essencial das operações das empresas, mas junto com o potencial de inovação vêm riscos que precisam ser compreendidos e monitorados. Como parte do movimento #BA4AI, o FABR Framework (Five AI Business Risks Framework) foi criado para ajudar analistas de negócios, líderes e profissionais de tecnologia a identificar, avaliar e mitigar riscos em iniciativas que envolvem IA.

Mais do que uma ferramenta teórica, o FABR busca ser um instrumento prático de governança — uma lente crítica para mapear requisitos e garantir que a adoção da tecnologia esteja alinhada aos valores humanos e aos objetivos do negócio.

Analista aplicando o FABR Framework Checklist - Imagem gerada pelo ChatGPT
Analista aplicando o FABR Framework Checklist – Imagem gerada pelo ChatGPT

Este é o terceiro e último artigo que compartilho sobre este guia.

No primeiro, FABR Framework: Um guia para Liderar a Adoção de IA, apresentei a origem de cada um dos 5 riscos de negócios associados à adoção de IA, a partir da compreensão da forma como a IA toma decisões em modelos probabilísticos vs orientados a regras.

O segundo artigo, FABR Framework aplicado: Estudos de Caso, mostra sua aplicação sobre 4 estudos de casos realistas em diferentes setores (Governo, Educação, Financeiro e Turismo) onde o analista precisa antecipar riscos para a adoção de IA com segurança.

Compartilho aqui, por fim, uma lista de perguntas que podem ser incorporadas à metodologia de qualquer organização que investe em projetos com uso de IA, para auxiliar na identificação de riscos e antecipar ações preventivas nas cinco grandes dimensões do framework.

🧮 Decision Errors

  • Cálculos matemáticos ou decisões lógicas estão sendo realizados por modelos matemáticos e processos determinísticos baseados em regras, em vez de serem inferidos por modelos estatísticos?
  • Nos processos com geração de resultado baseados em modelos estatísticos, os dados usados para o treinamento foram validados e são confiáveis?
  • Há auditorias periódicas sobre os resultados obtidos das decisões automáticas para verificar a consistência e a acurácia do modelo?
  • Existe uma rotina periódica definida para ajustar o modelo e melhorar seus resultados?
  • Decisões sensíveis passam por revisão humana?

⚖️ Bias & Discrimination

  • Os dados usados no treinamento da IA representam, de maneira adequada e proporcional à realidade, as diferentes classes de dados do contexto em que o modelo será aplicado?
  • Os dados de treinamento trazem algum viés histórico que pode reproduzir injustiças ou prejudicar certos grupos?
  • Métricas de justiça e equidade foram definidas para verificar os resultados do modelo em testes incluindo dados que representam situações sensíveis?
  • Há garantia de que dados gerados pela IA não são usados para novos treinamentos do modelo (o que geraria a tendência de um viés exponencial)?
  • Foram criadas restrições lógicas (guardrails) para evitar injustiças e comportamentos nocivos?
  • Situações que fogem do padrão são identificadas e encaminhadas para serem tratadas por um processo à parte com supervisão humana?

🔐 Privacy Violation

  • Há autorização para usar os dados que treinarão o modelo?
  • Os dados de treinamento foram anonimizados para evitar que o modelo de linguagem aprenda informações privadas?
  • Informações sensíveis mantidas ou processadas pela IA possuem políticas implementadas de segurança, criptografia e restrição de acesso apenas por pessoas autorizadas?
  • As leis de privacidade, consentimento e políticas de governança estão sendo respeitadas na coleta, armazenamento e uso dos dados?
  • Informações dos usuários estão sendo utilizadas para fins diferentes daqueles para os quais foram autorizadas?

🤖 Over-Reliance on AI

  • Há procedimentos de testes e validação estabelecidos para verificar a acurácia das respostas do sistema?
  • Nos casos em que a automação não pode dar 100% de certeza, há exigência de supervisão humana para confirmar ou corrigir a resposta sugerida pela IA?
  • As pessoas são treinadas e incentivadas a avaliar criticamente as respostas geradas?
  • As respostas informam claramente suas limitações e alertam para o risco de erros sempre que possível?
  • Em caso de falhas, há mecanismos para correção manual de dados e adequação do processo?

🧩 Explainability & Accountability

  • É possível auditar o processo e identificar os eventos ocorridos e os resultados obtidos?
  • É possível apresentar a justificativa de uma decisão ou do resultado de um processo de maneira clara e transparente, com critérios explícitos, adequados ao contexto e na linguagem do negócio (não técnica)?
  • Com os mesmos dados de entrada, o resultado do modelo é o mesmo (dentro do esperado)?
  • Está claramente definido quem será responsabilizado em caso de erros ou danos?
  • Foram avaliados modelos híbridos que combinam regras determinísticas e modelos estatísticos para obter o melhor resultado para o contexto analisado?
  • As regras e processos de decisão utilizados estão devidamente documentados?

🚀 Conclusão – De Perguntas a Boas Decisões com o FABR Framework

O FABR Framework não é apenas um modelo conceitual, mas uma ferramenta de reflexão e análise.
Fazer as perguntas certas é o primeiro passo para reduzir riscos e criar soluções de IA éticas, seguras e orientadas a resultados reais.

Profissionais de análise de negócios devem incorporar práticas como esta para liderar a transformação de suas organizações com a adoção de IA de forma transparente, justa e responsável.

💡 A tecnologia pode tomar decisões; cabe a nós garantir que sejam as decisões certas.

Outros artigos e referências