Deliberação da CGU: o caminho ético da IA na auditoria interna pública e privada

Deliberação da CGU: o caminho ético da IA na auditoria interna pública e privada

No dia 19 de setembro de 2025, a Controladoria-Geral da União (CGU) publicou a Portaria nº 3.313/2025, aprovando a Deliberação nº 03/2025 da Comissão de Coordenação de Controle Interno (CCCI). Esse novo normativo estabelece diretrizes claras para o uso de Inteligência Artificial (IA) nas atividades de auditoria interna das unidades governamentais.

Embora a notícia possa soar apenas como mais uma medida regulatória, a verdade é que estamos diante de um passo estratégico: trata-se de institucionalizar o uso ético, seguro e responsável da IA em auditoria, reforçando que a tecnologia deve apoiar e potencializar o trabalho humano, não substituí-lo.

E aqui está um ponto essencial: antes mesmo dessa deliberação ser publicada, a MAF já havia estruturado metodologias, ferramentas e boas práticas que incorporam IA à auditoria interna de forma responsável. Ou seja, não apenas acompanhamos a mudança regulatória — nós a antecipamos.

Neste artigo, você vai entender o que a norma determina, quais impactos traz para o setor público e privado, e como a MAF se posiciona na vanguarda dessa transformação.

As diretrizes centrais da deliberação da CGU

A deliberação traz três pilares principais que orientam o uso da IA em auditoria:

1. Uso estratégico e responsável

A IA deve ampliar a capacidade de análise do auditor, nunca substituí-lo. Isso significa que a tecnologia pode processar grandes volumes de dados, identificar padrões e apontar possíveis inconsistências, mas a decisão final permanece nas mãos do profissional humano.

2. Ética, zelo profissional e capacitação contínua

Os auditores precisam seguir princípios éticos e técnicos ao adotar IA, garantindo que as ferramentas sejam usadas de forma justa, transparente e com domínio adequado da tecnologia. A norma reforça a necessidade de capacitação permanente para que os profissionais possam compreender, interpretar e questionar os resultados fornecidos pelos algoritmos.

3. Compatibilidade com o julgamento humano

O texto é enfático: o julgamento profissional do auditor não pode ser substituído. A IA deve ser vista como ferramenta de apoio, agregando valor à qualidade da auditoria, mas sempre subordinada ao crivo do auditor.

Em resumo, a deliberação não proíbe o uso da IA, mas estabelece balizas éticas e técnicas para que ela seja utilizada de forma segura, mitigando riscos de enviesamento e falta de explicabilidade.

Impactos esperados para a auditoria interna

1. Elevação dos requisitos de governança e compliance

Órgãos e entidades que mantêm auditoria interna precisarão revisar políticas, incluir procedimentos de validação de modelos de IA, adotar mecanismos de monitoramento de viés e criar controles de transparência sobre o uso de dados e algoritmos.

Esse movimento não se limita ao setor público. Empresas privadas com áreas de auditoria interna, ou que prestam serviços para órgãos públicos, também precisarão se alinhar a essas práticas para garantir credibilidade e competitividade.

2. Redefinição de papéis e competências

O auditor do futuro — que já precisa dominar normas regulatórias e técnicas de controle — agora deve desenvolver também competências digitais. Isso inclui entender conceitos de machine learning, interpretabilidade de modelos e governança tecnológica.

Na prática, não basta mais “usar um software”. É preciso compreender como o algoritmo chega às conclusões, avaliar se há riscos de viés e saber comunicar esses resultados aos gestores.

3. Mitigação de riscos e fortalecimento da confiança

Ao institucionalizar boas práticas de IA, a norma ajuda a reduzir riscos de erros sistemáticos ou decisões enviesadas. Com isso, a auditoria interna ganha mais credibilidade perante gestores, conselhos e a própria sociedade, que espera transparência e responsabilidade no uso de novas tecnologias.

Lições internacionais: o Brasil em sintonia com o mundo

O movimento da CGU não acontece de forma isolada. Diversos países já têm avançado em diretrizes sobre IA responsável em auditoria e controle:

  • Estados Unidos: o Government Accountability Office (GAO) publicou frameworks de auditoria que destacam a necessidade de transparência e accountability no uso de algoritmos.
  • União Europeia: o AI Act, aprovado em 2024, estabelece regras rígidas para uso de IA em áreas de alto risco, incluindo auditoria e compliance.
  • OCDE: recomenda que países adotem princípios de governança de IA baseados em justiça, explicabilidade e supervisão humana.

Com a deliberação da CGU, o Brasil se alinha a esse movimento global, mostrando maturidade regulatória e colocando o tema no centro da agenda de governança pública.

Por que a MAF já está à frente

Na MAF, acreditamos que não basta acompanhar tendências. É preciso antecipá-las e liderar a implementação de boas práticas.

Antes mesmo da publicação da deliberação, já aplicávamos princípios de governança de IA em nossos projetos. Eis alguns diferenciais que nos posicionam como pioneiros:

  • Governança de IA integrada: validamos continuamente nossos modelos, controlamos vieses e monitoramos desempenho em tempo real.
  • Auditor humano no centro: nossas metodologias sempre mantêm o auditor como decisor final; a IA é suporte, não substituto.
  • Capacitação técnica constante: investimos no treinamento da equipe em IA interpretável e em metodologias de explicabilidade.
  • Transparência e documentação: cada uso de IA é documentado, com rastreabilidade e auditoria de resultados.
  • Validação externa: submetemos modelos a testes de robustez e validações independentes para garantir confiabilidade.

Na prática, isso significa que, enquanto muitos ainda estão se preparando para atender às novas diretrizes, a MAF já entrega soluções maduras, testadas e alinhadas às exigências futuras.

Boas práticas para implementação de IA em auditoria

À luz da deliberação da CGU e de nossa experiência, destacamos seis práticas fundamentais para quem deseja usar IA em auditoria de forma segura:

  1. Governança estruturada de IA: crie um comitê ou equipe dedicada a supervisionar uso, políticas e riscos.
  2. Avaliação de viés e explicabilidade: exija que modelos sejam auditáveis, com métricas de viés e interpretabilidade.
  3. Supervisão humana contínua: mantenha sempre envolvimento humano em todas as fases da auditoria.
  4. Capacitação e cultura organizacional: invista em treinamentos regulares para auditores e equipes técnicas.
  5. Transparência e documentação: registre hipóteses, versões de modelos, fontes de dados e métricas de performance.
  6. Monitoramento pós-implantação: acompanhe continuamente desempenho e riscos de viés emergente.

Adotar essas práticas significa transformar a IA em diferencial competitivo e de confiança, e não em fonte de risco.

Conclusão: da norma à liderança estratégica

A Deliberação nº 03/2025 da CGU representa um avanço regulatório e cultural no Brasil. Ao normatizar o uso responsável da IA, ela reforça que a tecnologia deve estar a serviço da auditoria, ampliando sua capacidade, mas sempre subordinada ao julgamento humano.

Para quem já investiu em governança de IA — como a MAF — o novo regulatório não é um desafio, mas uma confirmação de que estamos no caminho certo. Mais do que conformidade, entregamos auditoria robusta, eficiente e eticamente responsável.

Se sua organização deseja adotar IA na auditoria interna, com segurança e em linha com as normas mais recentes, a MAF está preparada para guiar esse processo. Afinal, acreditamos que a auditoria do futuro será feita com IA — mas sempre com responsabilidade, ética e confiança.

Posts Similares