Deliberação da CGU: o caminho ético da IA na auditoria interna pública e privada
No dia 19 de setembro de 2025, a Controladoria-Geral da União (CGU) publicou a Portaria nº 3.313/2025, aprovando a Deliberação nº 03/2025 da Comissão de Coordenação de Controle Interno (CCCI). Esse novo normativo estabelece diretrizes claras para o uso de Inteligência Artificial (IA) nas atividades de auditoria interna das unidades governamentais.
Embora a notícia possa soar apenas como mais uma medida regulatória, a verdade é que estamos diante de um passo estratégico: trata-se de institucionalizar o uso ético, seguro e responsável da IA em auditoria, reforçando que a tecnologia deve apoiar e potencializar o trabalho humano, não substituí-lo.
E aqui está um ponto essencial: antes mesmo dessa deliberação ser publicada, a MAF já havia estruturado metodologias, ferramentas e boas práticas que incorporam IA à auditoria interna de forma responsável. Ou seja, não apenas acompanhamos a mudança regulatória — nós a antecipamos.
Neste artigo, você vai entender o que a norma determina, quais impactos traz para o setor público e privado, e como a MAF se posiciona na vanguarda dessa transformação.
As diretrizes centrais da deliberação da CGU
A deliberação traz três pilares principais que orientam o uso da IA em auditoria:
1. Uso estratégico e responsável
A IA deve ampliar a capacidade de análise do auditor, nunca substituí-lo. Isso significa que a tecnologia pode processar grandes volumes de dados, identificar padrões e apontar possíveis inconsistências, mas a decisão final permanece nas mãos do profissional humano.
2. Ética, zelo profissional e capacitação contínua
Os auditores precisam seguir princípios éticos e técnicos ao adotar IA, garantindo que as ferramentas sejam usadas de forma justa, transparente e com domínio adequado da tecnologia. A norma reforça a necessidade de capacitação permanente para que os profissionais possam compreender, interpretar e questionar os resultados fornecidos pelos algoritmos.
3. Compatibilidade com o julgamento humano
O texto é enfático: o julgamento profissional do auditor não pode ser substituído. A IA deve ser vista como ferramenta de apoio, agregando valor à qualidade da auditoria, mas sempre subordinada ao crivo do auditor.
Em resumo, a deliberação não proíbe o uso da IA, mas estabelece balizas éticas e técnicas para que ela seja utilizada de forma segura, mitigando riscos de enviesamento e falta de explicabilidade.
Impactos esperados para a auditoria interna
1. Elevação dos requisitos de governança e compliance
Órgãos e entidades que mantêm auditoria interna precisarão revisar políticas, incluir procedimentos de validação de modelos de IA, adotar mecanismos de monitoramento de viés e criar controles de transparência sobre o uso de dados e algoritmos.
Esse movimento não se limita ao setor público. Empresas privadas com áreas de auditoria interna, ou que prestam serviços para órgãos públicos, também precisarão se alinhar a essas práticas para garantir credibilidade e competitividade.
2. Redefinição de papéis e competências
O auditor do futuro — que já precisa dominar normas regulatórias e técnicas de controle — agora deve desenvolver também competências digitais. Isso inclui entender conceitos de machine learning, interpretabilidade de modelos e governança tecnológica.
Na prática, não basta mais “usar um software”. É preciso compreender como o algoritmo chega às conclusões, avaliar se há riscos de viés e saber comunicar esses resultados aos gestores.
3. Mitigação de riscos e fortalecimento da confiança
Ao institucionalizar boas práticas de IA, a norma ajuda a reduzir riscos de erros sistemáticos ou decisões enviesadas. Com isso, a auditoria interna ganha mais credibilidade perante gestores, conselhos e a própria sociedade, que espera transparência e responsabilidade no uso de novas tecnologias.
Lições internacionais: o Brasil em sintonia com o mundo
O movimento da CGU não acontece de forma isolada. Diversos países já têm avançado em diretrizes sobre IA responsável em auditoria e controle:
- Estados Unidos: o Government Accountability Office (GAO) publicou frameworks de auditoria que destacam a necessidade de transparência e accountability no uso de algoritmos.
- União Europeia: o AI Act, aprovado em 2024, estabelece regras rígidas para uso de IA em áreas de alto risco, incluindo auditoria e compliance.
- OCDE: recomenda que países adotem princípios de governança de IA baseados em justiça, explicabilidade e supervisão humana.
Com a deliberação da CGU, o Brasil se alinha a esse movimento global, mostrando maturidade regulatória e colocando o tema no centro da agenda de governança pública.
Por que a MAF já está à frente
Na MAF, acreditamos que não basta acompanhar tendências. É preciso antecipá-las e liderar a implementação de boas práticas.
Antes mesmo da publicação da deliberação, já aplicávamos princípios de governança de IA em nossos projetos. Eis alguns diferenciais que nos posicionam como pioneiros:
- Governança de IA integrada: validamos continuamente nossos modelos, controlamos vieses e monitoramos desempenho em tempo real.
- Auditor humano no centro: nossas metodologias sempre mantêm o auditor como decisor final; a IA é suporte, não substituto.
- Capacitação técnica constante: investimos no treinamento da equipe em IA interpretável e em metodologias de explicabilidade.
- Transparência e documentação: cada uso de IA é documentado, com rastreabilidade e auditoria de resultados.
- Validação externa: submetemos modelos a testes de robustez e validações independentes para garantir confiabilidade.
Na prática, isso significa que, enquanto muitos ainda estão se preparando para atender às novas diretrizes, a MAF já entrega soluções maduras, testadas e alinhadas às exigências futuras.
Boas práticas para implementação de IA em auditoria
À luz da deliberação da CGU e de nossa experiência, destacamos seis práticas fundamentais para quem deseja usar IA em auditoria de forma segura:
- Governança estruturada de IA: crie um comitê ou equipe dedicada a supervisionar uso, políticas e riscos.
- Avaliação de viés e explicabilidade: exija que modelos sejam auditáveis, com métricas de viés e interpretabilidade.
- Supervisão humana contínua: mantenha sempre envolvimento humano em todas as fases da auditoria.
- Capacitação e cultura organizacional: invista em treinamentos regulares para auditores e equipes técnicas.
- Transparência e documentação: registre hipóteses, versões de modelos, fontes de dados e métricas de performance.
- Monitoramento pós-implantação: acompanhe continuamente desempenho e riscos de viés emergente.
Adotar essas práticas significa transformar a IA em diferencial competitivo e de confiança, e não em fonte de risco.
Conclusão: da norma à liderança estratégica
A Deliberação nº 03/2025 da CGU representa um avanço regulatório e cultural no Brasil. Ao normatizar o uso responsável da IA, ela reforça que a tecnologia deve estar a serviço da auditoria, ampliando sua capacidade, mas sempre subordinada ao julgamento humano.
Para quem já investiu em governança de IA — como a MAF — o novo regulatório não é um desafio, mas uma confirmação de que estamos no caminho certo. Mais do que conformidade, entregamos auditoria robusta, eficiente e eticamente responsável.
Se sua organização deseja adotar IA na auditoria interna, com segurança e em linha com as normas mais recentes, a MAF está preparada para guiar esse processo. Afinal, acreditamos que a auditoria do futuro será feita com IA — mas sempre com responsabilidade, ética e confiança.