Regulamentação Inédita para o Uso da IA
A Receita Federal deu um passo significativo no debate global sobre a utilização responsável da Inteligência Artificial (IA) no setor público ao anunciar sua nova Política de Inteligência Artificial. Este marco regulatório estabelece princípios éticos, jurídicos e técnicos que orientarão o uso da tecnologia nas atividades tributárias e aduaneiras. O documento foi apresentado pelo Subsecretário de Gestão Corporativa, Juliano Neves, durante a reunião da Organização das Nações Unidas (ONU) realizada na última sexta-feira, 27 de março, no evento denominado “2026 ECOSOC Special Meeting on International Cooperation in Tax Matters”.
A nova política, que está em conformidade com os principais padrões internacionais, traz avanços significativos ao estabelecer salvaguardas inéditas. Esses princípios destacam a importância da centralidade do ser humano nas decisões, a soberania dos dados públicos e a responsabilidade individual dos agentes públicos.
Decisões Humanas Mantidas no Centro do Processo
Um dos fundamentos da nova política é a preservação da autonomia humana. Apesar de a Inteligência Artificial ser utilizada como uma ferramenta de apoio, a Receita Federal deixa claro que as decisões administrativas e os atos legais são de responsabilidade exclusiva dos servidores públicos. Isso significa que nenhum sistema de IA poderá substituir ou restringir o exercício das competências legais da administração tributária e aduaneira. Nesse contexto, o julgamento crítico e fundamentado dos agentes públicos é a última linha de defesa contra decisões automatizadas que possam ser injustas ou inadequadas.
Em resumo, a IA serve como apoio, mas a decisão final sempre permanece nas mãos do ser humano, garantindo que os contribuintes tenham acesso aos mecanismos de revisão e defesa administrativa.
Curadoria Específica para a Inteligência Artificial Generativa
Outro aspecto inovador da política brasileira é a criação da função de Curador de Inteligência Artificial Generativa. Enquanto as normas internacionais abordam modelos de uso geral de maneira ampla, a Receita Federal instituiu um agente específico encarregado de monitorar continuamente erros, vieses e alucinações, além de avaliar a qualidade, coerência e precisão das respostas dos sistemas de IA. Essa função assegura que as tecnologias operem dentro de parâmetros éticos e institucionais, garantindo uma supervisão operacional mais detalhada e adaptada à natureza probabilística da IA generativa.
Responsabilidade Pessoal e Limites Éticos Claros
A política deixa claro que o uso inadequado da Inteligência Artificial resulta em responsabilidade disciplinar individual. A violação das salvaguardas éticas e técnicas não será considerada uma falha sistêmica, mas sim uma conduta pessoal do agente público. A Receita Federal também proíbe explicitamente o uso de IA para práticas como manipulação subliminar, pontuação ou classificação social, e vigilância em massa. Essas restrições colocam a política brasileira entre as mais rigorosas e protetivas em relação aos direitos fundamentais.
Soberania Dada aos Dados Públicos
Em termos de proteção de dados, a política vai além das normas tradicionais de privacidade. A Receita Federal proíbe explicitamente que fornecedores ou terceiros utilizem dados tributários de cidadãos brasileiros para treinar ou aprimorar modelos comerciais de Inteligência Artificial. Sempre que possível, a instituição opta por ambientes tecnológicos que garantam governança técnica total, controlando o armazenamento, processamento, localização geográfica, infraestrutura e acessos. O uso de ambientes externos ou não soberanos só é permitido após uma análise técnica rigorosa, reforçando assim a proteção dos dados fiscais e aduaneiros.
Gestão de Riscos e Segurança em Múltiplos Níveis
A política também estabelece uma estrutura robusta de gestão de riscos para sistemas de IA, exigindo resiliência contra falhas técnicas, ciberataques e usos indevidos. Cada iniciativa passa por uma avaliação em três camadas: unidade de negócio responsável, área de tecnologia da informação e comitê de TI institucional, garantindo uma supervisão contínua dos riscos ao longo do ciclo de vida da solução.
Inovação com Responsabilidade e Modelo “Fast Track”
Para equilibrar segurança e inovação, a Receita Federal introduziu um mecanismo ágil para desenvolvimento de protótipos e soluções experimentais. Projetos de baixo risco podem ser desenvolvidos em ambientes controlados sem a necessidade de aprovação prévia do comitê superior, permitindo testes rápidos e aprendizado institucional, sem comprometer a governança. Esse modelo proporciona maior dinamismo em comparação com estruturas excessivamente rígidas observadas em outras jurisdições.
Capacitação Contínua e Cultura de IA
A Receita Federal reconhece que a tecnologia possui limitações e, por isso, instituiu um plano permanente de capacitação em Inteligência Artificial. O objetivo é assegurar que os servidores compreendam o funcionamento dos modelos, suas limitações, os riscos associados e o papel humano insubstituível na tomada de decisão.
Compromisso com Transparência e Auditabilidade
Por último, a política reafirma o compromisso com a transparência. Os sistemas devem ser capazes de explicar de maneira compreensível os critérios e processos que conduzem a determinados resultados, priorizando soluções que permitam auditoria técnica e institucional. A explicabilidade é tratada não apenas como um requisito técnico, mas como um elemento central que confere legitimidade ao uso da Inteligência Artificial no setor público.
Um Modelo de Referência Internacional
Com essa nova política, a Receita Federal estabelece uma abordagem que integre inovação tecnológica, proteção de direitos, segurança jurídica, responsabilidade individual e soberania digital, posicionando-se como modelo de referência no cenário internacional.

