O Governo Federal, por meio do Ministério da Gestão e da Inovação em Serviços Públicos (MGI), lançou a cartilha “IA Generativa no Serviço Público: Definições, Usos e Boas Práticas“. O documento busca orientar os servidores sobre o uso responsável da tecnologia. O objetivo é promover eficiência na administração pública sem comprometer princípios éticos e legais.
Além do MGI, fazem parte da iniciativa o Ministério da Ciência, Tecnologia e Inovação (MCTI), a Escola Nacional de Administração Pública (Enap), a Dataprev, o Núcleo de IA do Governo, a Casa Civil e a Financiadora de Estudos e Projetos (Finep).
Com o lançamento da cartilha, o objetivo do governo foi a adoção da Inteligência Artificial (IA) pelos servidores públicos para melhorar processos, aprimorar o processo de tomada de decisão e o atendimento à população. O material orienta o uso das ferramentas de IA, destacando boas práticas para potencializar seus benefícios e minimizar riscos. Além disso, será atualizado regularmente para acompanhar mudanças regulatórias e avanços tecnológicos.
“Sabemos que já existem muitos servidores públicos que estão usando IA nas suas atividades no dia a dia. E o que a gente quer com essa cartilha é levar a mensagem para os que não estão usando ainda, que usem”, pontua Renan Mendes Gaya Lopes dos Santos, diretor do Departamento de Infraestrutura de Dados Públicos. “Mas que usem tomando os devidos cuidados porque, como a IA é uma tecnologia probabilística, você não tem 100% de certeza do resultado dela”.
O que prevê a cartilha?
A cartilha apresenta conceitos fundamentais da Inteligência Artificial generativa (IAG), abordando seu potencial para modernizar processos, automatizar tarefas repetitivas e aprimorar o atendimento ao cidadão. No entanto, também alerta para riscos como viés algorítmico, disseminação de desinformação e problemas de segurança de dados.
O documento estabelece diretrizes para a implementação da IAG no setor público, com base em princípios como:
- Legalidade: conformidade com a Lei Geral de Proteção de Dados (LGPD) e outras normativas;
- Impessoalidade: garantia de que decisões assistidas por IA sejam imparciais e livres de preconceitos;
- Publicidade: transparência nos processos para permitir auditoria e contestação;
- Eficiência: uso de IA para otimizar processos sem substituir o papel humano na tomada de decisões estratégicas.
Riscos e medidas de prevenção
A cartilha alerta sobre desafios como alucinações da IA (quando modelos generativos criam respostas imprecisas ou fabricadas), direitos autorais, vazamento de dados sensíveis e viés algorítmico, que pode perpetuar desigualdades existentes nos dados de treinamento.
Para reduzir esses riscos, o guia recomenda a validação rigorosa das respostas geradas, a supervisão humana contínua e o uso de modelos de IA alinhados às necessidades institucionais e à legislação brasileira.
Classificação de riscos e regulação
A IA tem ganhado protagonismo na agenda do Governo Federal. Em janeiro de 2025, o ministro da Fazenda, Fernando Haddad, apresentou uma lista com 25 prioridades para o segundo biênio da gestão, documento que foi entregue ao Executivo Nacional no dia 20 daquele mês.
Entre os destaques estão o Marco Legal da Inteligência Artificial e a regulamentação econômica das big techs. No final de 2024, o Senado Federal aprovou o projeto de lei que estabelece diretrizes para o uso da IA no Brasil. Agora, a proposta segue para análise da Câmara dos Deputados.
O texto aprovado é um substitutivo do senador Eduardo Gomes (PL-TO), baseado no PL 2.338/2023, apresentado pelo presidente do Senado, Rodrigo Pacheco (PSD-MG). A versão final foi construída a partir de um projeto anterior, elaborado por uma comissão de juristas e incorpora trechos de outros projetos, como o PL 21/20, já aprovado pela Câmara, além de emendas de parlamentares.
Dentro da cartilha “IA Generativa no Serviço Público”, ainda com base no Projeto de Lei nº 2.338/2023, são categorizados os sistemas de Inteligência Artificial em diferentes níveis de risco.
O primeiro deles é o Risco Excessivo. Nesse caso, diz respeito às aplicações proibidas, como manipulação comportamental e pontuação social de cidadãos. Ou, que explorem vulnerabilidades de grupos vulneráveis (ex.: crianças, idosos, pessoas com deficiência) para influenciar ou causar danos. Dentro dessa categoria, está incluso também o uso que realize perfis preditivos criminais, avaliando características pessoais para prever crimes ou reincidência.
Já o Alto Risco aponta sobre o uso controlado em áreas sensíveis, como segurança pública, saúde e educação. São consideradas parte do Risco Moderado as aplicações que exigem transparência e supervisão, mas sem exigências tão rigorosas. Já as ferramentas como chatbots e assistentes virtuais, que devem cumprir requisitos básicos de transparência, são citadas como Baixo Risco.
Manual de boas práticas de uso da IA
A cartilha contém ainda recomendações de boas práticas. Entre elas, é indicado evitar compartilhamento de informações sensíveis com ferramentas de Inteligência Artificial generativa. É recomendado também que sejam verificados e revisados os conteúdos gerados por IA antes de sua publicação. Além disso, servidores públicos devem buscar orientação de serviços jurídicos e especialistas em privacidade e segurança de dados e informações para decidir sobre o uso adequado dessas ferramentas. É indicado também que seja evitado o uso das credenciais institucionais em plataformas públicas de IA.
O documento frisa ainda que a responsabilidade do servidor sobre o que é produzido, com ou sem Inteligência Artificial generativa, permanece inalterada. Ou seja, o uso inadequado não exime o funcionário de revisar e assumir a autoria plena do resultado. Por último, para proteger informações sensíveis e confidenciais – como dados protegidos por lei e propriedade intelectual – é indicado que servidores e prestadores de serviços utilizem apenas soluções de IA generativa aprovadas pelo órgão.
“Essa é uma jornada que não tem fim. Daqui para frente, nós temos cada vez mais que inserir essa questão da inteligência artificial dentro dos nossos processos de trabalho quando a gente foca na visão do cidadão”, finaliza o secretário de Governo Digital, Rogério Mascarenhas.





