Oficina prática para o uso crítico e aplicado da Inteligência Artificial no trabalho público comprometido com a promoção e a defesa de direitos. Parte do entendimento de que a IA já integra, de forma crescente, a rotina institucional — e de que o desafio não é apenas utilizá-la, mas compreendê-la criticamente.
Cada participante sai com duas ferramentas próprias, conectadas ao seu contexto de trabalho: um agente crítico de apoio à revisão institucional e um aplicativo de leitura crítica que identifica riscos de enviesamento, apagamento de contexto e baixa diversidade em propostas e fluxos.
Como usar IA no trabalho público sem automatizar vieses, opacidade e exclusões?
Diferente do software tradicional (determinístico), a IA é probabilística: ela não aplica regra — extrai padrões de dados históricos. Isso significa que a IA não possui visão de mundo ou consciência — ela é um modelo numérico que infere e imita, adaptando-se sem a devida compreensão do contexto. Quando esse modelo automatiza decisões que afetam direitos, os riscos são sistemáticos e precisam ser compreendidos pelo corpo técnico do Estado.
O sistema ingere um reflexo da sociedade. Se a base histórica contém discriminação (ex: contratações passadas com viés de gênero), a máquina aprende isso como "regra do sucesso" — e automatiza o padrão.
O desenho da arquitetura pelos desenvolvedores introduz limitações. Exemplo clássico: sistemas de reconhecimento facial treinados majoritariamente com rostos brancos — que erram sistematicamente com outros fenótipos.
O servidor supervaloriza o resultado matemático da máquina ("o computador disse que é fraude"), abdicando da revisão crítica e retroalimentando o sistema com dados enviesados.
Famílias e indivíduos reduzidos a pontuações de risco para benefícios, moradia, vigilância. A literatura chama isso de "Digital Poorhouse": ocultação da pobreza sob verniz de eficiência neutra.
Sistema que classificava erros de formulário como "falha de cooperação" do cidadão. Resultado documentado: 1 milhão de pessoas perderam acesso à saúde.
Algoritmo priorizando perfis de extrema vulnerabilidade, criando uma fila invisível e intransponível — sem recurso para pessoas em situação de rua que não se encaixavam.
Modelos preditivos marcando famílias pobres com alto risco de abuso infantil com base em proxies socioeconômicos — penalizando sistematicamente grupos por sua condição de pobreza.
A abordagem baseada em risco (consagrada no EU AI Act) distingue aplicações por severidade do impacto em direitos humanos. A oficina capacita servidoras e servidores a ler corretamente a categoria de risco em que cada sistema do seu órgão se encaixa — e a exigir as salvaguardas proporcionais.
Aplicações de baixo impacto em direitos. Obrigações básicas de transparência. Supervisão humana leve.
Exige Avaliação de Impacto Algorítmico (AIA) profunda e Human-in-the-Loop rigoroso. Monitoramento contínuo.
Mesmo nível anterior, com atenção específica a sistemas que afetam acesso a benefícios, habitação, assistência.
Banimento. Aplicações que violam direitos fundamentais e não podem ser adotadas pelo Estado.
Decisão 100% automatizada. Risco extremo de viés de automação. Adoção perigosa para serviços públicos essenciais.
Servidor público age como filtro. A IA recomenda, mas a decisão final — especialmente adversa ou de alto risco — exige avaliação humana fundamentada.
O humano dita regras ex-ante e tem poder de ignorar, reverter ou desativar o sistema a qualquer momento, compreendendo suas limitações.
A atividade não se limita a discussão abstrata sobre riscos e potencialidades. As participantes constroem, de forma guiada, ferramentas conectadas ao tema. Cada bloco combina compreensão crítica com prática aplicada imediata.
Diferença entre software tradicional (determinístico) e IA (probabilística). Os três pilares de funcionamento: dados, capacidade computacional, algoritmos. Por que a IA não possui visão de mundo — e por que isso importa para a decisão pública.
O ciclo de vida do viés algorítmico (histórico, modelagem, automação). Matriz de risco — categorização de sistemas. Casos documentados: Digital Poorhouse, triagens de benefícios, reconhecimento facial. Princípio Human-in-Command.
Construção guiada de assistente que revisa ideias, textos e projetos do próprio órgão aplicando filtros de vieses, opacidade e simplificações indevidas. Engenharia de prompts para accountability: anonimização, detecção de alucinações, auditoria de proxies discriminatórios.
Construção no-code de aplicativo funcional que identifica, em propostas, fluxos e conteúdos institucionais, riscos de enviesamento, apagamento de contexto e baixa diversidade. Entrega do certificado e integração com a plataforma de continuidade.
Desenvolvidas de forma guiada durante a oficina, as ferramentas ficam adaptadas ao contexto específico de atuação do órgão contratante — não são templates genéricos.
Configurado em ChatGPT, Gemini ou ferramenta equivalente. Revisa ideias, textos e projetos com filtros técnicos de vieses, opacidade e simplificações indevidas. Aplica as três regras de ouro da engenharia de prompts para accountability: anonimização (LGPD), detecção de alucinações, auditoria de proxies discriminatórios.
Construído sem código, de forma guiada durante a oficina. Identifica riscos de enviesamento, apagamento de contexto e baixa diversidade em propostas, fluxos ou conteúdos institucionais. Interface funcional — a participante sai com link público e uso imediato pela equipe.
O corpo técnico da oficina. Cada regra combina uma diretriz de segurança institucional (a "regra de ouro") com uma ação concreta e reproduzível (a "ação do revisor"). São estas três regras que transformam uma IA genérica num assistente apropriado ao trabalho público.
A oficina opera ancorada em frameworks reconhecidos internacionalmente. Servidoras e servidores saem com repertório para dialogar com contratos, auditorias e avaliações de impacto segundo padrões formalmente aceitos pelo setor público brasileiro e pela comunidade internacional.
Valores universais e direitos humanos. Escopo macropolítico e diretrizes estatais — base ética para qualquer política nacional de IA.
Abordagem baseada em risco proporcional. Conformidade legal rigorosa, com requisitos obrigatórios e matriz de categorização usada globalmente como referência.
Gestão ágil e contínua de risco: Govern · Map · Measure · Manage. Escopo operacional e empresarial. Mapeamento de maturidade voluntário.
Auditoria de processos (PDCA) e design ético. Engenharia e arquitetura de sistemas, com acreditação formal possível. Base técnica para homologação.
Do ensaio pontual numa semana temática até a instalação de capacidade permanente de governança algorítmica. Todos os formatos preservam a diretriz central: cada participante sai com suas duas ferramentas funcionando.
Uma turma, 80 minutos, até 20 participantes. Ideal para ativar a discussão em semanas temáticas, encontros institucionais, integração de equipes recém-formadas em áreas sensíveis a risco algorítmico.
Três módulos encadeados (riscos · engenharia de prompts · avaliação de impacto algorítmico). Aprofundamento dos três produtos da regra de ouro e desenvolvimento de AIA aplicada a um caso real do órgão.
Programa completo com trilha, diagnóstico de sistemas em uso no órgão, elaboração de protocolos internos de avaliação de impacto algorítmico e formação de quadros internos de governança. Capacidade permanente de auditoria.