Produto 03 · Recorte crítico · Oficina prática

IA, Direitos
Humanos e
atuação pública.

Oficina prática para o uso crítico e aplicado da Inteligência Artificial no trabalho público comprometido com a promoção e a defesa de direitos. Parte do entendimento de que a IA já integra, de forma crescente, a rotina institucional — e de que o desafio não é apenas utilizá-la, mas compreendê-la criticamente.

Cada participante sai com duas ferramentas próprias, conectadas ao seu contexto de trabalho: um agente crítico de apoio à revisão institucional e um aplicativo de leitura crítica que identifica riscos de enviesamento, apagamento de contexto e baixa diversidade em propostas e fluxos.

→ Ficha rápida
Formato
Oficina prática · 80 minutos
Público
Órgãos com missão constitucional de promoção e defesa de direitos
Método
Experimentação e construção aplicada
Entregáveis
02 ferramentas construídas pela participante
Abordagem
Uso responsável, transparente e contextual
Alinhamento
LGPD (Art. 20) · NIST AI RMF · EU AI Act
Eixo uso crítico de IA no serviço público Princípio Human-in-Command Stack ChatGPT/Gemini + no-code Adaptação ajustada ao órgão contratante
Pergunta norteadora

Como usar IA no trabalho público sem automatizar vieses, opacidade e exclusões?

I.
Fundamento · por que o tema importa

A IA não é uma calculadora.

Diferente do software tradicional (determinístico), a IA é probabilística: ela não aplica regra — extrai padrões de dados históricos. Isso significa que a IA não possui visão de mundo ou consciência — ela é um modelo numérico que infere e imita, adaptando-se sem a devida compreensão do contexto. Quando esse modelo automatiza decisões que afetam direitos, os riscos são sistemáticos e precisam ser compreendidos pelo corpo técnico do Estado.

i.

Viés histórico

O sistema ingere um reflexo da sociedade. Se a base histórica contém discriminação (ex: contratações passadas com viés de gênero), a máquina aprende isso como "regra do sucesso" — e automatiza o padrão.

Fase 01 · dados de treinamento
ii.

Viés de modelagem

O desenho da arquitetura pelos desenvolvedores introduz limitações. Exemplo clássico: sistemas de reconhecimento facial treinados majoritariamente com rostos brancos — que erram sistematicamente com outros fenótipos.

Fase 02 · design e código
iii.

Viés de automação

O servidor supervaloriza o resultado matemático da máquina ("o computador disse que é fraude"), abdicando da revisão crítica e retroalimentando o sistema com dados enviesados.

Fase 03 · interação e interpretação
iv.

Burocracia invisível

Famílias e indivíduos reduzidos a pontuações de risco para benefícios, moradia, vigilância. A literatura chama isso de "Digital Poorhouse": ocultação da pobreza sob verniz de eficiência neutra.

Virginia Eubanks · Automating Inequality

Casos documentados internacionalmente.

Caso · Indiana (EUA)
Classificação automática como "falha de cooperação"

Sistema que classificava erros de formulário como "falha de cooperação" do cidadão. Resultado documentado: 1 milhão de pessoas perderam acesso à saúde.

→ acesso a benefícios sociais
Caso · Los Angeles (EUA)
Fila algorítmica invisível para moradia

Algoritmo priorizando perfis de extrema vulnerabilidade, criando uma fila invisível e intransponível — sem recurso para pessoas em situação de rua que não se encaixavam.

→ acesso a moradia
Caso · Pittsburgh (EUA)
Marcação preditiva de "risco" a famílias pobres

Modelos preditivos marcando famílias pobres com alto risco de abuso infantil com base em proxies socioeconômicos — penalizando sistematicamente grupos por sua condição de pobreza.

→ proteção à criança e adolescente
II.
Diagnóstico · a matriz de risco

Nem toda IA no setor público é igual.

A abordagem baseada em risco (consagrada no EU AI Act) distingue aplicações por severidade do impacto em direitos humanos. A oficina capacita servidoras e servidores a ler corretamente a categoria de risco em que cada sistema do seu órgão se encaixa — e a exigir as salvaguardas proporcionais.

i.
Risco limitado

Aplicações de baixo impacto em direitos. Obrigações básicas de transparência. Supervisão humana leve.

ex.: chatbot do Gov.br · análise interna de editais (ALICE/TCU)
ii.
Risco alto

Exige Avaliação de Impacto Algorítmico (AIA) profunda e Human-in-the-Loop rigoroso. Monitoramento contínuo.

ex.: triagem de acesso à saúde · policiamento preditivo · triagem de currículos
iii.
Risco alto — direitos sociais

Mesmo nível anterior, com atenção específica a sistemas que afetam acesso a benefícios, habitação, assistência.

ex.: classificação para benefício · elegibilidade automatizada
iv.
Risco inaceitável

Banimento. Aplicações que violam direitos fundamentais e não podem ser adotadas pelo Estado.

ex.: social scoring · vigilância biométrica massiva sem mandado · reconhecimento de emoções no trabalho

O princípio Human-in-Command · três zonas de operação.

→ Zona vermelha
Human-out-of-the-Loop

Decisão 100% automatizada. Risco extremo de viés de automação. Adoção perigosa para serviços públicos essenciais.

→ Zona amarela
Human-in-the-Loop

Servidor público age como filtro. A IA recomenda, mas a decisão final — especialmente adversa ou de alto risco — exige avaliação humana fundamentada.

→ Zona verde
Human-in-Command

O humano dita regras ex-ante e tem poder de ignorar, reverter ou desativar o sistema a qualquer momento, compreendendo suas limitações.

III.
A oficina · 80 minutos, quatro blocos

Do conceito à construção.

A atividade não se limita a discussão abstrata sobre riscos e potencialidades. As participantes constroem, de forma guiada, ferramentas conectadas ao tema. Cada bloco combina compreensão crítica com prática aplicada imediata.

→ Bloco 01 · 15 min

Alfabetização crítica em IA

Diferença entre software tradicional (determinístico) e IA (probabilística). Os três pilares de funcionamento: dados, capacidade computacional, algoritmos. Por que a IA não possui visão de mundo — e por que isso importa para a decisão pública.

→ Bloco 02 · 20 min

Taxonomia dos riscos

O ciclo de vida do viés algorítmico (histórico, modelagem, automação). Matriz de risco — categorização de sistemas. Casos documentados: Digital Poorhouse, triagens de benefícios, reconhecimento facial. Princípio Human-in-Command.

→ Bloco 03 · 25 min

Mão na massa 01 · o agente crítico

Construção guiada de assistente que revisa ideias, textos e projetos do próprio órgão aplicando filtros de vieses, opacidade e simplificações indevidas. Engenharia de prompts para accountability: anonimização, detecção de alucinações, auditoria de proxies discriminatórios.

→ Bloco 04 · 20 min

Mão na massa 02 · leitura crítica automatizada

Construção no-code de aplicativo funcional que identifica, em propostas, fluxos e conteúdos institucionais, riscos de enviesamento, apagamento de contexto e baixa diversidade. Entrega do certificado e integração com a plataforma de continuidade.

IV.
Entregáveis · as duas ferramentas

Cada participante sai com duas ferramentas próprias.

Desenvolvidas de forma guiada durante a oficina, as ferramentas ficam adaptadas ao contexto específico de atuação do órgão contratante — não são templates genéricos.

01. Produto · agente crítico

Agente crítico
de apoio ao trabalho

Configurado em ChatGPT, Gemini ou ferramenta equivalente. Revisa ideias, textos e projetos com filtros técnicos de vieses, opacidade e simplificações indevidas. Aplica as três regras de ouro da engenharia de prompts para accountability: anonimização (LGPD), detecção de alucinações, auditoria de proxies discriminatórios.

→ Função revisão crítica institucional
→ Plataforma ChatGPT · Gemini · Copilot
→ Adaptação ajustado ao vocabulário do órgão
02. Produto · aplicativo no-code

Aplicativo de leitura crítica

Construído sem código, de forma guiada durante a oficina. Identifica riscos de enviesamento, apagamento de contexto e baixa diversidade em propostas, fluxos ou conteúdos institucionais. Interface funcional — a participante sai com link público e uso imediato pela equipe.

→ Função triagem automatizada de risco em documentos
→ Plataforma ferramenta no-code (Lovable · Base44 · v0)
→ Adaptação escopo ajustado ao tipo de conteúdo do órgão
V.
Núcleo técnico · engenharia de prompts para accountability

Três regras de ouro do uso público de IA.

O corpo técnico da oficina. Cada regra combina uma diretriz de segurança institucional (a "regra de ouro") com uma ação concreta e reproduzível (a "ação do revisor"). São estas três regras que transformam uma IA genérica num assistente apropriado ao trabalho público.

→ Regra 01 · LGPD aplicada
Segurança e anonimização
Regra de ouro Nunca inserir dados pessoais sensíveis, CPFs ou informações classificadas do Estado em IAs generativas abertas.
Ação do revisor — Substituir identificadores reais por "Paciente X" ou "Empresa Y" antes de qualquer consulta. Preferir ferramentas corporativas homologadas quando disponíveis.
→ Regra 02 · verificação
Detecção de alucinações
Regra de ouro A IA é uma máquina estatística probabilística — propensa a inventar jurisprudências, normativas e dados plausíveis, mas falsos.
Ação do revisor — Exigir explicitamente: "Cite as fontes normativas exatas utilizadas. Caso não haja certeza, declare que não possui a informação." Sempre verificar em fonte primária.
→ Regra 03 · justiça
Auditoria de proxies
Regra de ouro A IA pode usar variáveis aparentemente neutras (como CEP) para mascarar discriminação racial ou de classe.
Ação do revisor — Analisar criticamente se o cruzamento de dados penaliza desproporcionalmente grupos vulneráveis. Desconfiar de correlações "neutras" que reproduzem desigualdade.
VI.
Alinhamento regulatório · marcos de referência

Ancorada nos principais marcos de governança de IA.

A oficina opera ancorada em frameworks reconhecidos internacionalmente. Servidoras e servidores saem com repertório para dialogar com contratos, auditorias e avaliações de impacto segundo padrões formalmente aceitos pelo setor público brasileiro e pela comunidade internacional.

→ Foundation
OCDE & UNESCO

Valores universais e direitos humanos. Escopo macropolítico e diretrizes estatais — base ética para qualquer política nacional de IA.

Status · fundação ética
→ Padrão ouro
EU AI Act

Abordagem baseada em risco proporcional. Conformidade legal rigorosa, com requisitos obrigatórios e matriz de categorização usada globalmente como referência.

Status · a Lei (padrão ouro)
→ Gestão operacional
NIST AI RMF

Gestão ágil e contínua de risco: Govern · Map · Measure · Manage. Escopo operacional e empresarial. Mapeamento de maturidade voluntário.

Status · processo corporativo
→ Engenharia de sistema
ISO/IEC 42001 & IEEE 7000

Auditoria de processos (PDCA) e design ético. Engenharia e arquitetura de sistemas, com acreditação formal possível. Base técnica para homologação.

Status · código e sistema de gestão
VII.
Como contratar · três formatos

Três modos de trazer a oficina para o seu órgão.

Do ensaio pontual numa semana temática até a instalação de capacidade permanente de governança algorítmica. Todos os formatos preservam a diretriz central: cada participante sai com suas duas ferramentas funcionando.

01

Oficina avulsa

Uma turma, 80 minutos, até 20 participantes. Ideal para ativar a discussão em semanas temáticas, encontros institucionais, integração de equipes recém-formadas em áreas sensíveis a risco algorítmico.

Baixo comprometimento · ciclo curto
02

Trilha temática

Três módulos encadeados (riscos · engenharia de prompts · avaliação de impacto algorítmico). Aprofundamento dos três produtos da regra de ouro e desenvolvimento de AIA aplicada a um caso real do órgão.

Formação estruturada · ciclo médio
03

Implantação institucional

Programa completo com trilha, diagnóstico de sistemas em uso no órgão, elaboração de protocolos internos de avaliação de impacto algorítmico e formação de quadros internos de governança. Capacidade permanente de auditoria.

Capacidade permanente · ciclo longo
Próximo passo

O Estado algorítmico precisa de servidoras e servidores que o saibam ler.