Pular para o conteúdo

Ética e Impacto Social (B)

A ética não é uma camada adicional ao desenvolvimento com IA — é uma condição de legitimidade. Todo sistema de IA que atua sobre pessoas, dados ou decisões institucionais deve ser avaliado quanto ao seu impacto nos direitos fundamentais, na equidade e na confiança pública.

O SinergIA alinha sua dimensão ética ao Framework para Autoavaliação de Impacto Ético em IA no Setor Público Federal (AIE), publicado pelo Governo Digital / SGD/MGI, e às recomendações da UNESCO sobre Ética da IA (2021), referências consolidadas para uso responsável de IA no setor público brasileiro.


Os 6 Princípios Éticos da IA — Mapeamento AIE × SinergIA

Seção intitulada “Os 6 Princípios Éticos da IA — Mapeamento AIE × SinergIA”

O AIE Gov.BR define 6 princípios éticos fundamentais. A tabela abaixo mostra como cada princípio é coberto pelo SinergIA e onde há necessidade de aplicação pelo órgão adotante.

Direitos Humanos, Dignidade e Equidade

Supervisão humana obrigatória (GTI); checagem de viés na validação multi-IA. O órgão deve aplicar o questionário AIE e verificar impacto em grupos vulneráveis.

Transparência, Explicabilidade e Auditabilidade

Rastreabilidade integral (princípio 1); ADRs versionados; evidências obrigatórias; Linter de Governança. O órgão deve documentar critérios de decisão automatizada que afetam cidadãos.

Segurança, Robustez e Não Maleficência

Validação multi-IA (princípio 2); níveis de autonomia escalonada (GTI); Linter bloqueia avanço sem evidência. O órgão deve declarar SLAs de segurança e plano de contingência.

Privacidade e Proteção de Dados

PDP como requisito estrutural; RIPD obrigatório em tratamentos de alto risco. O órgão deve aplicar AIE e RIPD de forma complementar.

Supervisão Humana Efetiva e Responsabilização

Papeis formalizados na GTI; checkpoints humanos não suprimíveis; autonomia escalonada nível 1–3. O órgão deve designar responsável nominal pela supervisão de IA.

Sustentabilidade Socioambiental e Bem-Estar

Princípio de Proporcionalidade (evitar automação desnecessária). O órgão deve avaliar impacto energético das engines e impacto social das automações propostas.


O AIE Gov.BR classifica projetos de IA em 4 níveis de risco ético, com desdobramentos distintos para cada nível. O SinergIA adota essa classificação como critério de calibração do modo de aplicação e da profundidade de governança exigida.

Nível de RiscoCaracterísticas do projetoModo SinergIA recomendadoInstrumento AIE
BaixoSem dados pessoais sensíveis, sem impacto em direitos, suporte operacional internoÁgilQuestionário Simplificado
MédioDados pessoais não sensíveis, algum impacto em atendimento ao cidadãoEssencialQuestionário Padrão
AltoDados pessoais sensíveis, decisões com impacto financeiro, saúde ou acesso a serviçosCompletoQuestionário Completo
ExcessivoVer gatilhos abaixoProjeto deve ser interrompidoAvaliação especializada obrigatória

GatilhoDescriçãoAção obrigatória
Vigilância biométrica em massaSistema de reconhecimento facial ou biométrico em espaços públicos sem base legal explícitaInterromper · Consultar jurídico e DPO
Decisão totalmente autônoma da IAIA decide sem possibilidade de revisão humana sobre acesso a benefícios, crédito, saúde ou liberdadeInterromper · Redesenhar com supervisão humana obrigatória
Manipulação comportamentalSistema projetado para influenciar decisões de cidadãos de forma não transparenteInterromper · Avaliar legalidade e reformular finalidade
Perfil de risco sem base legalSistema que cria perfis preditivos de risco sobre indivíduos sem fundamento legal ou consentimentoInterromper · Avaliar RIPD e base autorizativa LGPD
Violação sistemática de direitos fundamentaisQualquer funcionalidade que resulte em discriminação, exclusão ou dano irreversível a grupos vulneráveisInterromper · Redesenhar com avaliação de impacto em direitos humanos

O Framework para Autoavaliação de Impacto Ético em IA do Governo Digital é o instrumento consultivo oficial para órgãos da administração pública federal. Deve ser aplicado:

  • Obrigatoriamente em projetos de risco médio, alto ou excessivo
  • Antes do início do desenvolvimento — não como adequação posterior
  • De forma colaborativa por equipe multidisciplinar: gestor, técnico, DPO, jurídico e, quando viável, usuários finais

O relatório gerado pelo AIE (disponível em JSON, TXT e Markdown) deve ser registrado como evidência no artefato GTI-AIE-0001--autoavaliacao-impacto-etico.md.

A SGD/MGI realiza anualmente um autodiagnóstico de governança de TI e IA nos órgãos do Poder Executivo Federal, mapeando soluções de IA em uso, tecnologias adotadas e gargalos de governança. O resultado desse diagnóstico deve ser utilizado pela GTI como insumo para a revisão periódica anual do framework e para a atualização do RRM (Registro de Riscos do Framework).


Projetos de risco médio, alto ou excessivo devem registrar:

GTI-AIE-0001--autoavaliacao-impacto-etico.md

Localizado em: artefatos/GTI-GovernancaTI/03-decisoes/

O artefato deve conter:

  • Nível de risco ético apurado no questionário AIE
  • Versão do questionário aplicada (Simplificada / Padrão / Completa)
  • Data de aplicação e equipe envolvida
  • Classificação final e percentual de aderência
  • Gatilhos críticos identificados, se houver
  • Plano de ação para os pontos de melhoria apontados pelo AIE
  • Link para o relatório gerado pela ferramenta (JSON/MD)

InstrumentoEscopoStatus
AIE Gov.BRAutoavaliação de impacto ético — setor público federalBeta vigente
PL 2338/2023 — Marco Legal da IARegulação geral de IA no Brasil — transparência, supervisão humana, classificação de riscoEm tramitação
LGPD — Lei 13.709/2018Proteção de dados pessoaisVigente
Recomendação UNESCO sobre Ética da IA (2021)Princípios éticos internacionais para IA — 193 países signatários, incluindo o BrasilVigente
OCDE — Princípios de IA (2019)Confiabilidade, transparência, responsabilização e segurança em IAReferência

Autoavaliação Ética do Próprio Framework — Resultado AIE

Seção intitulada “Autoavaliação Ética do Próprio Framework — Resultado AIE”

O SinergIA pratica o que prescreve. O framework foi submetido ao próprio questionário AIE Gov.BR (versão Beta 2.39), avaliado como instrumento de governança de IA — verificando se, quando adotado, orienta a criação de sistemas éticos, transparentes e com supervisão humana efetiva.

DimensãoResultado
Instrumento utilizadoAIE Gov.BR — SGD/MGI (Beta 2.39)
Data2026-03-28
Risco preliminar apuradoMédio
Classificação final de aderência éticaNível 4 — Alta Aderência
Percentual estimado de aderência~85%
Gatilhos críticos ativados0
Versão avaliada0.90b (beta)
  • Supervisão humana obrigatória e não suprimível em todos os pontos de impacto
  • Rastreabilidade integral — ADRs, evidências obrigatórias, Linter de Governança
  • PDP como requisito estrutural — privacidade incorporada ao modelo, não adicionada depois
  • Governança de dados formalizada no PV GDA
  • Documentação pública, versionada e auditável
  • Validação multi-IA como mecanismo explícito de redução de viés
  • Riscos do próprio framework declarados explicitamente (incluindo risco de burocracia excessiva)
  • Gatilhos de Risco Excessivo formalizados com interrupção obrigatória
  • Testes de acessibilidade com usuários com deficiência ainda não realizados
  • Curadoria de dados formalizada, mas em implementação parcial nos projetos
  • Nenhum projeto real concluído com o modelo completo ainda (versão beta)
  • Quando adotado por órgão público, exige designação formal de responsável nominal pela supervisão de IA

← Princípios Gerais · Próximo: Estrutura do Framework →