● Disponível Módulo 3 de 6 5 horas · Assíncrono

🤖IA Ética na Clínica

Fundamentos éticos e técnicos para integrar IA na prática psicológica. Human-in-the-loop, transparência algorítmica, teto de 70% de confiança e framework PRISMA — o que torna uma ferramenta de IA defensável perante o CFP.

5h
Carga horária
7aulas
Vídeoaulas
3resoluções
CFP cobertas
8casos
Casos práticos

IA que amplifica o julgamento clínico,
sem jamais substituí-lo

⚖️ Marco regulatório brasileiro

Resoluções CFP 11/2018 e 012/2019, LGPD Art. 11, nota técnica CFP 2023 sobre IA. O que está decidido e o que ainda é zona cinzenta.

👤 Human-in-the-Loop (HITL)

Os 3 princípios operacionais: sugestão nunca instrução, transparência algorítmica, reversibilidade e override absoluto. Por que HITL é defensável eticamente.

🔍 Framework PRISMA

Impressão → Síntese → Meta → Ação. Como estruturar o uso de IA na prática clínica sem perder controle profissional sobre o processo.

📉 Teto de 70% de confiança

Por que nenhum output de IA clínica deve ultrapassar 70% de confiança. Como calibrar expectativas e comunicar incerteza adequadamente.

⚠️ Riscos algorítmicos

Viés algorítmico, calibração de confiança, automation bias e deriva de responsabilidade. Como reconhecer e mitigar cada um.

✅ Checklist para avaliação de ferramentas

5 perguntas para fazer antes de adotar uma ferramenta de IA: transparência, HITL, sigilo, regulação e evidência. Se não responde bem, não é adequada.

6 aulas · 4 horas de formação

1
O debate ético: automação vs. amplificação
Por que a IA em saúde mental exige paradigma diferente de IA em outras áreas. Autonomia, não-maleficência e sigilo.
38 min · teoria
2
Marco regulatório — CFP, LGPD, ANVISA
Resoluções aplicáveis, dados sensíveis sob LGPD Art. 11, posicionamentos internacionais (APA, BPS).
45 min · teoria
3
Human-in-the-Loop em profundidade
3 princípios operacionais, casos concretos, quando HITL falha e como recuperar o controle profissional.
52 min · teoria + 3 casos
4
Framework PRISMA aplicado
Impressão → Síntese → Meta → Ação. Estruturação do uso de IA na sessão, no prontuário e no planejamento.
48 min · prático
5
Teto de 70% e calibração de confiança
A decisão deliberada de capar a confiança da IA em 70%. Por que isso é clinicamente correto e eticamente necessário.
35 min · teoria + 2 casos
6
Riscos algorítmicos e mitigação
Viés, automation bias, deriva de responsabilidade. Como reconhecer e documentar a decisão profissional.
42 min · teoria + checklist
7
Avaliação crítica de ferramentas
Checklist de 5 perguntas. Aplicação em ferramentas reais. O que adotar, o que recusar, como documentar.
40 min · prático

Comece sua formação agora

Acesso imediato após o cadastro. Grátis até 3 pessoas acompanhadas na plataforma.

Acessar módulo →