IA e Ética

IA ética na psicologia: fronteiras e possibilidades do Human-in-the-loop

Uma análise das resoluções do CFP, dos riscos algorítmicos e do modelo HITL como framework para integração responsável de IA na prática clínica.

GN
Dr. Gérson Silva Santos Neto
PhD USP · Research Fellow Harvard · CRP 03/22886
Fev 2026·10 min de leitura

Em março de 2023, o Conselho Federal de Psicologia publicou nota técnica reconhecendo que a inteligência artificial já está presente na prática psicológica brasileira — e que isso exige posicionamento ético urgente. A questão não é se a IA entrará no consultório. Já entrou. A questão é em que termos.

O marco regulatório brasileiro

As Resoluções CFP nº 11/2018 e 012/2019 estabeleceram o arcabouço ético para o uso de tecnologia na psicologia brasileira, com foco inicial em consultas mediadas por TIC. Esses documentos, embora anteriores ao boom de ferramentas de IA generativa, contêm princípios que podem ser extrapolados: responsabilidade profissional intransferível, sigilo absoluto e obrigação de avaliação crítica das ferramentas utilizadas.

A Resolução CFP 11/2018 é explícita em um ponto central: a responsabilidade ética pelo atendimento permanece integralmente com o psicólogo, independente da mediação tecnológica. Isso tem uma implicação direta para IA: nenhum sistema algorítmico pode assumir responsabilidade clínica. Qualquer output de IA deve passar pelo filtro do julgamento profissional humano antes de qualquer uso clínico.

O que é o modelo Human-in-the-loop

Human-in-the-loop (HITL) é um paradigma de sistemas de IA em que um humano qualificado mantém papel ativo e insubstituível no processo de tomada de decisão. Em vez de IA autônoma que decide e age, o modelo HITL produz sugestões, identifica padrões e sinaliza dados — mas aguarda validação humana antes de qualquer ação consequencial.

Na prática clínica psicológica, isso se traduz em três princípios operacionais:

1. Sugestão, nunca instrução. Qualquer output de IA — seja análise de escalas, identificação de padrões de humor ou sugestão de protocolo — chega ao profissional como dado para consideração, nunca como instrução a ser seguida. O sistema sinaliza; o psicólogo decide.

2. Transparência algorítmica. O profissional deve ser capaz de entender, ainda que em termos gerais, como o sistema chegou ao output — e ter acesso ao dado bruto que o gerou. Sistemas do tipo "caixa-preta" que produzem conclusões sem evidência rastreável são incompatíveis com ética psicológica.

3. Reversibilidade e override. Em qualquer ponto do processo, o profissional deve poder desconsiderar a sugestão da IA, reprocessar o caso manualmente e documentar sua decisão independente. O sistema serve ao profissional; não o contrário.

Caso concreto

Um sistema HITL analisa os últimos 8 check-ins de uma pessoa atendida e detecta queda consistente no escore de PHQ-9 combinada com aumento de variabilidade de humor. O sistema sinaliza: "Padrão atípico detectado — considere verificar protocolo desta sessão." O psicólogo lê a sinalização, consulta o histórico, decide se e como abordar na sessão. A decisão é 100% do profissional. O sistema foi um dado a mais, não uma diretriz.

Riscos que o psicólogo precisa conhecer

Viés algorítmico. Modelos de IA são treinados em dados históricos, e dados históricos de saúde mental são demograficamente enviesados. Modelos treinados predominantemente em populações ocidentais, brancas e de alta renda podem performar de forma significativamente inferior em populações diferentes — produzindo erros sistemáticos que o profissional precisa estar equipado para identificar.

Calibração de confiança. Sistemas de IA, especialmente modelos de linguagem, podem expressar conclusões com alto grau de confiança linguística mesmo quando a evidência subjacente é fraca. O profissional precisa avaliar não apenas o output, mas a qualidade dos dados que o geraram.

Deriva de responsabilidade. Pesquisas em psicologia organizacional mostram que humanos tendem a delegar responsabilidade para sistemas automatizados — especialmente quando o sistema é confiável na maior parte do tempo. Esse fenômeno, chamado de "automation bias", é particularmente perigoso em contextos clínicos onde a exceção pode ser a situação de maior risco.

Sigilo e LGPD. Dados de saúde mental são dados sensíveis sob a LGPD (art. 11). Qualquer ferramenta de IA que processe esses dados precisa operar em conformidade: base legal explícita, anonimização adequada e impossibilidade de uso para finalidades secundárias — incluindo treinamento de novos modelos sem consentimento específico.

Framework para avaliação de ferramentas

Antes de adotar qualquer ferramenta de IA em sua prática, o psicólogo deve conseguir responder afirmativamente a estas perguntas:

Transparência: O desenvolvedor documenta como o sistema funciona, em que dados foi treinado e quais são suas limitações conhecidas?

HITL: O sistema posiciona o profissional como decisor final, ou produz outputs diretos para quem é atendido sem mediação profissional?

Sigilo: Os dados inseridos no sistema são armazenados? Utilizados para treinamento? Compartilhados com terceiros?

Regulação: O sistema está em conformidade com LGPD, resoluções CFP e, quando aplicável, ANVISA?

Evidência: Existe publicação científica ou validação clínica independente sobre a eficácia e segurança do sistema?

Uma ferramenta que não responde bem a essas perguntas não é adequada para uso clínico — independente de quão sofisticada seja sua interface ou quão impressionante seja seu demo.

Referências
CFP. Resolução nº 11/2018. Regulamenta a prestação de serviços psicológicos realizados por meios de tecnologias da informação e da comunicação.
CFP. Resolução nº 012/2019. Regulamenta a prestação de serviços psicológicos realizados por meios de tecnologias da informação e da comunicação — atualização.
Bickmore, T., et al. (2018). Patient and consumer safety risks when using conversational assistants for medical information. Journal of Medical Internet Research, 20(9), e11510.
Obermeyer, Z., et al. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447–453.
Conexão Psicológica

IA que respeita o seu julgamento clínico

A plataforma foi construída desde o primeiro dia como sistema HITL — com teto de 70%, transparência algorítmica e override profissional absoluto.

Criar conta grátis →