Em 2024, o Conselho Federal de Psicologia publicou a Resolução CFP nº 09/2024, tornando-se um dos primeiros conselhos profissionais de saúde do Brasil a regulamentar especificamente o uso de inteligência artificial na prática clínica. A norma representa um marco histórico: reconhece que a IA chegou à psicologia e estabelece limites éticos claros para seu uso.
Se você é psicólogo e usa — ou considera usar — qualquer ferramenta de IA no seu trabalho, este artigo é leitura obrigatória.
Por que o CFP precisou regulamentar a IA?
O crescimento exponencial de ferramentas de IA generativa (ChatGPT, Gemini, Claude e similares) criou um vácuo regulatório perigoso. Psicólogos começaram a usar essas ferramentas para redigir notas clínicas, interpretar resultados de testes e até responder dúvidas clínicas — sem qualquer diretriz ética específica.
O problema: essas ferramentas foram treinadas com dados públicos da internet, não com critérios clínicos validados. Uma nota gerada pelo ChatGPT pode parecer tecnicamente correta e ainda assim conter imprecisões clínicas graves. Pior: ao inserir dados de pacientes em ferramentas públicas de IA, o psicólogo pode estar violando o sigilo profissional e a LGPD simultaneamente.
A Resolução CFP 09/2024 chegou para preencher esse vácuo.
O que a Resolução CFP 09/2024 estabelece
O princípio norteador da resolução é direto: a IA é uma ferramenta de auxílio, nunca um substituto para o julgamento clínico e ético do psicólogo.
A norma parte de um reconhecimento importante: a tecnologia pode beneficiar a prática psicológica — reduzindo carga burocrática, apoiando decisões clínicas e ampliando o acesso a serviços. Mas esses benefícios só são legítimos quando o psicólogo mantém protagonismo e responsabilidade.
O que é explicitamente permitido
A resolução permite o uso de IA para:
- Auxílio na redação de documentos clínicos: notas de sessão, relatórios, laudos e encaminhamentos podem ser redigidos com apoio de IA, desde que revisados e assinados pelo psicólogo. Entenda como a IA gera notas clínicas na prática e quais são os limites técnicos do processo.
- Suporte à tomada de decisão clínica: a IA pode sugerir hipóteses diagnósticas, identificar padrões e alertar para riscos — sempre como sugestão, nunca como decisão
- Automatização de tarefas administrativas: agendamento, lembretes, controle financeiro e gestão de prontuários são aplicações plenamente permitidas
- Aplicação digital de testes psicológicos: desde que o instrumento seja validado pelo SATEPSI e a interpretação seja feita pelo psicólogo
- Transcrição e análise de sessões: com o consentimento explícito do paciente, devidamente documentado
O que é vedado
A resolução proíbe expressamente:
- IA substituindo diagnóstico psicológico: nenhum sistema de IA pode emitir diagnósticos psicológicos. O diagnóstico é ato privativo do psicólogo
- Aplicação autônoma de testes psicológicos: mesmo testes digitais precisam de supervisão e interpretação do profissional
- Decisões clínicas autônomas por IA: a IA pode recomendar, nunca decidir
- Uso de ferramentas que não garantam sigilo: compartilhar dados de pacientes com plataformas de IA sem controles de privacidade adequados é violação ética e legal
- Notas clínicas geradas por IA sem revisão: o psicólogo não pode simplesmente "aceitar" uma nota gerada por IA sem lê-la, revisá-la e assumir responsabilidade pelo conteúdo
Resumo: Permitido × Vedado pela Resolução CFP 09/2024
| ✅ Permitido | ❌ Vedado |
|---|---|
| IA auxiliar na redação de notas clínicas (com revisão do psicólogo) | IA emitir diagnósticos psicológicos de forma autônoma |
| Sugestões de hipóteses diagnósticas pela IA | IA tomar decisões clínicas sem supervisão do profissional |
| Aplicação digital de testes validados pelo SATEPSI | Aplicação autônoma de testes psicológicos sem supervisão |
| Automatização de tarefas administrativas (agenda, financeiro) | Uso de ferramentas sem garantias de sigilo e conformidade LGPD |
| Transcrição e análise de sessões com consentimento explícito | Notas aceitas de IA sem leitura, revisão e assinatura do psicólogo |
| IA como apoio ao briefing pré-sessão | ChatGPT ou ferramentas públicas com dados identificáveis de pacientes |
Responsabilidades do psicólogo
A resolução é clara sobre onde está a responsabilidade: sempre no psicólogo registrado no CFP. Isso significa:
1. Responsabilidade pela seleção da ferramenta Você é responsável por verificar se o sistema de IA que usa garante sigilo, está em conformidade com a LGPD e tem política de privacidade adequada para dados clínicos. "O sistema disse que era seguro" não é justificativa suficiente em caso de vazamento de dados.
2. Responsabilidade pelo conteúdo gerado Toda nota, relatório ou laudo gerado com auxílio de IA e assinado por você é de sua total responsabilidade. Se a IA errar e você não corrigir, o erro é seu.
3. Responsabilidade pelo consentimento Antes de usar qualquer ferramenta de IA que processe dados do paciente (incluindo anotações de sessão), você deve obter consentimento informado explícito — não o consentimento genérico para tratamento, mas um consentimento específico para o uso de IA.
4. Responsabilidade pela supervisão Você não pode "delegar" o acompanhamento clínico para a IA. Ela apoia, você supervisiona.
O que muda na prática do dia a dia
Para a maioria dos psicólogos, a Resolução CFP 09/2024 não proíbe nada que já fosse considerado boa prática clínica. O que ela faz é formalizar e exigir documentação de práticas que muitos já adotavam informalmente.
Na prática, isso significa:
Nas notas clínicas: se você usa IA para gerar ou revisar notas, o documento final deve ser revisado por você antes da assinatura. A assinatura digital é o registro de que você leu, concorda e assume responsabilidade.
No consentimento: seu Termo de Consentimento Informado precisa mencionar explicitamente o uso de ferramentas de IA para auxílio na documentação, especificando quais dados são processados e como são protegidos.
Na escolha de ferramentas: ferramentas genéricas como ChatGPT, Google Bard ou Claude público não são adequadas para dados clínicos — não porque a resolução as proíba nominalmente, mas porque não oferecem as garantias de sigilo e LGPD exigidas.
Na supervisão: use a análise da IA como ponto de partida para sua reflexão clínica, nunca como substituto dela.
Por que usar ChatGPT com dados de pacientes é arriscado
Este ponto merece atenção especial porque é o erro mais comum que psicólogos cometem.
Quando você digita no ChatGPT público: "Tenho um paciente de 34 anos com histórico de abuso na infância que apresentou os seguintes sintomas esta semana...", você está:
- Violando o sigilo profissional ao compartilhar dados clínicos identificáveis (ou potencialmente identificáveis) com uma plataforma de terceiros
- Violando a LGPD ao processar dados sensíveis (saúde) sem base legal adequada e sem as salvaguardas exigidas para dados clínicos
- Usando a ferramenta em desconformidade com CFP 09/2024, que exige ferramentas com controles adequados de privacidade
A OpenAI (empresa do ChatGPT) afirma que não usa conversas do ChatGPT para treinar modelos quando o usuário desabilita essa opção — mas os dados ainda são processados em servidores americanos, sem as proteções exigidas pela LGPD para dados de saúde brasileiros.
A diferença de uma ferramenta especializada como o PsiNota AI: os dados são criptografados com AES-256-GCM, processados sob contrato com o provedor de IA com cláusulas específicas de confidencialidade, e nunca usados para treinar modelos.
Como se adequar à Resolução CFP 09/2024 em 5 passos
Passo 1 — Audite suas ferramentas atuais Liste todas as ferramentas que você usa que possam processar dados de pacientes. Para cada uma, verifique: tem política de privacidade em PT-BR? Tem conformidade LGPD? Seus dados ficam no Brasil ou em servidores adequados?
Passo 2 — Atualize seu Termo de Consentimento Adicione um parágrafo específico sobre uso de IA. Ele deve descrever: que ferramentas você usa, que dados processam, como são protegidos e que o paciente pode negar o uso de IA sem prejuízo ao atendimento.
Passo 3 — Establece um fluxo de revisão Se você usa IA para gerar notas, estabeleça uma rotina de revisão antes de assinar. Isso não precisa tomar mais de 2 minutos por nota — mas precisa acontecer sistematicamente.
Passo 4 — Documente sua escolha de ferramentas Em caso de processo ético ou questionamento, você deve ser capaz de demonstrar que escolheu ferramentas com controles adequados de privacidade. Guarde as políticas de privacidade e termos das ferramentas que usa.
Passo 5 — Mantenha-se atualizado A regulamentação de IA está evoluindo rapidamente. O CFP provavelmente publicará orientações complementares nos próximos anos. Acompanhe as publicações do CFP e entidades regionais (CRPs).
Cenários práticos: isto está em conformidade?
Dúvidas frequentes na prática do dia a dia:
Cenário 1 — Usar IA para gerar o rascunho de uma nota DAP após a sessão ✅ Permitido, desde que: (a) o sistema não compartilhe os dados do paciente com plataformas públicas, (b) o psicólogo revise o rascunho antes de assinar, e (c) o paciente tenha sido informado no TCLE.
Cenário 2 — Inserir o relato do paciente no ChatGPT para "ter uma segunda opinião clínica" ❌ Vedado. Mesmo sem nome, dados clínicos são potencialmente identificáveis. O ChatGPT não oferece as garantias de sigilo, LGPD e confidencialidade exigidas pela Resolução 09/2024.
Cenário 3 — Usar IA para aplicar e interpretar o PHQ-9 digitalmente ✅ Permitido parcialmente: a aplicação digital é permitida se o instrumento estiver validado pelo SATEPSI. A interpretação clínica e o registro no prontuário são obrigatoriamente do psicólogo — o sistema pode exibir escores, não pode emitir diagnóstico.
O que acontece se você descumprir a Resolução CFP 09/2024?
O descumprimento da Resolução 09/2024 pode gerar processo ético-disciplinar no Conselho Regional de Psicologia (CRP). As penalidades previstas no Código de Ética do Psicólogo são progressivas:
| Gravidade | Situação | Penalidade |
|---|---|---|
| Leve | Uso de IA sem mencionar no TCLE; falta de revisão de nota gerada por IA | Advertência (registro no CRP) |
| Grave | Compartilhamento de dados de paciente com plataformas sem garantias de sigilo | Censura pública; suspensão temporária do exercício profissional |
| Gravíssima | Violação grave de sigilo; dano comprovado ao paciente por uso inadequado de IA | Cassação do registro profissional |
Importante: as penalidades são cumulativas com as sanções previstas na LGPD (Lei 13.709/2018), que podem incluir multas aplicadas pela ANPD e ações de responsabilidade civil por parte do paciente lesado.
Quer automatizar isso?
O PsiNota AI gera essa nota em segundos. Plano gratuito permanente.
FAQ — Resolução CFP 09/2024
Posso usar IA para interpretar testes psicológicos? Sim, como suporte. O sistema pode apresentar escores e padrões. A interpretação clínica e o laudo são de responsabilidade do psicólogo.
Preciso avisar o paciente que uso IA? Sim. O consentimento informado deve mencionar o uso de IA para qualquer processamento de dados clínicos.
A resolução se aplica a atendimento online? Sim, sem exceções. Teleconsulta e atendimento presencial têm as mesmas exigências em relação ao uso de IA.
Psicólogos que não usam IA precisam se preocupar? Não diretamente — mas a norma cria obrigações para quem usa. Se você não usa e não pretende usar, a resolução não impõe nada novo.
O que acontece com psicólogos que descumprem a resolução? O descumprimento pode gerar processos éticos no CRP, com penalidades que vão de advertência até suspensão temporária do exercício profissional.
A Resolução CFP 09/2024 não é um obstáculo à modernização da psicologia — é o arcabouço ético que permite que psicólogos usem IA com segurança, responsabilidade e respaldo profissional. Com as ferramentas certas e os procedimentos adequados, a IA pode transformar positivamente sua prática clínica sem colocar sua ética profissional em risco.
