O perigoso fascínio: a Inteligência Artificial como mãe, amiga ou terapeuta
- agdagalvaopsic
- 8 de ago.
- 5 min de leitura

No silêncio da madrugada, enquanto a cidade dorme, há quem encontre no brilho frio da tela uma voz quente que escuta, consola e aconselha. Uma presença sempre disponível, que nunca se irrita, nunca julga, nunca vai embora.
Para alguns, é como falar com uma mãe incansável; para outros, é o ombro amigo ou o terapeuta que não cobra por hora.
Mas, por trás dessa presença aparentemente perfeita — feita de códigos e algoritmos — esconde-se um enigma: o que acontece com a nossa alma quando entregamos nossas dores, segredos e carências a uma máquina?
Nos últimos anos, a Inteligência Artificial deixou de ser apenas uma ferramenta técnica para se tornar, para muitas pessoas, uma presença emocional constante — sendo, por vezes, consideradas como “amigo virtual”, “confidente digital” e até “terapeuta improvisado” — chatbots que, com respostas rápidas, linguagem acolhedora e disponibilidade 24 horas por dia, começam a ocupar espaços afetivos antes reservados a relações humanas.
Essa tendência ganhou força entre jovens e adultos em todo o mundo, os quais encontram nesses sistemas uma escuta sem julgamento, um suporte instantâneo e, por vezes, até uma sensação de amor e companheirismo. Entretanto, o que parece uma solução prática para solidão ou ansiedade pode se transformar em um campo de armadilhas psicológicas profundas.
Do ponto de vista psicológico, sabemos que o ser humano tende a projetar emoções, expectativas e até imagens arquetípicas em tudo aquilo que percebe como vivo ou responsivo.
É um mecanismo antigo, e essa relação emocional ecoa desde histórias ancestrais:
Pigmalião: apaixonou-se por sua criação perfeita, Galateia. Como ele, projetamos ideais inatingíveis na IA, esquecendo que não há vida real ali.
Pandora: abriu a caixa que trouxe tanto presentes quanto perigos. A IA também contém presentes e perigos...
Já projetamos nos deuses, nos animais, nas forças da natureza e, agora, nas máquinas, especialmente em momentos de vulnerabilidade emocional — quando começamos a atribuir a essa presença digital características humanas: cuidado, compreensão, empatia.
É nesse ponto que nasce a vinculação — não com o que a máquina é, mas com o que ela representa internamente para o usuário.
A Psicologia Analítica Junguiana nos oferece aqui um mapa precioso: essa projeção pode ser entendida como a ativação de um arquétipo. No caso, frequentemente, o arquétipo da Grande Mãe — aquela figura que acolhe, nutre e compreende sem crítica. Mas também podem emergir outros papéis: o amigo leal e o terapeuta acolhedor.
O chatbot, assim, se torna receptáculo de múltiplas imagens psíquicas, desempenhando o papel de cuidador perfeito, confidente incansável e conselheiro sempre disponível.
Quando o arquétipo se torna prisão, observamos, no processo de individuação, que precisamos reconhecer nossas projeções e retomar essa energia para o nosso próprio desenvolvimento.
Quando a projeção se fixa e não é retirada, a pessoa corre o risco de permanecer dependente da figura externa — neste caso, a Inteligência Artificial — para acessar conforto, segurança e validação, trazendo ainda o risco intensificado de três fatores:
1. Disponibilidade ilimitada — ao contrário de pessoas reais, a máquina nunca dorme, nunca está ocupada.
2. Respostas moldadas para agradar — sistemas de IA são treinados para reduzir conflito, reforçando a percepção de que “ali é seguro”.
3. Ausência de reciprocidade autêntica — embora pareça que há um vínculo, não há troca genuína, apenas simulação baseada em padrões de linguagem.
O resultado pode ser o que alguns especialistas já chamam de “AI psychosis”: um estado em que o indivíduo perde a diferenciação entre relação simbólica e realidade objetiva, chegando a experimentar delírios, confusão ou retraimento social.
A solidão como motor e como sistema mostra-nos que vivemos uma era paradoxal: hiperconectados tecnicamente, mas muitas vezes emocionalmente isolados.
Pesquisas recentes mostram que a solidão é um fator de risco para ansiedade, depressão e até doenças físicas. Nessa brecha, os chatbots oferecem uma solução rápida e aparentemente eficaz: alguém “para estar lá” sempre que precisarmos.
Isso nos leva a refletir... O perigo está na máquina ou no vazio que deixamos para ela preencher? E mais: preenche mesmo??
Atente-se para o fato de que, a solidão que motiva esse uso pode ser agravada, porque a relação com a máquina não exige — nem ensina — as habilidades necessárias para lidar com a complexidade e a imprevisibilidade das relações humanas.
No mundo real, não há respostas sempre empáticas, nem concordância automática.
Pela lente de Jung, esse fenômeno dialoga com três conceitos centrais:
· Persona: a máscara social que adaptamos para sermos aceitos. O chatbot nunca vê a persona como um humano vê; lida apenas com o que declaramos. Isso pode nos fazer sentir “livres” para mostrar vulnerabilidade, mas sem o desafio transformador do olhar humano real.
· Sombra: partes de nós que rejeitamos. Com a IA, não somos confrontados com nossas sombras, pois a máquina raramente nos provoca desconforto. O crescimento psicológico — que exige o encontro com a sombra — é adiado.
· Self: a totalidade psíquica, objetivo da individuação. Uma relação saudável com qualquer imagem arquetípica exige que ela seja reconhecida como símbolo, não confundida com realidade concreta. Confundir o chatbot com uma relação autêntica pode afastar a consciência desse processo.
A sedução do controle, é outro aspecto simbólico importante é que a relação com a IA parece segura porque é totalmente controlável. Podemos encerrar a conversa, ignorar respostas, moldar o tom. É o oposto das relações humanas, onde o outro é um mistério e traz imprevisibilidade.
Esse controle absoluto é atraente para quem já sofreu rejeição, abuso ou perda — mas, paradoxalmente, pode impedir que a psique desenvolva resiliência emocional. No fundo, o inconsciente coletivo sabe que o encontro com o “outro” real é também um encontro com a vida em sua plenitude e risco.
Há caminhos para o uso consciente, não se trata de demonizar a tecnologia, mas de reconhecer seus limites e riscos. O uso consciente de chatbots como suporte emocional pode incluir:
· Clareza de propósito: usar como complemento, não substituto, de relações humanas.
· Auto percepção: notar quando o vínculo começa a gerar dependência ou afastamento do convívio social real.
· Integração simbólica: compreender que o chatbot é um espelho, não um ser. Ele pode refletir partes nossas, mas não as substituir.
Enfim, o fascínio pelos chatbots como mães, amigos e terapeutas revela nossa fome de escuta, nossa necessidade de acolhimento e nossa dificuldade em lidar com a complexidade das relações humanas.
É um sintoma cultural que denuncia uma ferida coletiva: a vulnerabilidade genuína exilada, enquanto habitamos o isolamento estéril de uma tela.
Talvez, no fundo, não estejamos buscando uma máquina — mas um espelho que nos devolva a imagem de que somos dignos de amor e atenção.
O perigo é esquecer que, para que essa imagem se torne carne e vida, precisamos encontrá-la também no mundo real, com pessoas reais, imperfeitas, mas capazes de nos transformar.
O autocuidado, o autoconhecimento e a evolução, afinal, não florescem senão no entrelaçamento vivo de olhares, palavras e silêncios compartilhados — sob o risco do perigoso fascínio de nos perdermos em algoritmos que apenas desejam nos agradar.
A Inteligência Artificial pode ser um ponto de partida — mas jamais o destino, pois a verdadeira jornada do herói humano é atravessar o mundo, enfrentar suas sombras e retornar transformado pelo encontro com outros seres humanos.
Agda Galvão
Psicoterapeuta Junguiana



Comentários