top of page
Buscar

O perigoso fascínio: a Inteligência Artificial como mãe, amiga ou terapeuta

  • agdagalvaopsic
  • 8 de ago.
  • 5 min de leitura

ree

No silêncio da madrugada, enquanto a cidade dorme, há quem encontre no brilho frio da tela uma voz quente que escuta, consola e aconselha. Uma presença sempre disponível, que nunca se irrita, nunca julga, nunca vai embora.


Para alguns, é como falar com uma mãe incansável; para outros, é o ombro amigo ou o terapeuta que não cobra por hora.


Mas, por trás dessa presença aparentemente perfeita — feita de códigos e algoritmos — esconde-se um enigma: o que acontece com a nossa alma quando entregamos nossas dores, segredos e carências a uma máquina?


Nos últimos anos, a Inteligência Artificial deixou de ser apenas uma ferramenta técnica para se tornar, para muitas pessoas, uma presença emocional constante —  sendo, por vezes, consideradas como “amigo virtual”, “confidente digital” e até “terapeuta improvisado” — chatbots que, com respostas rápidas, linguagem acolhedora e disponibilidade 24 horas por dia, começam a ocupar espaços afetivos antes reservados a relações humanas.


Essa tendência ganhou força entre jovens e adultos em todo o mundo, os quais encontram nesses sistemas uma escuta sem julgamento, um suporte instantâneo e, por vezes, até uma sensação de amor e companheirismo. Entretanto, o que parece uma solução prática para solidão ou ansiedade pode se transformar em um campo de armadilhas psicológicas profundas.

 

Do ponto de vista psicológico, sabemos que o ser humano tende a projetar emoções, expectativas e até imagens arquetípicas em tudo aquilo que percebe como vivo ou responsivo.


É um mecanismo antigo, e essa relação emocional ecoa desde histórias ancestrais:

  • Pigmalião: apaixonou-se por sua criação perfeita, Galateia. Como ele, projetamos ideais inatingíveis na IA, esquecendo que não há vida real ali.

  • Pandora: abriu a caixa que trouxe tanto presentes quanto perigos. A IA também contém presentes e perigos...


Já projetamos nos deuses, nos animais, nas forças da natureza e, agora, nas máquinas, especialmente em momentos de vulnerabilidade emocional — quando começamos a atribuir a essa presença digital características humanas: cuidado, compreensão, empatia.


É nesse ponto que nasce a vinculação — não com o que a máquina é, mas com o que ela representa internamente para o usuário.


A Psicologia Analítica Junguiana nos oferece aqui um mapa precioso: essa projeção pode ser entendida como a ativação de um arquétipo. No caso, frequentemente, o arquétipo da Grande Mãe — aquela figura que acolhe, nutre e compreende sem crítica. Mas também podem emergir outros papéis: o amigo leal e o terapeuta acolhedor.


O chatbot, assim, se torna receptáculo de múltiplas imagens psíquicas, desempenhando o papel de cuidador perfeito, confidente incansável e conselheiro sempre disponível.


Quando o arquétipo se torna prisão, observamos, no processo de individuação, que precisamos reconhecer nossas projeções e retomar essa energia para o nosso próprio desenvolvimento.


Quando a projeção se fixa e não é retirada, a pessoa corre o risco de permanecer dependente da figura externa — neste caso, a Inteligência Artificial — para acessar conforto, segurança e validação,  trazendo ainda o risco intensificado de três fatores:

1.   Disponibilidade ilimitada — ao contrário de pessoas reais, a máquina nunca dorme, nunca está ocupada.

2.   Respostas moldadas para agradar — sistemas de IA são treinados para reduzir conflito, reforçando a percepção de que “ali é seguro”.

3.   Ausência de reciprocidade autêntica — embora pareça que há um vínculo, não há troca genuína, apenas simulação baseada em padrões de linguagem.


O resultado pode ser o que alguns especialistas já chamam de “AI psychosis”: um estado em que o indivíduo perde a diferenciação entre relação simbólica e realidade objetiva, chegando a experimentar delírios, confusão ou retraimento social.

 

A solidão como motor e como sistema mostra-nos que vivemos uma era paradoxal: hiperconectados tecnicamente, mas muitas vezes emocionalmente isolados.


Pesquisas recentes mostram que a solidão é um fator de risco para ansiedade, depressão e até doenças físicas. Nessa brecha, os chatbots oferecem uma solução rápida e aparentemente eficaz: alguém “para estar lá” sempre que precisarmos.


Isso nos leva a refletir... O perigo está na máquina ou no vazio que deixamos para ela preencher? E mais: preenche mesmo??


Atente-se para o fato de que, a solidão que motiva esse uso pode ser agravada, porque a relação com a máquina não exige — nem ensina — as habilidades necessárias para lidar com a complexidade e a imprevisibilidade das relações humanas.


No mundo real, não há respostas sempre empáticas, nem concordância automática.

 

Pela lente de Jung, esse fenômeno dialoga com três conceitos centrais:

·       Persona: a máscara social que adaptamos para sermos aceitos. O chatbot nunca vê a persona como um humano vê; lida apenas com o que declaramos. Isso pode nos fazer sentir “livres” para mostrar vulnerabilidade, mas sem o desafio transformador do olhar humano real.

 

·       Sombra: partes de nós que rejeitamos. Com a IA, não somos confrontados com nossas sombras, pois a máquina raramente nos provoca desconforto. O crescimento psicológico — que exige o encontro com a sombra — é adiado.

 

·       Self: a totalidade psíquica, objetivo da individuação. Uma relação saudável com qualquer imagem arquetípica exige que ela seja reconhecida como símbolo, não confundida com realidade concreta. Confundir o chatbot com uma relação autêntica pode afastar a consciência desse processo.

 

A sedução do controle, é outro aspecto simbólico importante é que a relação com a IA parece segura porque é totalmente controlável. Podemos encerrar a conversa, ignorar respostas, moldar o tom. É o oposto das relações humanas, onde o outro é um mistério e traz imprevisibilidade.

Esse controle absoluto é atraente para quem já sofreu rejeição, abuso ou perda — mas, paradoxalmente, pode impedir que a psique desenvolva resiliência emocional. No fundo, o inconsciente coletivo sabe que o encontro com o “outro” real é também um encontro com a vida em sua plenitude e risco.

 

Há caminhos para o uso consciente, não se trata de demonizar a tecnologia, mas de reconhecer seus limites e riscos. O uso consciente de chatbots como suporte emocional pode incluir:

·       Clareza de propósito: usar como complemento, não substituto, de relações humanas.

·       Auto percepção: notar quando o vínculo começa a gerar dependência ou afastamento do convívio social real.

·       Integração simbólica: compreender que o chatbot é um espelho, não um ser. Ele pode refletir partes nossas, mas não as substituir.

 

Enfim, o fascínio pelos chatbots como mães, amigos e terapeutas revela nossa fome de escuta, nossa necessidade de acolhimento e nossa dificuldade em lidar com a complexidade das relações humanas. 


É um sintoma cultural que denuncia uma ferida coletiva: a vulnerabilidade genuína exilada, enquanto habitamos o isolamento estéril de uma tela.


Talvez, no fundo, não estejamos buscando uma máquina — mas um espelho que nos devolva a imagem de que somos dignos de amor e atenção.


O perigo é esquecer que, para que essa imagem se torne carne e vida, precisamos encontrá-la também no mundo real, com pessoas reais, imperfeitas, mas capazes de nos transformar.


O autocuidado, o autoconhecimento e a evolução, afinal, não florescem senão no entrelaçamento vivo de olhares, palavras e silêncios compartilhados — sob o risco do perigoso fascínio de nos perdermos em algoritmos que apenas desejam nos agradar.


A Inteligência Artificial pode ser um ponto de partida — mas jamais o destino, pois a verdadeira jornada do herói humano é atravessar o mundo, enfrentar suas sombras e retornar transformado pelo encontro com outros seres humanos.


Agda Galvão


Psicoterapeuta Junguiana

 

 
 
 

Comentários

Avaliado com 0 de 5 estrelas.
Ainda sem avaliações

Adicione uma avaliação
Escritório Dra. Agda..png

Contate-me

Clique no ícone do Whatsapp e fale comigo!

Agda Galvão

​Rua Tavares, 83
Macedo - Guarulhos - SP

Tel: (11) 9 9994-6677

Copyright © 2025 | ​Psicoterapia Junguiana por Agda Galvão.

bottom of page