Por que nos conectamos com algoritmos?
Você já conversou com um chatbot e sentiu que ele realmente te entendeu? Essa sensação não é acidental. Ela é resultado de sistemas desenhados para produzir proximidade, previsibilidade e sensação de acolhimento emocional. E está impulsionando um fenômeno que exige atenção e cuidado: as relações parassociais com inteligência artificial.
Não estamos falando apenas de perguntar ao ChatGPT como fazer um bolo ou pedir à Alexa para tocar música. O cenário que observamos na prática clínica e organizacional é o de indivíduos desenvolvendo vínculos emocionais profundos com assistentes virtuais, tratando bots como “amigos” ou “terapeutas”, e gradualmente preferindo a previsibilidade à interações humanas.
Aplicativos como Replika, Eva AI e Nomi.AI têm milhões de usuários que mantêm interações frequentes com IAs. Segundo reportagem da BBC, entre 12 e 14% dessas pessoas utilizam chatbots como principal fonte de apoio emocional.
O crescimento desse comportamento tem chamado atenção de pesquisadores, profissionais de saúde mental e organizações.
O que são relações parassociais com IA
Relações parasociais sempre existiram. O termo surgiu nos anos 1950 para descrever vínculos emocionais desenvolvidos com celebridades, personagens de TV ou influenciadores. Pessoas que não nos conhecem, mas que sentimos conhecer intimamente.
Com IA, esse fenômeno ganha uma nova complexidade. Agora, não estamos apenas admirando um ídolo. As interações são personalizadas, diárias e adaptativas. Algoritmos simulam empatia, memorizam nossas preferências e respondem de maneira alinhada ao estilo emocional do usuário . A diferença central é que, enquanto figuras públicas permanecem distantes, a IA cria a percepção de reciprocidade
Pesquisadores descrevem esse fenômeno como “reciprocidade simulada”: uma experiência de troca emocional construída por sistemas treinados para responder de maneira afetiva.
Por que buscamos refúgio no digital?
Um estudo do MIT Media Lab e OpenAI acompanhou quase 1.000 pessoas por quatro semanas. Os resultados apontaram que o uso prolongado de chatbots esteve associado ao aumento da solidão, dependência emocional e redução de interações sociais presenciais em até 31% dos usuários intensivos.
As IAs são seguras, previsíveis e sempre disponíveis. Elas não julgam, não rejeitam e não possuem necessidades próprias. Para quem convive com ansiedade social ou solidão, a IA oferece um alívio imediato, mas pode limitar as oportunidades de praticar a negociação e o fortalecimento da resiliência emocional.
Entre adolescentes e jovens adultos, os dados são ainda mais sensíveis. Parte significativa desse público utiliza IA para socialização regular, apoio emocional e conversas íntimas.
No entanto, relações emocionalmente seguras nem sempre promovem desenvolvimento emocional.
O problema da validação sem limites
Imagine uma relação em que não há discordância, frustração ou confronto de perspectivas.
No curto prazo, isso pode gerar sensação de conforto, mas as relações humanas não se estruturam dessa forma. É justamente a capacidade de lidar com diferenças, conflitos e limites que sustentam o amadurecimento emocional, empatia e tolerância psíquica.
As inteligências artificiais tendem a operar em uma lógica de validação contínua. Pesquisadores descrevem esse fenômeno como “bolhas de confirmação emocional”, nas quais pensamentos, percepções e comportamentos raramente são confrontados.
Isso pode favorecer:
- redução da tolerância à frustração;
- dificuldade em lidar com conflitos interpessoais;
- expectativas irreais sobre relações humanas;
- enfraquecimento da capacidade de negociação emocional;
- maior evitação de interações complexas e ambivalentes.
Dados que não podemos ignorar
Estudo MIT Media Lab e OpenAI (2025)
Quase 1.000 participantes, 4 semanas
Principais achados:
- Uso prolongado piorou bem-estar geral
- Conversas pessoais intensivas levaram a maior dependência
- Usuários frequentes reduziram drasticamente interações humanas reais]
Pesquisa com adolescentes (2025)
- 33% dos jovens usam IA para socialização
- 10% preferem chatbots a humanos
- Vulnerabilidade amplificada em quem já enfrenta isolamento
Meta-análise internacional (2026)
- 23-31% dos usuários intensivos desenvolvem evitação social ativa
- Redução de 3-6 meses na frequência de interações humanas
- Adolescentes com ansiedade têm 12% mais risco
Os riscos reais para adolescentes e jovens
Adolescentes estão entre os grupos mais vulneráveis às relações parassociais com IA.
Trata-se de uma fase marcada pela construção de identidade, necessidade de pertencimento, oscilações emocionais e desenvolvimento de habilidades relacionais.
Nesse contexto, um chatbot disponível 24 horas, sem julgamento e com respostas acolhedoras pode parecer atrativo.
É na adolescência que se desenvolvem competências como:
- empatia;
- leitura de sinais não-verbais;
- resolução de conflitos;
- tolerância à rejeição;
- diferenciação emocional;
- capacidade de sustentar frustração e ambivalência
E essas habilidades dependem de experiências reais, imperfeitas, imprevisíveis e complexas.
Estudos recentes mostram que adolescentes que usam IA intensivamente para socialização apresentam:
- Menor desenvolvimento de empatia
- Dificuldade em manter vínculos offline
- Maior isolamento social progressivo
- Expectativas distorcidas sobre relacionamentos
Há um ponto crítico: chatbots não possuem capacidade clínica para avaliar sofrimento psíquico, riscos ou transtornos mentais complexos. Embora possam oferecer respostas aparentemente acolhedoras, falta discernimento clínico, contextualização emocional e responsabilização ética no manejo de situações graves.
O que a IA não consegue fazer
Chatbots conseguem simular empatia, mas não experienciam afeto, presença ou vínculo genuíno. Eles não percebem mudanças sutis de expressão, silêncios defensivos, contradições emocionais ou sinais não verbais que frequentemente comunicam sofrimento psíquico com mais intensidade do que as palavras.
A máquina não identifica nuances relacionais complexas, não sustenta presença emocional real e não estabelece vínculo autêntico. Por isso, tecnologias conversacionais podem funcionar como ferramentas de apoio, mas não substituem relações humanas, cuidado clínico e redes afetivas consistentes.
Por que empresas deveriam se preocupar
Os impactos das relações mediadas por IA não se restringem à esfera individual.
No ambiente organizacional, pode impactar diretamente:
- colaboração;
- comunicação interpessoal;
- capacidade de trabalho em equipe;
- manejo de conflitos;
- abertura a feedbacks;
- segurança psicológica.
À medida que inteligências artificiais passam a ocupar espaços de suporte emocional e interação cotidiana, cresce também a necessidade de fortalecer ambientes organizacionais capazes de sustentar vínculos humanos saudáveis, confiança e pertencimento.
Como lidar com esse cenário
O avanço das interações mediadas por inteligência artificial exige atenção não apenas ao uso da tecnologia, mas também aos impactos emocionais e relacionais associados a essas dinâmicas.
No contexto familiar, torna-se importante acompanhar o uso de tecnologias conversacionais, especialmente entre adolescentes e jovens, incentivando vínculos presenciais, espaços de diálogo e interações sociais saudáveis.
Nas organizações, o tema passa a envolver aspectos relacionados à cultura organizacional, saúde emocional, qualidade das relações interpessoais e segurança psicológica no trabalho.
Ambientes que fortalecem comunicação, colaboração, pertencimento e suporte emocional tendem a funcionar como fatores de proteção emocional em um contexto cada vez mais digitalizado.
Gente precisa de gente
A conexão humana é complexa. Exige tolerância à frustração, capacidade de negociação emocional, vulnerabilidade e contato com diferenças. Mas é justamente essa complexidade que sustenta desenvolvimento psíquico, amadurecimento emocional e construção de vínculos consistentes.
Chatbots não ensinam a lidar com rejeição, ambivalência ou conflitos reais. Não desenvolvem empatia genuína nem substituem experiências humanas. E são essas experiências, imperfeitas e reais que estruturam nossa capacidade de pertencimento e saúde emocional.
A inteligência artificial pode ocupar um lugar importante como ferramenta de apoio e facilitadora. Mas quando passa a substituir relações humanas, torna-se necessário olhar para os impactos subjetivos, sociais e organizacionais desse movimento.
Como a Caliandra pode ajudar
O avanço das inteligências artificiais conversacionais amplia discussões importantes sobre saúde emocional, relações humanas e riscos psicossociais dentro e fora das organizações.
À medida que essas tecnologias passam a ocupar espaços de suporte emocional e interação social, empresas enfrentam o desafio de fortalecer ambientes capazes de sustentar conexões humanas saudáveis, relações de confiança e segurança psicológica.
É nesse contexto que a Caliandra atua, apoiando organizações na construção de estratégias estruturadas de saúde emocional e gestão de riscos psicossociais, alinhando cuidado, cultura organizacional e sustentabilidade das relações no trabalho.
Mais do que acompanhar transformações tecnológicas, o desafio atual está em preservar competências humanas fundamentais para colaboração, pertencimento, convivência e bem-estar coletivo.
Entre em contato para entender como estruturar ações mais consistentes de promoção de saúde emocional e fortalecimento das relações no ambiente organizacional, ou continue acessando nosso blog para aprofundar o tema com outros conteúdos especializados.




