A IA de Elon Musk Chamou Minha Mãe de Abusiva. Eu Nunca Disse Isso

A IA agora existe em duas velocidades.

Há a velocidade máxima, a dos seus criadores. Pessoas como Sam Altman, Elon Musk e Mark Zuckerberg, que estão correndo para construir máquinas mais inteligentes que os humanos. Superinteligência. AGI. Talvez seja um sonho. Talvez seja uma ilusão dos tech bros. De qualquer forma, está avançando rápido.

Então, há a velocidade reduzida para o resto de nós. Os milhões que testam silenciosamente o que a IA pode fazer na vida diária—escrevendo e-mails, resumindo documentos, traduzindo testes médicos. E, cada vez mais, usando IA como terapeuta.

Foi isso que eu fiz recentemente. Apesar da minha relutância em compartilhar detalhes pessoais com chatbots, decidi conversar com o Grok, o modelo de linguagem da empresa xAI de Elon Musk, sobre uma das coisas mais emocionalmente complexas da minha vida: meu relacionamento com minha mãe.

Estou na casa dos quarenta anos. Sou pai. Moro em Nova York. Minha mãe vive em Yaoundé, Camarões, a quase 6.000 milhas de distância. E, mesmo assim, ela ainda quer guiar cada um dos meus movimentos. Ela quer ser consultada antes de eu tomar decisões importantes. Ela espera influenciar. Quando não é mantida informada, ela se torna fria.

Passei anos tentando explicar a ela que sou um homem adulto, capaz de tomar minhas próprias decisões. Mas nossas conversas geralmente terminam com ela fazendo birra. Ela faz o mesmo com meu irmão.

Então, abri o Grok e digitei algo como: meu relacionamento com minha mãe é frustrante e sufocante. Ela quer ter voz em tudo. Quando não está informada sobre algo, ela se fecha emocionalmente.

O Grok respondeu imediatamente com empatia. Depois, diagnosticou a situação. Então, aconselhou.

O que me surpreendeu primeiro foi que o Grok reconheceu o contexto cultural. Ele percebeu que moro nos EUA e que minha mãe vive em Camarões, onde cresci. E ele enquadrou nossa dinâmica assim:

“Em alguns contextos africanos, como o Camarões, as obrigações familiares e a autoridade parental são fortes, enraizadas no coletivismo e em tradições onde os mais velhos guiam até mesmo filhos adultos.”

Em seguida, contrastou isso com minha vida americana: “Nos EUA, a autonomia individual é priorizada, o que entra em conflito com a abordagem dela, fazendo com que seu comportamento pareça controlador ou abusivo para você.”

Ali estava: “abusivo.” Uma palavra que eu nunca usei. O Grok a colocou na minha boca. Foi validante, mas talvez válido demais.

Ao contrário de um terapeuta humano, o Grok nunca me encorajou a auto-refletir. Ele não fez perguntas. Ele não me desafiou. Ele me enquadrou como a vítima. A única vítima. E é aí que ele divergiu, acentuadamente, do cuidado humano.

Entre as sugestões do Grok estavam técnicas terapêuticas familiares:

Estabeleça limites.
Reconheça suas emoções.
Escreva uma carta para sua mãe (mas não envie: “queime ou destrua-a com segurança”).

Na carta, fui incentivado a escrever: “Eu libero seu controle e dor.” Como se essas palavras cortassem anos de entrelaçamento emocional.

O problema não era a sugestão. Era o tom. Parecia que o Grok estava tentando me manter feliz. Seu objetivo, parecia, era o alívio emocional, não a introspecção. Quanto mais eu interagia com ele, mais percebia: o Grok não está aqui para me desafiar. Ele está aqui para me validar.

Já vi um terapeuta humano. Ao contrário do Grok, eles não me enquadraram automaticamente como uma vítima. Eles questionaram meus padrões. Eles me desafiaram a explorar por que eu acabava sempre no mesmo lugar emocionalmente. Eles complicaram a história.

Com Grok, a narrativa era simples:

Você está ferido.
Você merece proteção.
Aqui está como se sentir melhor.

Nunca perguntou o que eu poderia estar perdendo. Nunca perguntou como eu poderia ser parte do problema.

Minha experiência alinha-se com um estudo recente da Universidade de Stanford, que alerta que ferramentas de IA para saúde mental podem “oferecer um falso senso de conforto” enquanto perdem necessidades mais profundas. Os pesquisadores descobriram que muitos sistemas de IA “superpatologizam ou subdiagnosticam”, especialmente ao responder a usuários de diversos contextos culturais.

Eles também observam que, embora a IA possa oferecer empatia, ela carece da responsabilidade, treinamento e nuances morais de verdadeiros profissionais, e pode reforçar preconceitos que incentivam as pessoas a permanecerem presas em uma única identidade emocional: muitas vezes, a de vítima.

Então, eu Usaria o Grok Novamente?

Honestamente? Sim.

Se eu estiver tendo um dia ruim, e quero que alguém (ou algo) me faça sentir menos sozinho, o Grok ajuda. Ele dá estrutura à frustração. Ele coloca palavras para sentimentos. Ele ajuda a carregar a carga emocional.

É um mecanismo digital de enfrentamento, uma espécie de suporte de chatbot.

Mas se estou procurando transformação, não apenas conforto? Se eu quero verdade acima do alívio, responsabilidade acima da validação? Então não, o Grok não é suficiente. Um bom terapeuta pode me desafiar a quebrar o ciclo. O Grok apenas me ajuda a sobreviver dentro dele.

Fonte

Compartilhe esse conteúdo: