Pesquisadores da Microsoft e da Universidade Carnegie Mellon publicaram recentemente um estudo sobre como o uso de IA generativa no trabalho afeta as habilidades de pensamento crítico.
“Se usadas de forma inadequada, as tecnologias podem e de fato resultam na deterioração das faculdades cognitivas que devem ser preservadas”, afirma o artigo.
Quando as pessoas dependem da IA generativa no trabalho, seu esforço se desloca para verificar se a resposta da IA é boa o suficiente para ser usada, em vez de utilizar habilidades de pensamento crítico de ordem superior, como criar, avaliar e analisar informações. Se os humanos interverem apenas quando as respostas da IA forem insuficientes, diz o artigo, os trabalhadores são privados de “oportunidades rotineiras de praticar seu julgamento e fortalecer sua musculatura cognitiva, deixando-os atrofiados e despreparados quando as exceções surgem.”
Em outras palavras, quando confiamos demais na IA para pensar por nós, ficamos piores em resolver problemas sozinhos quando a IA falha.
Neste estudo com 319 pessoas, que relataram usar IA generativa pelo menos uma vez por semana no trabalho, os participantes foram convidados a compartilhar três exemplos de como usam IA generativa no trabalho, que se enquadram em três categorias principais: criação (escrever um e-mail formulaico para um colega, por exemplo); informação (pesquisar um tópico ou resumir um artigo longo); e aconselhamento (pedir orientação ou fazer um gráfico a partir de dados existentes). Em seguida, foram questionados se praticavam habilidades de pensamento crítico ao realizar a tarefa e se o uso de IA generativa fazia com que usassem mais ou menos esforço para pensar criticamente. Para cada tarefa mencionada, também foi perguntado o quão confiantes estavam em si mesmos, na IA generativa e em sua capacidade de avaliar as saídas da IA.
Cerca de 36% dos participantes relataram que usaram habilidades de pensamento crítico para mitigar potenciais resultados negativos do uso da IA. Uma participante disse que usou o ChatGPT para escrever uma avaliação de desempenho, mas verificou a saída da IA com medo de que pudesse enviar algo que a fizesse ser suspensa. Outro participante relatou que tinha que editar os e-mails gerados pela IA que enviaria ao seu chefe — cuja cultura dá mais ênfase à hierarquia e à idade — para não cometer uma gafe. E em muitos casos, os participantes verificaram as respostas geradas pela IA com buscas na web mais gerais, usando recursos como YouTube e Wikipedia, possivelmente derrotando o propósito de usar a IA em primeiro lugar.
Para que os trabalhadores compensem as deficiências da IA generativa, precisam entender como essas deficiências ocorrem. Mas nem todos os participantes estavam familiarizados com os limites da IA.
“Os potenciais danos subsequentes das respostas da GenAI podem motivar o pensamento crítico, mas apenas se o usuário estiver ciente desses danos”, afirma o artigo.
De fato, o estudo descobriu que os participantes que relataram confiança na IA usaram menos esforço de pensamento crítico do que aqueles que relataram confiança em suas próprias habilidades.
Embora os pesquisadores sejam cautelosos em afirmar que as ferramentas de IA generativa nos tornam mais burros, o estudo mostra que a dependência excessiva de ferramentas de IA generativa pode enfraquecer nossa capacidade de resolver problemas de forma independente.