Com o lançamento do Chat GPT-5 da OpenAI, o mundo está um passo mais perto de liberar uma superinteligência de propósito geral que pode superar cada um de nós em uma ampla margem. À medida que esse dia se aproxima, estou cada vez mais preocupado que estamos terrivelmente despreparados para as ondas de choque que isso enviará pela sociedade — e provavelmente não é pelos motivos que você espera.
Experimente este pequeno experimento: Pergunte a qualquer pessoa que você conhece se ela está preocupada com a IA, e provavelmente compartilhará uma variedade de medos, desde grandes interrupções no mercado de trabalho e os impactos distorcedores da realidade das deepfakes, até o poder sem precedentes sendo concentrado em um punhado de grandes empresas de IA. Em outras palavras, a maioria das pessoas nunca imaginou honestamente como será sua vida no dia seguinte em que a superinteligência se tornar amplamente disponível.
Por que a superinteligência pode nos desmoralizar
Como contexto, a superinteligência artificial (ASI) refere-se a sistemas que podem superar os humanos na maioria dos aspectos, desde planejamento e raciocínio até resolução de problemas, pensamento estratégico e criatividade bruta. Esses sistemas resolverão problemas complexos em uma fração de segundo que podem levar os mais inteligentes especialistas humanos dias, semanas ou até anos para resolver. Isso me aterroriza, e não é por causa dos cenários apocalípticos que dominam nosso discurso público.
Não, estou preocupado com os riscos opostos — os perigos que podem surgir nos melhores cenários em que a superinteligência é útil e benevolente. Tal ASI terá muitos impactos positivos na sociedade, mas também pode ser profundamente desmoralizante para nossa identidade central como humanos. Afinal, o mundo parecerá diferente quando cada um de nós souber que uma inteligência mais inteligente, mais rápida e mais criativa está disponível em nossos dispositivos móveis do que entre nossas próprias orelhas.
Então, pergunte a si mesmo, honestamente, como os humanos agirão nessa nova realidade? Vamos buscar reflexivamente conselhos de nossos assistentes de IA enquanto navegamos por cada pequeno desafio que encontramos? Ou pior, aprenderemos a confiar em nossos assistentes de IA mais do que em nossos próprios pensamentos e instintos?
Espere — antes de responder, você deve atualizar seu modelo mental. Atualmente, interagimos com a IA através de uma estrutura socrática que exige que façamos perguntas e recebamos respostas (como o Capitão Kirk fez a bordo da Enterprise em 1966). Mas esse é um pensamento antiquado. Estamos entrando em uma nova era em que assistentes de IA serão integrados a dispositivos vestíveis equipados com câmeras e microfones, permitindo que a IA veja o que você vê, ouça o que você ouve e sussurre conselhos em seus ouvidos sem que você precise perguntar.
Em outras palavras, nosso futuro será repleto de assistentes de IA que nos acompanharão em nossas vidas, aumentando nossas experiências com orientações otimizadas a cada passo. Nesse mundo, o risco não é que busquemos reflexivamente conselhos da IA antes de usar nossos próprios cérebros; o risco é que não precisaremos perguntar — o conselho simplesmente fluirá para nossos olhos e ouvidos, moldando nossas ações, influenciando nossas decisões e resolvendo nossos problemas antes que tenhamos a chance de pensar por nós mesmos.
A ‘mentalidade aumentada’ transformará nossas vidas
Refiro-me a essa estrutura como ‘mentalidade aumentada’ e ela está prestes a atingir a sociedade em larga escala através de óculos, fones de ouvido e pingentes alimentados por IA. Este é o futuro da computação móvel, e já está impulsionando uma corrida armamentista entre Meta, Google, Samsung e Apple, enquanto se posicionam para produzir dispositivos de IA conscientes do contexto que substituirão os telefones manuais.
Imagine caminhar pela rua em sua cidade. Você vê um colega de trabalho se aproximando. Você não consegue lembrar o nome dele, mas seu assistente de IA se lembra. Ele detecta sua hesitação e sussurra o nome do colega em seus ouvidos. A IA também recomenda que você pergunte ao colega sobre sua esposa, que passou por uma cirurgia algumas semanas atrás. O colega aprecia o sentimento, então pergunta a você sobre sua recente promoção, provavelmente a conselho de sua própria IA.
Isso é empoderamento humano ou uma perda de agência humana?
Certamente parecerá um superpoder ter uma IA em seu ouvido que sempre está ao seu lado, garantindo que você nunca esqueça um nome, sempre tenha coisas espirituosas a dizer e seja instantaneamente alertado quando alguém com quem você está conversando não está sendo sincero. Por outro lado, todos que você encontra terão sua própria IA murmurando em seus ouvidos. Isso nos fará questionar com quem realmente estamos interagindo — com o humano à nossa frente ou com o agente de IA que lhes dá orientação (veja Carbon Dating para exemplos divertidos).
Muitos especialistas acreditam que assistentes de IA vestíveis nos farão sentir mais poderosos e capazes, mas essa não é a única maneira que isso pode acontecer. Essas mesmas tecnologias podem nos fazer sentir menos confiantes em nós mesmos e menos impactantes em nossas vidas. Afinal, a inteligência humana é a característica definidora da humanidade, a coisa da qual mais nos orgulhamos como espécie, no entanto, em breve poderemos nos ver deferindo a assistentes de IA porque nos sentimos mentalmente superados. Isso é empoderamento — uma IA que explica nossas experiências em tempo real?
Levanto essas preocupações como alguém que passou toda a minha carreira criando tecnologias que expandem as habilidades humanas. Desde meu trabalho inicial desenvolvendo realidade aumentada até meu trabalho atual desenvolvendo agentes conversacionais que tornam equipes humanas mais inteligentes, sou um firme crente de que a tecnologia pode aumentar grandemente as habilidades humanas. Infelizmente, quando se trata de superinteligência, há uma linha tênue entre aumentar nossas habilidades humanas e substituí-las. A menos que sejamos cuidadosos na forma como implantamos a ASI, temo que cruzaremos essa linha.
