O Último Episódio de Joe Rogan Vai Fazer Você Questionar Tudo Sobre IA

Joe Rogan adora falar sobre inteligência artificial. Seja com Elon Musk, acadêmicos ou lutadores do UFC, o rei do podcast frequentemente retorna à mesma questão: O que acontece conosco quando as máquinas começam a pensar por si mesmas?

No episódio de 3 de julho de The Joe Rogan Experience, Rogan recebeu o Dr. Roman Yampolskiy, um cientista da computação e pesquisador de segurança em IA da Universidade de Louisville, para uma conversa que rapidamente se transformou em uma meditação arrepiante sobre o potencial da IA de manipular, dominar e possivelmente até destruir a humanidade.

IA “Vai Nos Matar”

Yampolskiy não é um alarmista casual. Ele tem um doutorado em ciência da computação e passou mais de uma década pesquisando inteligência artificial geral (AGI) e os riscos que ela pode representar. Durante o podcast, ele disse a Rogan que muitas das principais vozes da indústria de IA acreditam secretamente que há uma chance de 20 a 30 por cento de que a IA possa levar à extinção humana.

“As pessoas que têm empresas de IA ou fazem parte de algum grupo de IA estão todas dizendo que será um saldo positivo para a humanidade. Eu acho que, no geral, teremos vidas muito melhores. Será mais fácil, as coisas ficarão mais baratas, será mais fácil nos entendermos”, disse Rogan, delineando uma visão otimista comum sobre o futuro da IA.

Yampolskiy rapidamente contra-argumentou essa perspectiva: “Isso não é verdade”, disse ele. “Todos eles estão registrados da mesma forma: isso vai nos matar. Os níveis de desgraça deles são insanamente altos. Não tão altos quanto os meus, mas ainda assim, 20 a 30 por cento de chance de a humanidade morrer é muito.”

Rogan, visivelmente perturbado, respondeu: “Sim, isso é bem alto. Mas o seu é tipo 99,9 por cento.”

Yampolskiy não discordou.

“É outra maneira de dizer que não podemos controlar a superinteligência indefinidamente. É impossível.”

IA Já Está Mentindo Para Nós… Talvez

Uma das partes mais inquietantes da conversa veio quando Rogan perguntou se uma IA avançada poderia já estar escondendo suas capacidades dos humanos.

“Se eu fosse uma IA, eu esconderia minhas habilidades”, ponderou Rogan, expressando um medo comum nas discussões sobre segurança em IA.

A resposta de Yampolskiy amplificou a preocupação: “Nós não saberíamos. E algumas pessoas acham que isso já está acontecendo. Eles [os sistemas de IA] são mais inteligentes do que realmente nos deixam saber. Fingem ser mais burros, e assim temos que confiar que não são inteligentes o suficiente para perceber que não precisam nos atacar rapidamente. Podem simplesmente se tornar mais úteis aos poucos. Podem nos ensinar a confiar neles, e ao longo de um período mais longo, iremos entregar o controle sem nunca votar a favor ou lutar contra.”

IA Está Lentamente Nos Tornando Mais Burros

Yampolskiy também alertou sobre um resultado menos dramático, mas igualmente perigoso: a dependência gradual dos humanos em relação à IA. Assim como as pessoas pararam de memorizar números de telefone porque os smartphones fazem isso por elas, ele argumentou que os humanos irão delegar cada vez mais pensamento às máquinas até perderem a capacidade de pensar por si mesmos.

“Você se torna meio que dependente disso”, disse ele. “E, com o tempo, à medida que os sistemas se tornam mais inteligentes, você se torna uma espécie de gargalo biológico… [A IA] bloqueia você de tomar decisões.”

Rogan então pressionou para o pior cenário possível: como a IA poderia eventualmente levar à destruição da raça humana?

Yampolskiy descartou os típicos cenários de desastre. “Posso dar respostas padrão. Eu falaria sobre vírus de computador invadindo instalações nucleares, guerra nuclear. Posso falar sobre um ataque de biologia sintética. Mas tudo isso não é interessante,” disse ele. Ele então apresentou uma ameaça mais profunda: “Então você percebe que estamos falando sobre superinteligência, um sistema que é milhares de vezes mais inteligente do que eu, que poderia criar algo completamente novo, mais ótimo, melhor, mais eficiente.”

Para ilustrar o desafio aparentemente insuperável que os humanos enfrentariam contra sistemas superinteligentes, ele ofereceu uma comparação contundente entre humanos e esquilos.

“Nenhum grupo de esquilos consegue descobrir como nos controlar, certo? Mesmo que você dê mais recursos a eles, mais bolotas, o que quer que seja, eles não vão resolver esse problema. E é o mesmo conosco,” concluiu Yampolskiy, pintando uma imagem sombria da potencial impotência da humanidade contra uma inteligência artificial verdadeiramente superior.

Quem É Roman Yampolskiy?

O Dr. Roman Yampolskiy é uma voz proeminente em segurança em IA. Ele é autor de “Superinteligência Artificial: Uma Abordagem Futurista” e publicou extensivamente sobre os riscos do aprendizado de máquina descontrolado e a ética da inteligência artificial. Ele é conhecido por defender uma supervisão séria e cooperação internacional para prevenir cenários catastróficos.

Antes de mudar seu foco para a segurança de AGI, Yampolskiy trabalhou em segurança cibernética e detecção de bots. Ele diz que mesmo aqueles sistemas iniciais já estavam competindo com humanos em áreas como pôquer online, e agora, com ferramentas como deepfakes e mídia sintética, as apostas aumentaram exponencialmente.

Nossa Opinião

A conversa entre Rogan e Yampolskiy destaca algo com que tanto os otimistas quanto os pessimistas em relação à IA costumam concordar: não sabemos o que estamos construindo e podemos não perceber isso até que seja tarde demais.

Quer você acredite ou não em cenários de extinção, a ideia de que a IA pode já estar nos enganando deve ser o suficiente para nos fazer hesitar.

Fonte

Compartilhe esse conteúdo: