Pelo Amor de Deus, Pare de Fazer Relógios do Juízo Final Inescrutáveis

Uma escola de negócios apoiada pela Arábia Saudita na Suíça lançou um Relógio do Juízo Final para alertar o mundo sobre os danos da “inteligência artificial geral incontrolada”, o que chamam de IA “como um deus”. Imagine se as pessoas que vendiam escritórios em planilhas do Excel na década de 1980 tentassem dizer aos trabalhadores que o software era um caminho para dar à luz um deus e usassem um Rolex que tique para fazer isso e você terá uma ideia do que estamos lidando aqui.

Michael Wade—o criador do relógio e Professor de Estratégia e Digital da IMD Business School em Lausanne, Suíça, e Diretor do TONOMUS Global Center for Digital and AI Transformation (bom Deus)—revelou o relógio em um recente artigo de opinião para a TIME.

Um relógio que conta até a meia-noite é uma metáfora uma vez poderosa e agora desgastada da era atômica. É uma imagem tão antiga e gasta que acaba de comemorar seu 75º aniversário. Depois que a América lançou bombas nucleares no Japão, alguns pesquisadores e cientistas que trabalharam no desenvolvimento da arma formaram o Bulletin of the Atomic Scientists.

O projeto deles tem sido alertar o mundo sobre sua destruição iminente. O Relógio do Juízo Final é uma das maneiras que eles fazem isso. Todo ano, especialistas em vários campos—de armas nucleares a mudanças climáticas e, sim, inteligência artificial—se reúnem e discutem quão ferrados estamos. Então eles ajustam o relógio. Quanto mais perto da meia-noite, mais perto a humanidade está de sua destruição. Neste momento, está a 90 segundos da meia-noite, a mais próxima que o relógio já foi ajustado.

Wade e a IMD não têm relação com o Bulletin of the Atomic Scientists e o Relógio do Juízo Final é uma coisa própria. A criação de Wade é o Relógio de Segurança da IA. “A leitura atual do relógio—29 minutos para a meia-noite—é uma medida de quão perto estamos do ponto crítico onde a AGI incontrolada poderia trazer riscos existenciais,” disse ele em seu artigo para a Time. “Enquanto nenhum dano catastrófico aconteceu ainda, a velocidade vertiginosa do desenvolvimento da IA e as complexidades da regulação significam que todas as partes interessadas devem permanecer alertas e engajadas.”

Os defensores mais barulhentos da IA no Vale do Silício adoram se apegar à metáfora nuclear. O CEO da OpenAI, Sam Altman, comparou o trabalho de sua empresa ao Projeto Manhattan. O senador Edward J. Markey (D-MA) escreveu que a pressa da América em abraçar a IA é semelhante à busca de Oppenheimer pela bomba atômica. Parte desse medo e preocupação pode ser genuína, mas no final das contas, tudo é marketing.

Estamos no meio de um ciclo de hype em torno da IA. As empresas estão prometendo que ela pode oferecer retornos sem precedentes e destruir custos de mão de obra. As máquinas, dizem eles, em breve farão tudo por nós. A realidade é que a IA é útil, mas também basicamente transfere custos de mão de obra e produção para outras partes da cadeia onde o usuário final não vê.

O medo de que a IA se torne tão avançada que elimine a humanidade é apenas outro tipo de hype. O doomerismo sobre calculadoras de palavras e sistemas de modelagem preditiva é apenas outra maneira de entusiasmar as pessoas sobre as possibilidades dessa tecnologia e mascarar os reais danos que ela causa.

Em um recente evento da Tesla, bartenders robôs serviram drinks para os participantes. À primeira vista, pareciam ser controlados remotamente por humanos. LLMs consomem uma tonelada de água e eletricidade ao gerar respostas e frequentemente dependem da atenção sutil e constante de “treinadores” humanos que trabalham em países pobres e ganham uma miséria. Humanos usam a tecnologia para inundar a internet com imagens nuas criadas sem consentimento de outros humanos. Esses são apenas alguns dos danos do mundo real já causados pela rápida adoção da IA pelo Silicon Valley.

E enquanto você estiver com medo de que o Skynet ganhe vida e elimine a humanidade no futuro, você não estará prestando atenção aos problemas bem na sua frente. O Relógio do Juízo Final da Bulletin pode ser inescrutável na superfície, mas há um exército de mentes impressionantes por trás da metáfora trabalhando todos os dias sobre os reais riscos de armas nucleares e novas tecnologias.

Em setembro, o Bulletin colocou uma foto de Altman em um artigo desmentindo as alegações hiperbólicas sobre como a IA poderia ser usada para criar novas armas biológicas. “Por todo o doomerismo, na verdade há muitas incertezas sobre como a IA afetará as armas biológicas e a arena mais ampla de biossegurança,” dizia o artigo.

Ele também enfatizou que falar de cenários extremos em torno da IA ajuda as pessoas a evitar conversas mais difíceis. “O desafio, assim como tem sido por mais de duas décadas, é evitar a apatia e a hipérbole sobre os desenvolvimentos científicos e tecnológicos que impactam o desarmamento biológico e os esforços para manter armas biológicas fora dos planos de guerra e arsenais de atores violentos,” disse o Bulletin. “Debates sobre IA absorvem atenção de alto nível e comunitária e… eles arriscam um foco de ameaça excessivamente estreito que perde de vista outros riscos e oportunidades.”

Há dezenas de artigos como esse publicados todos os anos pelas pessoas que administram o Relógio do Juízo Final. O relógio de IA da Suíça não tem esse respaldo científico, embora afirme estar monitorando esses artigos em seu FAQ.

O que ele tem, em vez disso, é dinheiro da Arábia Saudita. A posição de Wade na escola é possível graças ao financiamento da TONOMUS, uma subsidiária da NEOM. A NEOM é a tão badalada cidade do futuro da Arábia Saudita que está tentando construir no deserto. Entre as outras promessas da NEOM estão dinossauros robôs, carros voadores e uma enorme lua artificial.

Você me perdoará se eu não levar Wade ou o Relógio de Segurança da IA a sério.

Fonte

Compartilhe esse conteúdo: