Por que as empresas de IA estão abandonando o doomerismo

No episódio de hoje do Decoder, vamos tentar entender o “deus digital”. Eu pensei que já estamos fazendo isso há tempo suficiente, vamos direto ao ponto. Podemos construir uma inteligência artificial tão poderosa que muda o mundo e responde a todas as nossas perguntas? A indústria de IA decidiu que a resposta é sim.

Em setembro, Sam Altman, da OpenAI, publicou um post no blog afirmando que teremos IA superinteligente em “alguns milhares de dias”. E no início deste mês, Dario Amodei, CEO da concorrente da OpenAI, Anthropic, publicou um texto de 14.000 palavras detalhando o que exatamente ele acredita que tal sistema será capaz de fazer quando chegar, o que ele diz que pode ser tão cedo quanto 2026.

O que é fascinante é que as visões apresentadas em ambos os posts são tão semelhantes — ambas prometem uma IA superinteligente dramática que trará melhorias massivas ao trabalho, à ciência e à saúde, e até mesmo à democracia e à prosperidade. Deus digital, baby.

Mas enquanto as visões são semelhantes, as empresas estão, de muitas maneiras, abertamente opostas: Anthropic é a história original da saída da OpenAI. Dario e um grupo de pesquisadores deixaram a OpenAI em 2021 após se preocuparem com sua direção comercial crescente e abordagem de segurança, e criaram a Anthropic para ser uma empresa de IA mais segura e lenta. E a ênfase estava realmente na segurança até recentemente; apenas no ano passado, um grande perfil do New York Times da empresa a chamou de “o centro ardente do doomerismo da IA”.

Mas o lançamento do ChatGPT e a explosão da IA generativa que se seguiu desencadearam uma colossal corrida armamentista tecnológica, e agora, a Anthropic está tão envolvida no jogo quanto qualquer um. Ela recebeu bilhões em financiamento, principalmente da Amazon, e construiu Claude, um chatbot e modelo de linguagem para rivalizar com o GPT-4 da OpenAI. Agora, Dario está escrevendo longos posts no blog sobre como espalhar a democracia com a IA.

Então, o que está acontecendo aqui? Por que o chefe da Anthropic de repente está falando tão otimista sobre a IA, quando ele era anteriormente conhecido por ser a alternativa mais segura e lenta à OpenAI que avança a qualquer custo? Isso é apenas mais um exagero da IA para atrair investidores? E se a AGI realmente está logo ali, como estamos medindo o que isso significa para ser seguro?

Fonte

Compartilhe esse conteúdo: