Miles Brundage, conselheiro sênior da OpenAI para a prontidão da AGI (ou inteligência artificial em nível humano), fez um alerta contundente ao anunciar sua saída na quarta-feira: ninguém está preparado para a inteligência geral artificial, incluindo a própria OpenAI.
“Nem a OpenAI nem qualquer outro laboratório de fronteira está pronto [para a AGI], e o mundo também não está pronto”, escreveu Brundage, que passou seis anos ajudando a moldar as iniciativas de segurança da empresa. “Para ser claro, não acho que esta seja uma declaração controversa entre a liderança da OpenAI, e notavelmente, essa é uma questão diferente de saber se a empresa e o mundo estão a caminho de estar prontos no momento relevante.”
Sua saída marca o mais recente de uma série de saídas de alto perfil das equipes de segurança da OpenAI. Jan Leike, um pesquisador proeminente, saiu após afirmar que “a cultura e os processos de segurança ficaram em segundo plano em relação a produtos chamativos”. O cofundador Ilya Sutskever também saiu para lançar sua própria startup de IA focada no desenvolvimento seguro de AGI.
A dissolução da equipe de “Prontidão para AGI” de Brundage, que ocorre apenas alguns meses após a empresa ter dissolvido sua equipe “Superalignment” dedicada à mitigação de riscos de IA a longo prazo, destaca as crescentes tensões entre a missão original da OpenAI e suas ambições comerciais. A empresa enfrenta pressão para transitar de uma organização sem fins lucrativos para uma corporação de benefício público com fins lucrativos dentro de dois anos — ou arriscar devolver fundos de sua recente rodada de investimento de $6,6 bilhões. Essa mudança em direção à comercialização sempre preocupou Brundage, que expressou reservas em 2019 quando a OpenAI estabeleceu pela primeira vez sua divisão com fins lucrativos.
Ao explicar sua saída, Brundage citou restrições crescentes à sua liberdade de pesquisa e publicação na empresa de alto perfil. Ele enfatizou a necessidade de vozes independentes nas discussões sobre políticas de IA, livres de preconceitos e conflitos de interesse da indústria. Depois de aconselhar a liderança da OpenAI sobre a preparação interna, ele acredita que agora pode ter um impacto maior na governança global da IA fora da organização.
Essa saída também pode refletir uma divisão cultural mais profunda dentro da OpenAI. Muitos pesquisadores se juntaram para avançar na pesquisa de IA e agora se encontram em um ambiente cada vez mais voltado para produtos. A alocação de recursos internos se tornou um ponto de discórdia — relatos indicam que a equipe de Leike foi negada em poder computacional para pesquisa de segurança antes de sua eventual dissolução.
Apesar dessas fricções, Brundage observou que a OpenAI ofereceu apoio ao seu trabalho futuro com financiamento, créditos de API e acesso antecipado a modelos, sem cobranças.