O dilema do consertador: Chris Lehane e a missão impossível da OpenAI

Chris Lehane é um dos melhores do ramo em fazer notícias ruins desaparecerem. Secretário de imprensa de Al Gore durante os anos Clinton, gerente de crise da Airbnb em meio a cada pesadelo regulatório de aqui até Bruxelas – Lehane sabe como contornar. Agora, ele está há dois anos em que pode ser seu trabalho mais impossível até agora: como VP de política global da OpenAI, seu trabalho é convencer o mundo de que a OpenAI realmente se importa em democratizar a inteligência artificial enquanto a empresa se comporta cada vez mais como, bem, qualquer outro gigante da tecnologia que já alegou ser diferente.

Tive 20 minutos com ele no palco da conferência Elevate em Toronto na semana passada – 20 minutos para ir além dos pontos de conversa e entrar nas verdadeiras contradições que corroem a imagem cuidadosamente construída da OpenAI. Não foi fácil ou totalmente bem-sucedido. Lehane é genuinamente bom em seu trabalho. Ele é simpático. Ele soa razoável. Ele admite incertezas. Ele até fala sobre acordar às 3 da manhã preocupado se tudo isso realmente beneficiará a humanidade.

Mas boas intenções não significam muito quando sua empresa está convocando críticos, drenando cidades economicamente deprimidas de água e eletricidade, e trazendo celebridades mortas de volta à vida para afirmar seu domínio no mercado.

O problema da Sora da empresa está realmente na raiz de tudo o mais. A ferramenta de geração de vídeo lançada na semana passada com material protegido por direitos autorais aparentemente embutido. Foi uma jogada ousada para uma empresa que já está sendo processada pelo New York Times, pelo Toronto Star e pela metade da indústria editorial. Do ponto de vista comercial e de marketing, também foi brilhante. O aplicativo apenas por convite disparou para o topo da App Store enquanto as pessoas criavam versões digitais de si mesmas, do CEO da OpenAI, Sam Altman; personagens como Pikachu, Mario e Cartman de “South Park”; e celebridades mortas como Tupac Shakur.

Quando perguntei o que motivou a decisão da OpenAI de lançar esta nova versão da Sora com esses personagens, Lehane me deu o discurso padrão: a Sora é uma “tecnologia de propósito geral” como eletricidade ou a prensa de Gutenberg, democratizando a criatividade para pessoas sem talento ou recursos. Mesmo ele – um autodenominado zero criativo – pode fazer vídeos agora, disse ele no palco.

O que ele evitou é que a OpenAI inicialmente “deixou” os detentores de direitos optarem por não ter seu trabalho usado para treinar a Sora, o que não é como o uso de direitos autorais normalmente funciona. Então, depois que a OpenAI percebeu que as pessoas realmente gostavam de usar imagens protegidas por direitos autorais (claro que gostavam), ela “evoluiu” para um modelo de opt-in. Isso não é realmente iterar. Isso é testar até onde você pode ir. (E, a propósito, embora a Motion Picture Association tenha feito algum barulho na semana passada sobre ameaças legais, a OpenAI parece ter conseguido escapar com bastante coisa.)

Naturalmente, a situação traz à mente a frustração dos editores que acusam a OpenAI de treinar com seu trabalho sem compartilhar os lucros financeiros. Quando pressionei Lehane sobre os editores sendo cortados da economia, ele invocou o uso justo, aquela doutrina legal americana que deveria equilibrar os direitos dos criadores com o acesso público ao conhecimento. Ele a chamou de arma secreta da dominância tecnológica dos EUA.

Talvez. Mas eu havia entrevistado recentemente Al Gore – o antigo chefe de Lehane – e percebi que qualquer um poderia simplesmente perguntar ao ChatGPT sobre isso em vez de ler meu artigo na TechCrunch. “É ‘iterativo’”, eu disse, “mas também é um substituto.”

Pela primeira vez, Lehane deixou de lado seu discurso. “Todos nós vamos precisar descobrir isso”, disse ele. “É realmente fácil e superficial sentar aqui no palco e dizer que precisamos descobrir novos modelos de receita econômica. Mas eu acho que vamos.” (Estamos inventando isso enquanto vamos, em resumo.)

Então vem a questão da infraestrutura que ninguém quer responder honestamente. A OpenAI já está operando um campus de data center em Abilene, Texas, e recentemente começou a construção de um enorme data center em Lordstown, Ohio, em parceria com a Oracle e a SoftBank. Lehane comparou a acessibilidade à IA ao advento da eletricidade – dizendo que aqueles que a acessaram por último ainda estão tentando alcançar – no entanto, o projeto Stargate da OpenAI parece estar mirando alguns desses mesmos lugares economicamente desafiados como locais para estabelecer instalações com seus enormes apetites por água e eletricidade.

Perguntado durante nossa conversa se essas comunidades se beneficiarão ou apenas arcarão com a conta, Lehane foi para gigawatts e geopolítica. A OpenAI precisa de cerca de um gigawatt de energia por semana, ele observou. A China trouxe 450 gigawatts no ano passado, além de 33 usinas nucleares. Se as democracias querem IA democrática, elas têm que competir. “O otimista em mim diz que isso modernizará nossos sistemas de energia”, disse ele, pintando um quadro de uma América reindustrializada com redes de energia transformadas.

Foi inspirador. Mas não foi uma resposta sobre se as pessoas em Lordstown e Abilene vão ver suas contas de serviços públicos dispararem enquanto a OpenAI gera vídeos de John F. Kennedy e The Notorious B.I.G. (A geração de vídeo é a IA mais intensiva em energia que existe.)

O que me levou ao meu exemplo mais desconfortável. Zelda Williams passou o dia anterior à nossa entrevista implorando a estranhos no Instagram para parar de enviar vídeos gerados por IA de seu falecido pai, Robin Williams. “Você não está fazendo arte”, ela escreveu. “Você está fazendo cachorros-quentes nojentos e superprocessados a partir das vidas de seres humanos.”

Quando perguntei sobre como a empresa reconcilia esse tipo de dano íntimo com sua missão, Lehane respondeu falando sobre processos, incluindo design responsável, estruturas de teste e parcerias governamentais. “Não há um manual para essas coisas, certo?”

Lehane mostrou vulnerabilidade em alguns momentos, dizendo que acorda às 3 da manhã todas as noites, preocupado com democratização, geopolítica e infraestrutura. “Há enormes responsabilidades que vêm com isso.”

Se esses momentos foram ou não projetados para o público, eu acredito nele. De fato, saí de Toronto pensando que assisti a uma aula magistral em mensagens políticas – Lehane costurando uma agulha impossível enquanto desviava de perguntas sobre decisões da empresa que, pelo que sei, ele nem concorda. Então, na sexta-feira, aconteceu.

Nathan Calvin, um advogado que trabalha em política de IA em uma organização de defesa sem fins lucrativos, Encode AI, revelou que, ao mesmo tempo em que eu falava com Lehane em Toronto, a OpenAI havia enviado um deputado do xerife à sua casa em Washington, D.C., durante o jantar para lhe entregar uma intimação. Eles queriam suas mensagens privadas com legisladores da Califórnia, estudantes universitários e ex-funcionários da OpenAI.

Calvin está acusando a OpenAI de táticas de intimidação em torno de um novo projeto de regulação de IA, o SB 53 da Califórnia. Ele diz que a empresa armou sua batalha legal com Elon Musk como pretexto para atacar críticos, implicando que a Encode era secretamente financiada por Musk. Na verdade, Calvin diz que lutou contra a oposição da OpenAI ao SB 53 da Califórnia, um projeto de lei de segurança de IA, e que, quando viu a empresa afirmar que “trabalhou para melhorar o projeto de lei”, ele “literalmente riu alto.” Em uma sequência de mídia social, ele passou a chamar Lehane especificamente de “mestre das artes políticas obscuras.”

Em Washington, isso pode ser um elogio. Em uma empresa como a OpenAI cuja missão é “construir IA que beneficie toda a humanidade”, soa como uma acusação.

O que importa muito mais é que até mesmo as próprias pessoas da OpenAI estão conflitantes sobre o que estão se tornando.

Como meu colega Max relatou na semana passada, vários funcionários atuais e antigos foram às redes sociais após o lançamento da Sora 2, expressando suas preocupações, incluindo Boaz Barak, um pesquisador da OpenAI e professor de Harvard, que escreveu sobre a Sora 2 que é “tecnicamente incrível, mas é prematuro nos congratularmos por evitar as armadilhas de outros aplicativos de mídia social e deepfakes.”

Na sexta-feira, Josh Achiam – chefe de alinhamento de missão da OpenAI – tweetou algo ainda mais notável sobre a acusação de Calvin. Precedendo seus comentários dizendo que eram “possivelmente um risco para toda a minha carreira,” Achiam passou a escrever sobre a OpenAI: “Não podemos fazer coisas que nos transformem em um poder assustador em vez de um virtuoso. Temos um dever e uma missão para toda a humanidade. A barra para perseguir esse dever é notavelmente alta.”

Isso é… algo. Um executivo da OpenAI questionando publicamente se sua empresa está se tornando “um poder assustador em vez de um virtuoso” não é comparável a um concorrente atacando ou um repórter fazendo perguntas. Esta é alguém que escolheu trabalhar na OpenAI, que acredita em sua missão, e que agora está reconhecendo uma crise de consciência apesar do risco profissional.

É um momento cristalizador. Você pode ser o melhor operador político da tecnologia, um mestre em navegar situações impossíveis, e ainda acabar trabalhando para uma empresa cujas ações cada vez mais conflitam com seus valores declarados – contradições que podem apenas se intensificar à medida que a OpenAI avança em direção à inteligência geral artificial.

Isso me faz pensar que a verdadeira questão não é se Chris Lehane pode vender a missão da OpenAI. É se outros – incluindo, criticamente, as outras pessoas que trabalham lá – ainda acreditam nela.

Fonte

Compartilhe esse conteúdo: