Silicon Valley assusta os defensores da segurança da IA

Líderes do Vale do Silício, incluindo o Czar de IA e Cripto da Casa Branca, David Sacks, e o Diretor de Estratégia da OpenAI, Jason Kwon, causaram agitação online esta semana por seus comentários sobre grupos que promovem a segurança da IA. Em instâncias separadas, eles alegaram que certos defensores da segurança da IA não são tão virtuosos quanto parecem e estão agindo em interesse próprio ou de bilionários que os controlam nos bastidores.

Grupos de segurança da IA que conversaram com o TechCrunch afirmam que as alegações de Sacks e OpenAI são a mais recente tentativa do Vale do Silício de intimidar seus críticos, mas certamente não é a primeira. Em 2024, algumas empresas de capital de risco espalharam rumores de que um projeto de lei da Califórnia sobre segurança da IA, o SB 1047, enviaria fundadores de startups para a prisão. O Brookings Institution rotulou o rumor como uma das muitas “desinformações” sobre o projeto de lei, mas o governador Gavin Newsom acabou vetando-o de qualquer maneira.

Se Sacks e OpenAI pretendiam ou não intimidar os críticos, suas ações assustaram suficientemente vários defensores da segurança da IA. Muitos líderes de organizações sem fins lucrativos que o TechCrunch contatou na última semana pediram para falar sob condição de anonimato para poupar seus grupos de retaliação.

A controvérsia destaca a crescente tensão no Vale do Silício entre construir a IA de forma responsável e construí-la para ser um enorme produto de consumo — um tema que meus colegas Kirsten Korosec, Anthony Ha e eu exploramos no podcast Equity desta semana. Também mergulhamos em uma nova lei de segurança da IA aprovada na Califórnia para regular chatbots e a abordagem da OpenAI em relação à erotica no ChatGPT.

Na terça-feira, Sacks escreveu uma postagem no X alegando que a Anthropic — que levantou preocupações sobre a capacidade da IA de contribuir para o desemprego, ciberataques e danos catastróficos à sociedade — está simplesmente criando medo para conseguir leis que a beneficiem e afogar startups menores em burocracia. A Anthropic foi o único grande laboratório de IA a apoiar o Projeto de Lei do Senado da Califórnia 53 (SB 53), um projeto de lei que estabelece requisitos de relatórios de segurança para grandes empresas de IA, que foi assinado como lei no mês passado.

Sacks estava respondendo a um ensaio viral do cofundador da Anthropic, Jack Clark, sobre seus medos em relação à IA. Clark apresentou o ensaio como um discurso na conferência de segurança da IA Curve em Berkeley semanas antes. Sentado na audiência, certamente parecia um relato genuíno das reservas de um tecnólogo sobre seus produtos, mas Sacks não viu dessa forma.

Sacks afirmou que a Anthropic está executando uma “estratégia sofisticada de captura regulatória” baseada na criação de medo. É importante notar que uma estratégia verdadeiramente sofisticada provavelmente não envolveria fazer inimigos do governo federal. Em uma postagem de acompanhamento no X, Sacks observou que a Anthropic se posicionou “consistentemente como um inimigo da administração Trump”.

Também esta semana, o diretor de estratégia da OpenAI, Jason Kwon, escreveu uma postagem no X explicando por que a empresa estava enviando intimações a organizações sem fins lucrativos de segurança da IA, como a Encode, uma organização sem fins lucrativos que defende políticas de IA responsáveis. (Uma intimação é uma ordem legal exigindo documentos ou testemunhos.) Kwon afirmou que, após Elon Musk processar a OpenAI — devido a preocupações de que a criadora do ChatGPT se desviou de sua missão sem fins lucrativos — a OpenAI achou suspeito como várias organizações também levantaram oposição à sua reestruturação. A Encode apresentou um parecer amigo da corte em apoio ao processo de Musk, e outras organizações sem fins lucrativos se manifestaram publicamente contra a reestruturação da OpenAI.

“Isso levantou questões de transparência sobre quem os financiava e se havia alguma coordenação”, disse Kwon. O NBC News informou esta semana que a OpenAI enviou intimações amplas à Encode e a outras seis organizações sem fins lucrativos que criticaram a empresa, solicitando suas comunicações relacionadas a dois dos maiores oponentes da OpenAI, Musk e o CEO da Meta, Mark Zuckerberg. A OpenAI também pediu à Encode comunicações relacionadas ao seu apoio ao SB 53.

Um proeminente líder de segurança da IA disse ao TechCrunch que há uma divisão crescente entre a equipe de assuntos governamentais da OpenAI e sua organização de pesquisa. Enquanto os pesquisadores de segurança da OpenAI frequentemente publicam relatórios divulgando os riscos dos sistemas de IA, a unidade de políticas da OpenAI fez lobby contra o SB 53, dizendo que preferiria ter regras uniformes em nível federal.

O chefe de alinhamento de missão da OpenAI, Joshua Achiam, se manifestou sobre o envio de intimações a organizações sem fins lucrativos em uma postagem no X esta semana. “Em risco possivelmente de toda a minha carreira, direi: isso não parece bom”, disse Achiam. Brendan Steinhauser, CEO da organização sem fins lucrativos de segurança da IA, Alliance for Secure AI (que não foi intimada pela OpenAI), disse ao TechCrunch que a OpenAI parece convencida de que seus críticos fazem parte de uma conspiração liderada por Musk. No entanto, ele argumenta que não é o caso e que grande parte da comunidade de segurança da IA é bastante crítica das práticas de segurança da xAI, ou a falta delas.

“Por parte da OpenAI, isso é destinado a silenciar críticos, intimidá-los e dissuadir outras organizações sem fins lucrativos de fazer o mesmo”, disse Steinhauser. “Para Sacks, acho que ele está preocupado que o movimento [de segurança da IA] esteja crescendo e que as pessoas queiram responsabilizar essas empresas.” Sriram Krishnan, conselheiro sênior de políticas de IA da Casa Branca e ex-parceiro da a16z, comentou sobre a conversa esta semana com uma postagem nas redes sociais, chamando os defensores da segurança da IA de desconectados. Ele instou as organizações de segurança da IA a conversar com “pessoas no mundo real usando, vendendo, adotando IA em suas casas e organizações.” Um estudo recente do Pew descobriu que cerca da metade dos americanos está mais preocupada do que animada com a IA, mas não está claro o que exatamente os preocupa. Outro estudo recente detalhou mais e descobriu que os eleitores americanos se preocupam mais com a perda de empregos e deepfakes do que com os riscos catastróficos causados pela IA, que é o foco principal do movimento de segurança da IA.

Abordar essas preocupações de segurança pode vir às custas do crescimento rápido da indústria de IA — um compromisso que preocupa muitos no Vale do Silício. Com o investimento em IA sustentando grande parte da economia americana, o medo de uma superregulamentação é compreensível.

Mas, após anos de progresso em IA não regulamentado, o movimento de segurança da IA parece estar ganhando um verdadeiro ímpeto à medida que se aproxima 2026. As tentativas do Vale do Silício de combater grupos focados na segurança podem ser um sinal de que eles estão funcionando.

Fonte

Compartilhe esse conteúdo: