A guerra da IA da América com a China está se intensificando — ou pelo menos, a retórica em torno disso.
Na terça-feira, uma comissão do Congresso dos EUA propôs um esforço no estilo do “Projeto Manhattan” para financiar o desenvolvimento de sistemas de IA com inteligência em nível humano — ou super-humana.
Em seu relatório anual, a Comissão de Revisão Econômica e de Segurança EUA-China (USCC) recomendou que os formuladores de políticas autorizassem financiamento para “empresas líderes em IA, nuvem e centros de dados” e direcionassem o secretário de defesa dos EUA a garantir que o desenvolvimento de IA receba “prioridade nacional”.
“Vimos ao longo da história que países que são os primeiros a explorar períodos de rápida mudança tecnológica podem frequentemente causar mudanças no equilíbrio de poder global”, citou a Reuters o comissário da USCC, Jacob Helberg. “A China está correndo em direção à [superinteligência em IA]. … É crítico que a levemos extremamente a sério.”
A USCC, estabelecida pelo Congresso para fornecer recomendações sobre as relações EUA-China, tende a ser agressiva em suas propostas. Mas a comissão não está sozinha em defender ações mais agressivas para desacelerar as ambições tecnológicas da China.
A secretária de Comércio, Gina Raimondo, por exemplo, sugeriu que os EUA compartilhem tecnologia de IA com aliados estrangeiros para combater a ascensão da China. Funcionários do Departamento de Defesa, por sua vez, pediram salvaguardas para evitar o vazamento de tecnologia para a China por meio de centros de dados e fornecedores de chips no exterior.
Os EUA já adotaram uma série de políticas destinadas a conter o progresso da IA da China, incluindo proibições de exportação de infraestrutura de hardware e investimentos em tecnologia de IA na região. A China contornou algumas dessas. Mas os impactos foram palpáveis — e de longo alcance. Para dar um exemplo, o acesso da China aos chips mais sofisticados necessários para treinar IA, incluindo GPUs de próxima geração, foi completamente cortado.
E à luz disso, as declarações da USCC parecem um pouco exageradas.
Não está claro como seria uma IA superinteligente. Mas assumindo, por um momento, que envolve os chamados modelos de raciocínio, como algumas pessoas sugerem, os laboratórios chineses parecem estar atrasados, não na liderança. De acordo com uma análise, os modelos das principais empresas chinesas estão cerca de seis a nove meses atrás de seus homólogos dos EUA.
Devemos considerar a possibilidade de que as recomendações da USCC sejam de interesse próprio. Helberg é conselheiro sênior do CEO da Palantir, uma empresa com muitos contratos de defesa em IA. E, naturalmente, o financiamento do governo para IA beneficiaria as empresas de IA dos EUA.
Isso tudo para dizer que os apelos por um programa no estilo do Projeto Manhattan para IA superinteligente parecem mais alarmistas do que qualquer outra coisa.
Notícias
A IA no Ignite: A Microsoft anunciou uma série de produtos de IA durante o Microsoft Ignite 2024 na terça-feira, incluindo um clonador de voz e uma plataforma de desenvolvimento de IA chamada Azure AI Foundry.
Modo de Voz Avançado na web: A OpenAI expandiu o recurso Modo de Voz Avançado do ChatGPT para a web, permitindo que os usuários conversem com o chatbot de IA diretamente do navegador do desktop.
Agência de notícias indiana processa a OpenAI: Sobre a OpenAI, uma das maiores agências de notícias da Índia, a Asian News International, processou a startup em um caso que pode estabelecer precedentes sobre o uso de conteúdo noticioso protegido por direitos autorais.
Gemini ganha memória: O chatbot Gemini do Google agora pode lembrar informações sobre sua vida, trabalho e preferências pessoais durante as conversas.
Reino Unido aprova investimento na Anthropic: A Autoridade de Concorrência e Mercados do Reino Unido aprovou a parceria e investimento da Alphabet na rival de IA Anthropic, concluindo que não se qualifica para investigação sob as regras atuais de fusão.
Perplexity lança compras: O mecanismo de busca alimentado por IA Perplexity estreou um recurso que oferece recomendações de e-commerce, além da capacidade de fazer um pedido sem navegar até o site de um varejista. Parece que a Stripe está fazendo o trabalho pesado aqui, no entanto.
Altman se junta à equipe de SF: O prefeito eleito de São Francisco, Daniel Lurie, convocou o CEO da OpenAI, Sam Altman, para ajudar a dirigir sua equipe de transição. Juntamente com outros nove líderes de São Francisco, Altman fornecerá orientações à equipe de Lurie sobre maneiras de a cidade inovar.
Novos modelos da Mistral: A startup francesa de IA Mistral lançou novos produtos e ferramentas importantes esta semana, incluindo um recurso de “canvas” em sua plataforma de chatbot que permite aos usuários transformar e editar conteúdo, como maquetes da web.
Artigo de pesquisa da semana
O Instituto de Segurança em IA do Reino Unido, um órgão do governo do Reino Unido que estuda riscos em sistemas de IA, lançou seu primeiro artigo acadêmico, que propõe uma maneira para os desenvolvedores de IA demonstrarem que seus modelos não apresentam “riscos cibernéticos inaceitáveis”.
No artigo, os co-autores do Instituto de Segurança em IA observam que os “casos de segurança” — argumentos estruturados e fundamentados sobre por que os riscos associados a um modelo são aceitáveis — estão ganhando força. No entanto, não há uma metodologia de caso de segurança “prontamente disponível” para IA de fronteira.
Os co-autores propõem um modelo de caso de segurança focado em capacidades cibernéticas, que afirmam ter riscos de curto prazo bem estabelecidos. O modelo é projetado para informar decisões de implantação, dizem eles, incluindo se iniciar ou continuar o treinamento de um modelo.
“Este modelo serve como uma prova de conceito”, escreveram os co-autores. “Não garante segurança; algumas das alegações em nosso modelo podem não se sustentar na realidade, invalidando a conclusão. Ainda assim, esperamos que mesmo esses casos de segurança imperfeitos sirvam para aumentar o nível de rigor na análise sobre decisões de desenvolvimento ou implantação.”
Modelo da semana
Suno, a polêmica startup de música generativa, lançou seu mais recente modelo de geração de música hoje, Suno v4.
A Suno afirma que a v4, que está disponível apenas para os usuários pagantes da plataforma, oferece áudio mais nítido, melhores letras e estruturas de músicas “mais dinâmicas” do que seu antecessor, v3. A v4 da Suno agora alimenta o recurso Covers da empresa, que “reimagina” áudios enviados, e Personas, que captura as vocais, estilo e “vibe” de uma faixa e a transporta para outras criações.
É notável, de muitas maneiras, que a Suno esteja avançando, dado que foi processada por três grandes gravadoras que alegam infração de direitos autorais. A Sony Music Entertainment, a Universal Music Group e a Warner Music Group processaram a Suno e a empresa rival Udio neste verão, alegando que as duas treinaram seus modelos em música sem permissão.
Em suas respostas aos processos, a Suno e a Udio mais ou menos admitiram que seus modelos podem ter ingerido música protegida por direitos autorais durante o treinamento — mas argumentaram que a doutrina de uso justo sob a lei de direitos autorais dos EUA os protege.
Pacote de notícias
A HarperCollins assinou um contrato de licenciamento de dados de três anos com a Microsoft para permitir que o gigante da tecnologia treine sua IA nas obras de não ficção da editora.
A HarperCollins, cuja empresa-mãe, a News Corp., tem um acordo semelhante com a OpenAI, afirma que os autores terão que optar por participar e que o acordo cobre apenas “títulos selecionados de não ficção do catálogo anterior”.
Os autores não estão satisfeitos — e isso não ajudou que os pagamentos que a HarperCollins está oferecendo sejam irrisórios. Um autor, Daniel Kibblesmith, diz que foi oferecido um pagamento fixo de $2.500 por livro.
“Eu provavelmente faria isso por um bilhão de dólares”, escreveu Kibblesmith em uma postagem na terça-feira. “Eu faria isso por uma quantia de dinheiro que não exigiria que eu trabalhasse mais, já que esse é o objetivo final dessa tecnologia.”