Oi, pessoal, bem-vindos ao boletim regular de IA do TechCrunch. Se você quiser isso na sua caixa de entrada toda quarta-feira, inscreva-se aqui.
Você pode ter notado que pulamos o boletim na semana passada. A razão? Um ciclo de notícias caótico sobre IA, ainda mais pandemonioso pela súbita ascensão da empresa chinesa de IA DeepSeek e a resposta de praticamente todos os setores da indústria e do governo.
Felizmente, estamos de volta ao ritmo — e não um momento muito cedo, considerando os desenvolvimentos noticiosos do último fim de semana da OpenAI.
O CEO da OpenAI, Sam Altman, fez uma parada em Tóquio para ter uma conversa no palco com Masayoshi Son, o CEO do conglomerado japonês SoftBank. O SoftBank é um grande investidor e parceiro da OpenAI, tendo se comprometido a ajudar a financiar o enorme projeto de infraestrutura de data centers da OpenAI nos EUA.
Portanto, Altman provavelmente sentiu que devia a Son algumas horas do seu tempo.
Sobre o que os dois bilionários conversaram? Muito sobre abstrair trabalho por meio de “agentes” de IA, segundo relatos de segunda mão. Son disse que sua empresa gastaria US$ 3 bilhões por ano em produtos da OpenAI e que se juntaria à OpenAI para desenvolver uma plataforma, “Cristal [sic] Intelligence”, com o objetivo de automatizar milhões de fluxos de trabalho tradicionalmente de colarinho branco.
“Automatizando e autonomizando todas as suas tarefas e fluxos de trabalho, a SoftBank Corp. transformará seus negócios e serviços e criará novo valor”, disse o SoftBank em um comunicado à imprensa na segunda-feira.
Eu pergunto, porém, o que o humilde trabalhador deve pensar sobre toda essa automação e autonomização?
Assim como Sebastian Siemiatkowski, o CEO da fintech Klarna, que frequentemente se gaba de que a IA está substituindo humanos, Son parece ter a opinião de que substitutos agentes para trabalhadores só podem precipitar uma riqueza fabulosa. O custo da abundância é deixado de lado. Se a automação generalizada de empregos se concretizar, o desemprego em uma escala enorme parece ser o resultado mais provável.
É desanimador que aqueles que estão na vanguarda da corrida de IA — empresas como a OpenAI e investidores como o SoftBank — escolham passar conferências de imprensa pintando um quadro de corporações automatizadas com menos trabalhadores na folha de pagamento. Eles são negócios, é claro — não instituições de caridade. E o desenvolvimento de IA não é barato. Mas talvez as pessoas confiassem mais na IA se aqueles que guiam sua implementação mostrassem um pouco mais de preocupação com seu bem-estar.
Uma reflexão.
Notícias
Pesquisa profunda: A OpenAI lançou um novo “agente” de IA projetado para ajudar as pessoas a conduzir pesquisas complexas e aprofundadas usando o ChatGPT, a plataforma de chatbot alimentada por IA da empresa.
O3-mini: Em outras notícias da OpenAI, a empresa lançou um novo modelo de “raciocínio”, o o3-mini, após uma prévia em dezembro passado. Não é o modelo mais poderoso da OpenAI, mas o o3-mini possui eficiência e velocidade de resposta melhoradas.
UE proíbe IA arriscada: A partir de domingo na União Europeia, os reguladores do bloco podem proibir o uso de sistemas de IA que considerem “risco inaceitável” ou prejudicial. Isso inclui IA usada para pontuação social e publicidade subliminar.
Uma peça sobre a cultura dos “doomsters” de IA: Há uma nova peça sobre a cultura dos “doomsters” de IA, vagamente baseada na demissão de Sam Altman como CEO da OpenAI em novembro de 2023. Meus colegas Dominic e Rebecca compartilham suas opiniões após assistirem à estreia.
Tecnologia para aumentar a produção agrícola: A “fábrica de lua” do Google X anunciou esta semana sua mais recente graduação. A Agricultura Hereditária é uma startup impulsionada por dados e aprendizado de máquina que visa melhorar como as colheitas são cultivadas.
Artigo de pesquisa da semana
Modelos de raciocínio são melhores do que sua média de IA para resolver problemas, especialmente consultas relacionadas a ciências e matemática. Mas eles não são uma solução mágica.
Um novo estudo de pesquisadores da empresa chinesa Tencent investiga a questão do “subpensamento” em modelos de raciocínio, onde os modelos abandonam prematuramente e inexplicavelmente cadeias de raciocínio potencialmente promissoras. De acordo com os resultados do estudo, padrões de “subpensamento” tendem a ocorrer com mais frequência em problemas mais difíceis, levando os modelos a alternar entre cadeias de raciocínio sem chegar a respostas.
A equipe propõe uma solução que emprega uma “penalidade de troca de pensamento” para incentivar os modelos a “desenvolverem completamente” cada linha de raciocínio antes de considerar alternativas, aumentando a precisão dos modelos.
Modelo da semana
Uma equipe de pesquisadores apoiada pelo proprietário do TikTok, ByteDance, pela empresa chinesa de IA Moonshot e outros lançou um novo modelo aberto capaz de gerar músicas de qualidade relativamente alta a partir de prompts.
O modelo, chamado YuE, pode produzir uma música de até alguns minutos de duração, completa com vocais e acompanhamentos. Está sob uma licença Apache 2.0, o que significa que o modelo pode ser usado comercialmente sem restrições.
No entanto, há desvantagens. Executar o YuE requer uma GPU potente; gerar uma música de 30 segundos leva seis minutos com uma Nvidia RTX 4090. Além disso, não está claro se o modelo foi treinado usando dados protegidos por direitos autorais; seus criadores não disseram. Se for comprovado que músicas protegidas por direitos autorais estavam de fato no conjunto de treinamento do modelo, os usuários poderiam enfrentar futuros desafios de propriedade intelectual.
Mistura
O laboratório de IA Anthropic afirma que desenvolveu uma técnica para defender de maneira mais confiável contra “jailbreaks” de IA, os métodos que podem ser usados para contornar as medidas de segurança de um sistema de IA.
A técnica, Classificadores Constitucionais, depende de dois conjuntos de modelos de IA “classificadores”: um classificador de “entrada” e um classificador de “saída”. O classificador de entrada anexa prompts a um modelo protegido com templates descrevendo jailbreaks e outros conteúdos não permitidos, enquanto o classificador de saída calcula a probabilidade de que uma resposta de um modelo discuta informações prejudiciais.
A Anthropic afirma que os Classificadores Constitucionais podem filtrar a “maioria esmagadora” dos jailbreaks. No entanto, isso tem um custo. Cada consulta é 25% mais exigente em termos computacionais, e o modelo protegido é 0,38% menos provável de responder a perguntas inócuas.