Há finalmente uma definição “oficial” de IA de código aberto.
A Open Source Initiative (OSI), uma instituição de longa data que visa definir e “administrar” tudo que é de código aberto, lançou hoje a versão 1.0 de sua Definição de IA de Código Aberto (OSAID). O produto de vários anos de colaboração com a academia e a indústria, a OSAID tem como objetivo oferecer um padrão pelo qual qualquer um pode determinar se a IA é de código aberto — ou não.
Você pode estar se perguntando — como este repórter estava — por que o consenso é importante para uma definição de IA de código aberto. Bem, uma grande motivação é fazer com que os formuladores de políticas e os desenvolvedores de IA estejam na mesma página, disse o EVP da OSI, Stefano Maffulli.
“Os reguladores já estão observando o espaço”, disse Maffulli ao TechCrunch, observando que órgãos como a Comissão Europeia buscaram dar reconhecimento especial ao código aberto. “Fizemos um contato explícito com um conjunto diversificado de partes interessadas e comunidades — não apenas os suspeitos habituais da tecnologia. Nós até tentamos entrar em contato com as organizações que mais frequentemente falam com os reguladores para obter seu feedback inicial.”
Para ser considerado de código aberto sob a OSAID, um modelo de IA deve fornecer informações suficientes sobre seu design para que uma pessoa possa “substancialmente” recriá-lo. O modelo também deve divulgar quaisquer detalhes pertinentes sobre seus dados de treinamento, incluindo a proveniência, como os dados foram processados e como podem ser obtidos ou licenciados.
“Uma IA de código aberto é um modelo de IA que permite que você entenda completamente como foi construído”, disse Maffulli. “Isso significa que você tem acesso a todos os componentes, como o código completo usado para treinamento e filtragem de dados.”
A OSAID também estabelece os direitos de uso que os desenvolvedores devem esperar com a IA de código aberto, como a liberdade de usar o modelo para qualquer propósito e modificá-lo sem precisar pedir permissão a ninguém. “Mais importante, você deve ser capaz de construir em cima”, acrescentou Maffulli.
A OSI não possui mecanismos de aplicação a serem falados. Não pode pressionar os desenvolvedores a cumprir ou seguir a OSAID. Mas pretende sinalizar modelos descritos como “código aberto” que não atendem à definição.
“Nossa esperança é que, quando alguém tentar abusar do termo, a comunidade de IA diga: ‘Não reconhecemos isso como código aberto’ e isso seja corrigido”, disse Maffulli. Historicamente, isso teve resultados mistos, mas não é totalmente sem efeito.
Muitas startups e grandes empresas de tecnologia, mais proeminentemente a Meta, empregaram o termo “código aberto” para descrever suas estratégias de liberação de modelos de IA — mas poucos atendem aos critérios da OSAID. Por exemplo, a Meta exige que plataformas com mais de 700 milhões de usuários ativos mensais solicitem uma licença especial para usar seus modelos Llama.
Maffulli tem sido abertamente crítico da decisão da Meta de chamar seus modelos de “código aberto”. Após discussões com a OSI, o Google e a Microsoft concordaram em abandonar o uso do termo para modelos que não são totalmente abertos, mas a Meta não fez isso, disse ele.
A Stability AI, que há muito anuncia seus modelos como “abertos”, exige que empresas que geram mais de $1 milhão em receita obtenham uma licença empresarial. E a licença da nova empresa de IA francesa Mistral proíbe o uso de certos modelos e saídas para empreendimentos comerciais.
Um estudo em agosto passado realizado por pesquisadores da Signal Foundation, do Instituto AI Now sem fins lucrativos e da Carnegie Mellon descobriu que muitos modelos “de código aberto” são basicamente de código aberto apenas de nome. Os dados necessários para treinar os modelos são mantidos em segredo, o poder computacional necessário para executá-los está além do alcance de muitos desenvolvedores, e as técnicas para ajustá-los são intimidadoras.
Em vez de democratizar a IA, esses projetos “de código aberto” tendem a consolidar e expandir o poder centralizado, concluíram os autores do estudo. De fato, os modelos Llama da Meta acumularam centenas de milhões de downloads, e a Stability afirma que seus modelos alimentam até 80% de todas as imagens geradas por IA.
Opiniões divergentes
A Meta discorda dessa avaliação, não surpreendentemente — e contesta a OSAID como escrita (apesar de ter participado do processo de redação). Um porta-voz defendeu a licença da empresa para Llama, argumentando que os termos — e a política de uso aceitável que a acompanha — atuam como barreiras contra implantações prejudiciais.
A Meta também disse que está adotando uma “abordagem cautelosa” para compartilhar detalhes do modelo, incluindo detalhes sobre dados de treinamento, à medida que regulamentações como a lei de transparência de treinamento da Califórnia evoluem.
“Concordamos com nosso parceiro, a OSI, em muitas coisas, mas nós, como outros em toda a indústria, discordamos de sua nova definição”, disse o porta-voz. “Não há uma única definição de IA de código aberto, e defini-la é um desafio porque as definições anteriores de código aberto não abrangem as complexidades dos modelos de IA que avançam rapidamente hoje. Nós tornamos Llama gratuito e abertamente disponível, e nossa licença e política de uso aceitável ajudam a manter as pessoas seguras, tendo algumas restrições em vigor. Continuaremos trabalhando com a OSI e outros grupos da indústria para tornar a IA mais acessível e livre de forma responsável, independentemente das definições técnicas.”
O porta-voz apontou para outros esforços para codificar IA “de código aberto”, como as definições sugeridas pela Linux Foundation, os critérios da Free Software Foundation para “aplicações de aprendizado de máquina livres” e propostas de outros pesquisadores de IA.
A Meta, incongruente o suficiente, é uma das empresas que financiam o trabalho da OSI — junto com gigantes da tecnologia como Amazon, Google, Microsoft, Cisco, Intel e Salesforce. (A OSI recentemente garantiu uma concessão da fundação sem fins lucrativos Sloan para diminuir sua dependência de apoiadores da indústria de tecnologia.)
A relutância da Meta em revelar dados de treinamento provavelmente está relacionada à forma como seus — e a maioria — modelos de IA são desenvolvidos.
As empresas de IA coletam vastas quantidades de imagens, áudios, vídeos e mais de redes sociais e sites, e treinam seus modelos com esses “dados disponíveis publicamente”, como costuma ser chamado. No mercado competitivo de hoje, os métodos de uma empresa para montar e refinar conjuntos de dados são considerados uma vantagem competitiva, e as empresas citam isso como uma das principais razões para seu sigilo.
Mas os detalhes dos dados de treinamento também podem colocar um alvo legal nas costas dos desenvolvedores. Autores e editores afirmam que a Meta usou livros protegidos por direitos autorais para treinamento. Artistas processaram a Stability por coletar seu trabalho e reproduzi-lo sem crédito, um ato que eles comparam a roubo.
Não é difícil ver como a OSAID poderia ser problemática para empresas que tentam resolver processos judiciais de forma favorável, especialmente se os demandantes e juízes acharem a definição convincente o suficiente para usar em tribunal.
Questões em aberto
Alguns sugerem que a definição não vai longe o suficiente, por exemplo, em como lida com a licença de dados de treinamento proprietários. Luca Antiga, CEO da Lightning AI, aponta que um modelo pode atender a todos os requisitos da OSAID, apesar de o dado usado para treiná-lo não ser livremente disponível. É “aberto” se você tiver que pagar milhares para inspecionar os repositórios privados de imagens que os criadores do modelo pagaram para licenciar?
“Para ter valor prático, especialmente para empresas, qualquer definição de IA de código aberto precisa dar confiança razoável de que o que está sendo licenciado pode ser licenciado da maneira que uma organização está usando”, disse Antiga ao TechCrunch. “Ao negligenciar lidar com a licença de dados de treinamento, a OSI está deixando um buraco enorme que tornará os termos menos eficazes para determinar se os modelos de IA licenciados pela OSI podem ser adotados em situações do mundo real.”
Na versão 1.0 da OSAID, a OSI também não aborda o copyright em relação aos modelos de IA, e se conceder uma licença de copyright seria suficiente para garantir que um modelo satisfaça a definição de código aberto. Não está claro ainda se os modelos — ou componentes dos modelos — podem ser protegidos por direitos autorais sob a legislação atual de propriedade intelectual. Mas se os tribunais decidirem que podem, a OSI sugere que novos “instrumentos legais” podem ser necessários para abrir modelos protegidos por IP adequadamente.
Maffulli concordou que a definição precisará de atualizações — talvez mais cedo do que tarde. Para isso, a OSI estabeleceu um comitê que será responsável por monitorar como a OSAID é aplicada e propor emendas para versões futuras.
“Este não é o trabalho de gênios solitários em um porão”, disse ele. “É um trabalho que está sendo feito de forma aberta com amplos interessados e diferentes grupos de interesse.”