O CEO da Meta, Mark Zuckerberg, prometeu tornar a inteligência artificial geral (AGI) — que é definida grosso modo como IA que pode realizar qualquer tarefa que um humano possa — disponível publicamente um dia. Mas em um novo documento político, a Meta sugere que existem certos cenários nos quais pode não lançar um sistema de IA altamente capaz que desenvolveu internamente.
O documento, que a Meta está chamando de seu Frontier AI Framework, identifica dois tipos de sistemas de IA que a empresa considera muito arriscados para serem lançados: sistemas de ‘alto risco’ e sistemas de ‘risco crítico’.
Conforme a Meta os define, tanto os sistemas de ‘alto risco’ quanto os de ‘risco crítico’ são capazes de auxiliar em cibersegurança, ataques químicos e biológicos, a diferença sendo que os sistemas de ‘risco crítico’ poderiam resultar em um ‘resultado catastrófico que não pode ser mitigado no contexto de implantação proposto.’ Sistemas de alto risco, por outro lado, podem facilitar um ataque, mas não de forma tão confiável ou dependente quanto um sistema de risco crítico.
De que tipo de ataques estamos falando aqui? A Meta fornece alguns exemplos, como a ‘comprometimento automatizado de ponta a ponta de um ambiente corporativo protegido por melhores práticas’ e a ‘proliferação de armas biológicas de alto impacto.’ A lista de possíveis catástrofes no documento da Meta está longe de ser exaustiva, reconhece a empresa, mas inclui aquelas que a Meta acredita serem ‘as mais urgentes’ e plausíveis de surgir como resultado direto do lançamento de um poderoso sistema de IA.
É um tanto surpreendente que, de acordo com o documento, a Meta classifique o risco do sistema não com base em um único teste empírico, mas informado pela contribuição de pesquisadores internos e externos que são sujeitos a revisão por ‘decisores de alto nível.’ Por quê? A Meta diz que não acredita que a ciência da avaliação seja ‘suficientemente robusta para fornecer métricas quantitativas definitivas’ para decidir a perigosidade de um sistema.
Se a Meta determinar que um sistema é de alto risco, a empresa diz que vai limitar o acesso ao sistema internamente e não o lançará até que implemente mitigação para ‘reduzir o risco a níveis moderados.’ Se, por outro lado, um sistema for considerado de risco crítico, a Meta afirma que implementará proteções de segurança não especificadas para prevenir que o sistema seja exfiltrado e parará o desenvolvimento até que o sistema possa ser tornado menos perigoso.
O Frontier AI Framework da Meta, que a empresa diz que vai evoluir com o panorama em mudança da IA, parece ser uma resposta à crítica da abordagem ‘aberta’ da empresa no desenvolvimento de sistemas. A Meta adotou uma estratégia de tornar sua tecnologia de IA amplamente disponível — embora não open source na definição comumente compreendida — em contraste com empresas como a OpenAI, que optam por restringir seus sistemas por meio de uma API.
Para a Meta, a abordagem de liberação aberta tem se mostrado uma bênção e uma maldição. A família de modelos de IA da empresa, chamada Llama, acumulou centenas de milhões de downloads. Mas a Llama também foi supostamente utilizada por pelo menos um adversário dos EUA para desenvolver um chatbot de defesa.
Ao publicar seu Frontier AI Framework, a Meta pode também estar tentando contrastar sua estratégia de IA aberta com a da empresa de IA chinesa DeepSeek. A DeepSeek também torna seus sistemas amplamente disponíveis. Mas a IA da empresa tem poucas salvaguardas e pode ser facilmente direcionada para gerar saídas tóxicas e prejudiciais.
‘[Acreditamos que ao considerar tanto os benefícios quanto os riscos ao tomar decisões sobre como desenvolver e implantar IA avançada,’ escreve a Meta no documento, ‘é possível entregar essa tecnologia à sociedade de uma maneira que preserve os benefícios dessa tecnologia para a sociedade enquanto também mantém um nível apropriado de risco.]’