Especialistas em IA Pedem Urgentemente que os Governos Pensem em Talvez Fazer Algo

Todo mundo parece reconhecer o fato de que a inteligência artificial é uma tecnologia em rápida evolução e emergente que tem o potencial para imensos danos se operada sem salvaguardas, mas basicamente ninguém (exceto pela União Europeia, de certa forma) consegue concordar sobre como regulá-la. Então, em vez de tentar estabelecer um caminho claro e estreito para permitir que a IA opere, os especialistas na área optaram por uma nova abordagem: que tal apenas descobrir quais exemplos extremos todos nós achamos ruins e simplesmente concordar com isso?

Na segunda-feira, um grupo de políticos, cientistas e acadêmicos se dirigiu à Assembleia Geral das Nações Unidas para anunciar o Chamado Global por Linhas Vermelhas em IA, um apelo para que os governos do mundo se unam e concordem com os mais amplos dos guardrails para prevenir “riscos universalmente inaceitáveis” que poderiam resultar da implantação da IA. O objetivo do grupo é estabelecer essas linhas vermelhas até o final de 2026.

A proposta já acumulou mais de 200 assinaturas até agora de especialistas da indústria, líderes políticos e vencedores do Prêmio Nobel. A ex-presidente da Irlanda, Mary Robinson, e o ex-presidente da Colômbia, Juan Manuel Santos, estão a bordo, assim como os vencedores do Nobel Stephen Fry e Yuval Noah Harari. Geoffrey Hinton e Yoshua Bengio, dois dos três homens comumente referidos como os “Padrinhos da IA” devido ao seu trabalho fundamental no espaço, também adicionaram seus nomes à lista.

Agora, quais são essas linhas vermelhas? Bem, isso ainda depende dos governos decidirem. O chamado não inclui prescrições ou recomendações específicas de políticas, embora mencione alguns exemplos do que poderia ser uma linha vermelha. Proibir o lançamento de armas nucleares ou o uso em esforços de vigilância em massa seria uma linha vermelha potencial para usos de IA, diz o grupo, enquanto proibir a criação de IA que não possa ser encerrada por um comando humano seria uma linha vermelha possível para o comportamento da IA. Mas eles são muito claros: não defina isso em pedra, são apenas exemplos, você pode fazer suas próprias regras.

A única coisa que o grupo oferece concretamente é que qualquer acordo global deve ser construído sobre três pilares: “uma lista clara de proibições; mecanismos de verificação robustos e auditáveis; e a nomeação de um corpo independente estabelecido pelas Partes para supervisionar a implementação.”

Os detalhes, no entanto, são para os governos concordarem. E isso é meio que a parte difícil. O chamado recomenda que os países realizem alguns cúpulas e grupos de trabalho para descobrir tudo isso, mas certamente há muitos motivos concorrentes em jogo nessas conversas.

Os Estados Unidos, por exemplo, já se comprometeram a não permitir que a IA controle armas nucleares (um acordo feito sob a administração Biden, então sabe-se lá se isso ainda está em vigor). Mas relatórios recentes indicaram que partes da comunidade de inteligência da administração Trump já ficaram irritadas pelo fato de algumas empresas de IA não permitirem que eles usem suas ferramentas para esforços de vigilância doméstica. Então, os EUA se juntariam a tal proposta? Talvez descobriremos até o final de 2026… se conseguirmos chegar lá.

Fonte

Compartilhe esse conteúdo: