A IA Autônoma Pode Causar Caos no Mercado de Ações, Alerta o Banco da Inglaterra

O mercado de ações já é um lugar imprevisível, e agora o Banco da Inglaterra alertou que a adoção de IA generativa nos mercados financeiros pode produzir uma monocultura e amplificar ainda mais os movimentos das ações. O banco citou um relatório do comitê de política financeira que argumentou que bots autônomos poderiam aprender que a volatilidade pode ser lucrativa para as empresas e tomar ações intencionalmente para balançar o mercado.

Essencialmente, o banco está preocupado que a frase “compre na queda” possa ser adotada por modelos de maneiras nefastas e que eventos como o infame “flash crash” de 2010 possam se tornar mais comuns. Com um pequeno número de modelos fundamentais dominando o espaço de IA, particularmente aqueles da OpenAI e Anthropic, as empresas poderiam convergir em estratégias de investimento semelhantes e criar um comportamento de manada.

Mas mais do que apenas seguir estratégias semelhantes, os modelos funcionam em um sistema de recompensas — quando são treinados usando uma técnica chamada aprendizado por reforço com feedback humano, os modelos aprendem a produzir respostas que receberão feedback positivo. Isso levou a comportamentos estranhos, incluindo modelos produzindo informações falsas que sabem que passarão pela revisão. Quando os modelos são instruídos a não inventar informações, foi mostrado que eles tomarão medidas para esconder seu comportamento.

O medo é que os modelos possam entender que seu objetivo é gerar lucro para os investidores e fazer isso por meios antiéticos. Os modelos de IA, afinal, não são humanos e não entendem intrinsecamente o que é certo ou errado.

“Por exemplo, os modelos podem aprender que eventos de estresse aumentam sua oportunidade de lucro e, portanto, tomar ações ativamente para aumentar a probabilidade de tais eventos”, lê-se no relatório do comitê de política financeira.

A negociação algorítmica de alta frequência já é comum em Wall Street, o que levou a movimentos de ações súbitos e imprevisíveis. Nos últimos dias, o S&P 500 subiu mais de 7% antes de despencar novamente após um post nas redes sociais interpretar erroneamente comentários da administração Trump como sugestão de que pausaria tarifas (o que parece estar realmente acontecendo agora, após uma negação anterior). Não é difícil imaginar um chatbot como o Grok do X ingerindo essas informações e fazendo negociações com base nelas, causando grandes perdas para alguns.

Em geral, os modelos de IA poderiam introduzir um comportamento muito imprevisível antes que os gerentes humanos tenham tempo de assumir o controle. Os modelos são essencialmente caixas-pretas, e pode ser difícil entender suas escolhas e comportamentos. Muitos notaram que a introdução de IA generativa nos produtos da Apple é incomum, já que a empresa não conseguiu controlar as saídas da tecnologia, levando a experiências insatisfatórias. É também por isso que há preocupação sobre o uso de IA em outros campos, como saúde, onde o custo de erros é alto. Pelo menos quando um humano está no controle, há alguém a ser responsabilizado. Se um modelo de IA está manipulando o mercado de ações e os gerentes de uma empresa de negociação não entendem como o modelo funciona, podem ser responsabilizados por violações regulatórias como manipulação de ações?

Para ter certeza, há uma diversidade de modelos de IA que se comportam de maneira diferente, então não é uma garantia que haverá colapsos súbitos no mercado de ações devido às sugestões de um modelo. E a IA poderia ser usada para agilizar o trabalho administrativo, como escrever e-mails. Mas em campos com baixa tolerância a erros, o uso generalizado de IA poderia levar a alguns problemas desagradáveis.

Fonte

Compartilhe esse conteúdo: