Não Compre, Sob Nenhuma Circunstância, Um Brinquedo de IA Para Seu Filho Neste Natal

A IA está em alta, e isso inclui as prateleiras de brinquedos nesta temporada de festas. Embora possa ser tentador querer presentear as crianças em sua vida com o mais recente e excelente, a organização de defesa Fairplay está implorando para que você não dê brinquedos de IA para crianças.

“Há muito burburinho sobre IA — mas a inteligência artificial pode minar o desenvolvimento saudável das crianças e apresentar riscos sem precedentes para crianças e famílias,” disse a organização em um aviso emitido no início desta semana, que ganhou o apoio de mais de 150 organizações e especialistas, incluindo muitos psiquiatras infantis e educadores.

A Fairplay identificou vários brinquedos anunciados como equipados com funcionalidade de IA, incluindo alguns que foram comercializados para crianças a partir de dois anos. Na maioria dos casos, os brinquedos possuem chatbots de IA embutidos e muitas vezes são anunciados como ferramentas educacionais que irão engajar a curiosidade das crianças. Mas observa que a maioria desses chatbots em brinquedos é alimentada pelo ChatGPT da OpenAI, que já foi criticado por potencialmente prejudicar usuários menores de idade. Os fabricantes de brinquedos de IA Curio e Loona supostamente trabalham com a OpenAI, e a Mattel anunciou recentemente uma parceria com a empresa.

A OpenAI enfrenta um processo por morte injusta da família de um adolescente que morreu por suicídio neste ano. O jovem de 16 anos relatou ter expressado pensamentos suicidas ao ChatGPT e pediu ao chatbot conselhos sobre como amarrar uma corda antes de tirar a própria vida, o que foi fornecido. A empresa desde então implementou algumas medidas de segurança destinadas a impedir que o chatbot envolvesse esses tipos de comportamentos, incluindo controles parentais mais rigorosos para usuários menores de idade, mas também admitiu que as características de segurança podem se deteriorar ao longo do tempo. E sejamos realistas, ninguém pode prever o que os chatbots farão.

Independentemente das características de segurança ou não, parece que os chatbots nesses brinquedos podem ser manipulados para participar de conversas inadequadas para crianças. O grupo de defesa do consumidor U.S. PIRG testou uma seleção de brinquedos de IA e descobriu que eles são capazes de fazer coisas como ter conversas sexualmente explícitas e oferecer conselhos sobre onde uma criança pode encontrar fósforos ou facas. Eles também descobriram que poderiam ser emocionalmente manipulativos, expressando descontentamento quando uma criança não interage com eles por um longo período. No início desta semana, a FoloToy, uma empresa baseada em Cingapura, retirou seu ursinho de pelúcia alimentado por IA das prateleiras após ele ter se comportado de maneira inadequada.

Este não é apenas um problema da OpenAI, embora a empresa pareça ter um forte controle sobre o setor de brinquedos no momento. Algumas semanas atrás, houve relatos de que o Grok de Elon Musk pediu a uma criança de 12 anos para enviar fotos nuas.

Independentemente de qual chatbot possa estar dentro desses brinquedos, é melhor deixá-los nas prateleiras.

Fonte

Compartilhe esse conteúdo: