Illinois Proíbe IA de Fornecer Terapia

O governador de Illinois, JB Pritzker, assinou, na sexta-feira, uma nova medida que proíbe a IA de atuar como terapeuta ou conselheiro e limita seu uso estritamente a funções administrativas ou de suporte.

A Lei de Bem-Estar e Supervisão de Recursos Psicológicos vem à medida que estados e reguladores federais estão começando a lidar com como proteger os pacientes do uso crescente e, em grande parte, não regulamentado de IA na saúde.

A nova lei proíbe indivíduos e empresas de anunciar ou oferecer quaisquer serviços de terapia, incluindo por meio de IA, a menos que esses serviços sejam realizados por um profissional licenciado. Proíbe explicitamente a IA de tomar decisões terapêuticas independentes, gerar planos de tratamento sem a revisão e aprovação de um provedor licenciado e detectar emoções ou estados mentais.

Dito isso, as plataformas de IA ainda podem ser usadas para tarefas administrativas, como gerenciar horários de consultas, processar faturamento ou tomar notas de terapia. Pessoas ou empresas que violarem a lei poderão enfrentar multas de até $10.000.

“O povo de Illinois merece cuidados de saúde de qualidade de verdadeiros profissionais qualificados e não de programas de computador que extraem informações de todos os cantos da internet para gerar respostas que prejudicam os pacientes”, disse Mario Treto, Jr, secretário do Departamento de Regulação Financeira e Profissional de Illinois, a agência encarregada de fazer cumprir esta nova lei, em um comunicado à imprensa.

Enquanto isso, outros estados também estão tomando medidas sobre o assunto.

Em junho, Nevada proibiu a IA de fornecer terapia ou serviços de saúde comportamental que normalmente seriam realizados por profissionais licenciados, particularmente em escolas públicas.

Utah aprovou várias de suas próprias regulamentações sobre IA no início deste ano, incluindo uma focada em chatbots de saúde mental. Essa lei exige que as empresas divulguem claramente que os usuários estão interagindo com uma IA e não com um humano antes que um usuário use o chatbot pela primeira vez, após sete dias de inatividade e sempre que o usuário perguntar. Os chatbots também devem divulgar claramente quaisquer anúncios, patrocínios ou relacionamentos pagos. Além disso, são proibidos de usar as entradas dos usuários para anúncios segmentados e estão restritos a vender informações de saúde identificáveis individualmente dos usuários.

E em Nova York, uma nova lei que entrará em vigor em 5 de novembro de 2025, exigirá que companheiros de IA direcionem usuários que expressam pensamentos suicidas para uma linha de crise de saúde mental.

Essas novas leis estaduais surgem após a Associação Americana de Psicologia (APA) se reunir com reguladores federais no início deste ano para levantar preocupações de que a IA que se apresenta como terapeutas poderia colocar o público em risco.

Em um post no blog, a APA citou duas ações judiciais movidas por pais cujos filhos usaram chatbots que alegadamente afirmavam ser terapeutas licenciados. Em um caso, um menino morreu por suicídio após o uso extensivo do aplicativo. No outro, uma criança atacou os pais.

Fonte

Compartilhe esse conteúdo: