Os usuários do ChatGPT podem querer pensar duas vezes antes de recorrer ao seu aplicativo de IA para terapia ou outros tipos de apoio emocional. De acordo com o CEO da OpenAI, Sam Altman, a indústria de IA ainda não descobriu como proteger a privacidade do usuário quando se trata dessas conversas mais sensíveis, porque não há confidencialidade médico-paciente quando seu médico é uma IA.
O executivo fez esses comentários em um episódio recente do podcast de Theo Von, This Past Weekend w/ Theo Von.
Em resposta a uma pergunta sobre como a IA funciona com o sistema legal atual, Altman disse que um dos problemas de ainda não ter um quadro legal ou de políticas para a IA é que não há confidencialidade legal para as conversas dos usuários.
“As pessoas falam sobre as coisas mais pessoais de suas vidas para o ChatGPT”, disse Altman. “As pessoas o usam – especialmente os jovens – como um terapeuta, um coach de vida; tendo problemas de relacionamento e [perguntando] ‘o que devo fazer?’ E agora, se você fala com um terapeuta ou um advogado ou um médico sobre esses problemas, há privilégio legal para isso. Há confidencialidade médico-paciente, há confidencialidade legal, o que for. E ainda não descobrimos isso para quando você fala com o ChatGPT.”
Isso pode criar uma preocupação com a privacidade para os usuários no caso de um processo judicial, acrescentou Altman, porque a OpenAI seria legalmente obrigada a produzir essas conversas hoje.
“Acho que isso é muito complicado. Acho que deveríamos ter o mesmo conceito de privacidade para suas conversas com a IA que temos com um terapeuta ou algo assim – e ninguém teve que pensar sobre isso nem um ano atrás”, disse Altman.
A empresa entende que a falta de privacidade pode ser um bloqueio para uma adoção mais ampla pelos usuários. Além da demanda da IA por tantos dados online durante o período de treinamento, ela está sendo solicitada a produzir dados das conversas dos usuários em alguns contextos legais. A OpenAI já está lutando contra uma ordem judicial em sua ação judicial com o The New York Times, que exigiria que ela salvasse as conversas de centenas de milhões de usuários do ChatGPT globalmente, excluindo os clientes do ChatGPT Enterprise.
Em um comunicado em seu site, a OpenAI disse que está apelando dessa ordem, que chamou de “um excesso de poder”. Se o tribunal pudesse anular as próprias decisões da OpenAI sobre privacidade de dados, isso poderia abrir a empresa a mais demandas por descoberta legal ou para fins de aplicação da lei. As empresas de tecnologia de hoje são regularmente convocadas para fornecer dados de usuários para ajudar em processos criminais. Mas, nos últimos anos, surgiram preocupações adicionais sobre dados digitais à medida que as leis começaram a limitar o acesso a liberdades previamente estabelecidas, como o direito de uma mulher de escolher.
Quando a Suprema Corte anulou Roe v. Wade, por exemplo, os clientes começaram a mudar para aplicativos de rastreamento de período mais privados ou para o Apple Health, que criptografava seus registros.
Altman perguntou ao anfitrião do podcast sobre seu próprio uso do ChatGPT, já que Von disse que não falava muito com o chatbot de IA devido às suas próprias preocupações com a privacidade.
“Acho que faz sentido … realmente querer a clareza de privacidade antes de usar [o ChatGPT] muito – como a clareza legal”, disse Altman.
