Reconhecimento Facial Retorna Contra a Polícia em Caso de Assassinato em Ohio

A polícia de Cleveland, Ohio, pode ter comprometido suas chances de condenar um suposto assassino ao usar a controversa ferramenta de reconhecimento facial Clearview AI como a única evidência justificando uma busca na casa do suspeito.

Em fevereiro, o departamento prendeu Qeyeon Tolbert e o acusou do assassinato de Blake Story, que foi baleado duas vezes nas costas após sair de um centro de doação de plasma sanguíneo. Os investigadores se concentraram em Tolbert depois que enviaram um vídeo de CCTV de um suspeito ao Northeast Ohio Regional Fusion Center—um grupo que reúne as capacidades de vigilância de agências locais, estaduais e federais—e “receberam uma identificação” do homem no vídeo, de acordo com os registros do tribunal.

Com base na identificação, a CPD obteve um mandado de busca para a casa de Tolbert, onde os oficiais alegadamente recuperaram uma arma de fogo e outras evidências. Mas um juiz do condado de Cuyahoga decidiu no início deste mês que nenhuma dessas evidências é admissível no julgamento. O Cleveland Plain Dealer foi o primeiro a relatar a decisão.

Os advogados de Tolbert argumentaram que o relato vago da CPD sobre receber uma identificação do centro de fusão deixou de fora um fato crucial: a única evidência apontando para Tolbert foi um relatório da Clearview AI, que dizia explicitamente em um aviso na parte inferior que os resultados “devem ser tratados como leads investigativos e não devem ser confiados exclusivamente para fazer uma prisão.”

Pelo menos oito pessoas em todo o país foram presas injustamente após ferramentas de reconhecimento facial identificarem incorretamente imagens de suspeitos, de acordo com uma investigação recente do Washington Post que descobriu que mais de uma dúzia de departamentos de polícia fizeram prisões com base em correspondências de reconhecimento facial sem nenhuma outra evidência corroborativa.

Em casos onde a polícia fez prisões falsas com base em correspondências de reconhecimento facial, a polícia acabou pagando centenas de milhares de dólares para resolver processos judiciais.

Embora as ferramentas de reconhecimento facial frequentemente alcancem métricas de alta precisão em testes de laboratório, elas podem ser menos eficazes em configurações do mundo real, onde os humanos podem introduzir erros, como usar imagens de baixa qualidade ou imagens da pessoa errada.

No caso de Cleveland, o vídeo de CCTV que o centro de fusão passou pelo Clearview AI e que produziu uma correspondência para Tolbert era de seis dias após o tiroteio, que ocorreu em 14 de fevereiro. Em um affidavit, um detetive de Cleveland escreveu que em 20 de fevereiro ele observou uma pessoa entrar em uma loja que tinha “a mesma constituição, estilo de cabelo, roupas e características de caminhada” que o homem visto na filmagem de vigilância atirando em Story. O detetive baixou a filmagem de CCTV de 20 de fevereiro da loja e a enviou ao centro de fusão.

Como resultado, o advogado de Tolbert apontou que a correspondência de reconhecimento facial do Clearview não foi nem mesmo derivada de filmagens do crime em si, mas simplesmente de filmagens de um homem que a polícia achava que se parecia com o atirador.

O escritório do promotor do condado de Cuyahoga apelou da decisão do tribunal de distrito que suprimia as evidências que a polícia alegadamente recuperou ao buscar a casa de Tolbert.

Fonte

Compartilhe esse conteúdo: