SafeRent, uma ferramenta de triagem de IA usada por proprietários, não usará mais “pontuações” impulsionadas por IA para avaliar se alguém que usa vouchers de habitação seria um bom inquilino. Na quarta-feira, o juiz do distrito dos EUA Angel Kelley emitiu a aprovação final para um acordo de aproximadamente 2,3 milhões de dólares para impedir que a SafeRent discriminasse inquilinos com base na renda e na raça.
O acordo decorre de uma ação coletiva de 2022 apresentada em Massachusetts. A ação alegou que o sistema de pontuação da SafeRent prejudicava desproporcionalmente pessoas que usavam vouchers de habitação — especificamente candidatos negros e hispânicos. Além de violar a lei de Massachusetts, a reclamação também acusou a SafeRent de violar a Lei de Habitação Justa, que proíbe a discriminação habitacional.
Conforme descrito na ação inicial, o algoritmo de pontuação da SafeRent usa fatores como histórico de crédito e dívidas não relacionadas a aluguel para atribuir uma SafeRent Score a potenciais inquilinos. Os proprietários podem então usar essa pontuação para determinar se aceitam ou negam a solicitação de aluguel de alguém. A ação alegou que o processo não é transparente, já que a SafeRent não informa aos proprietários como chegou à pontuação de uma pessoa. E o sistema supostamente atribuía pontuações mais baixas de forma injusta para inquilinos negros e hispânicos, bem como para pessoas que usam vouchers de habitação, levando os proprietários a negarem suas solicitações de habitação.
Sob o acordo de cinco anos, a SafeRent não exibirá mais uma pontuação de triagem de inquilinos para candidatos que usam vouchers de habitação em todo o país, nem poderá incluir uma pontuação quando os proprietários usarem seu modelo de SafeRent Score “acessível”. O serviço da SafeRent também não poderá exibir recomendações sobre se deve “aceitar” ou “negar” a solicitação de alguém se eles usarem vouchers de habitação. Isso significa que os proprietários agora terão que avaliar inquilinos que usam vouchers de habitação com base em todo o seu histórico — em vez de apenas usar sua pontuação SafeRent.
“As pontuações de crédito e pontuações modeladas de forma semelhante, como as SafeRent Scores, se baseiam em informações que só foram testadas para prever o pagamento de obrigações de crédito”, disse Shennan Kavanagh, diretora do National Consumer Law Center, em um comunicado. “Não há evidências de que tais dados sejam preditivos de inquilinos pagando aluguel.”
O dinheiro coletado como parte do acordo irá para candidatos de aluguel baseados em Massachusetts que usaram vouchers de habitação e não conseguiram garantir moradia devido à pontuação de inquilino da SafeRent. “Embora a SafeRent continue acreditando que as SRS [SafeRent Solutions] Scores estão em conformidade com todas as leis aplicáveis, a litigação é demorada e cara”, disse a porta-voz da SafeRent, Yazmin Lopez, em um comunicado ao The Verge. “Ficou cada vez mais claro que defender a SRS Score neste caso desviaria tempo e recursos que a SafeRent pode usar melhor para servir sua missão central de fornecer aos provedores de habitação as ferramentas de que precisam para triagem de candidatos.”
A SafeRent é o mais recente software de gerenciamento de propriedades impulsionado por algoritmos a enfrentar ações legais. Em agosto, o Departamento de Justiça processou a RealPage por alegações de que seu software de precificação algorítmica aumenta o aluguel.