Mulheres na IA: Dra. Rebecca Portnoff está protegendo crianças de deepfakes prejudiciais

Como parte da série contínua Mulheres na IA do TechCrunch, que busca dar às mulheres acadêmicas e outras focadas em IA o tempo merecido — e atrasado — no centro das atenções, o TechCrunch entrevistou a Dra. Rebecca Portnoff, que é vice-presidente de ciência de dados na organização sem fins lucrativos Thorn, que desenvolve tecnologia para proteger crianças do abuso sexual.

Ela frequentou a Universidade de Princeton antes de receber seu doutorado em ciência da computação na Universidade da Califórnia, Berkeley. Ela tem trabalhado em sua trajetória na Thorn, onde está desde 2016. Começou como cientista de pesquisa voluntária e agora, oito anos depois, lidera uma equipe que provavelmente é uma das únicas do mundo dedicada a construir aprendizado de máquina e inteligência artificial para parar, prevenir e defender crianças do abuso sexual.

“Durante meu último ano em Princeton, enquanto contemplava o que fazer após a graduação, minha irmã me recomendou ler ‘Half the Sky’ de Nicholas Kristof e Sheryl WuDunn, que me apresentou ao tema do abuso sexual infantil”, disse ela ao TechCrunch, afirmando que o livro a inspirou a estudar como fazer a diferença nesse espaço. Ela escreveu sua dissertação de doutorado focando especialmente no uso de aprendizado de máquina e IA nesse contexto.

A missão de proteger crianças

Na Thorn, a equipe de Portnoff ajuda a identificar vítimas, parar a revitimização e prevenir a disseminação viral de material de abuso sexual. Ela liderou a iniciativa Segurança por Design, em parceria com a Thorn e a All Tech Is Human, no ano passado, que busca prevenir que pessoas usem IA generativa para prejudicar sexualmente crianças.

“Foi um grande esforço, definindo colaborativamente princípios e mitigação para impedir que modelos generativos produzam material de abuso, tornar esse material mais facilmente detectável e prevenir a distribuição desses modelos, serviços e aplicativos usados para produzir esse material de abuso, alinhando líderes da indústria para se comprometerem com esses padrões”, lembrou. Ela disse que conheceu muitas pessoas dedicadas à causa, “mas também ganhei mais cabelos grisalhos do que tinha no início de tudo isso.”

O uso de IA para criar imagens sexuais não consensuais se tornou uma grande discussão, especialmente à medida que as gerações de pornografia em IA se tornam mais sofisticadas, como o TechCrunch relatou anteriormente. Atualmente, não há uma legislação federal abrangente que proteja ou previna imagens geradas por IA sexual criadas de outras pessoas sem seu consentimento, embora estados individuais, como Flórida, Louisiana e Novo México, tenham aprovado sua própria legislação para atacar especificamente o abuso infantil por IA.

De fato, ela disse que esta é uma das questões mais urgentes que a IA enfrenta à medida que evolui. “Um em cada dez menores relata que conhecia casos em que seus colegas geraram imagens nuas de outras crianças”, disse ela.

“Não precisamos viver nessa realidade e é inaceitável que permitimos que isso chegue a esse ponto.” Ela disse que existem mitigação que podem ser implementadas para prevenir e reduzir esse uso indevido. A Thorn, por exemplo, está defendendo que as empresas de tecnologia adotem seus princípios e mitigação de segurança por design e compartilhem publicamente como estão prevenindo o uso indevido de suas tecnologias e produtos de IA generativa para promover o abuso sexual infantil, colaborando com organizações profissionais como o Instituto de Engenheiros Eletricistas e Eletrônicos (IEEE) e o Instituto Nacional de Padrões e Tecnologia (NIST) para apoiar a definição de padrões para empresas que podem ser usados para auditar o progresso, além de se envolver com os formuladores de políticas para informá-los sobre a importância disso.

“Legislação fundamentada em impacto será necessária para trazer todas as empresas e partes interessadas a bordo”, disse ela.

Trabalhando como mulher na IA

À medida que subiu na hierarquia na construção de IA, Portnoff lembra que as pessoas ignoravam seus conselhos, pedindo em vez disso para falar com alguém que tivesse um histórico técnico. “Minha resposta? ‘Sem problemas, você está falando com alguém com um histórico técnico,’” disse ela.

Ela disse que algumas coisas a ajudaram a navegar em um campo tão dominado por homens: estar preparada, agir com confiança e assumir boas intenções. Estar preparada ajuda-a a entrar em salas com mais confiança, enquanto a confiança permite que ela enfrente desafios com curiosidade e ousadia, “buscando primeiro entender e depois ser entendida”, continuou.

“Assumir boas intenções me ajuda a abordar desafios com bondade em vez de defensividade”, disse ela. “Se essa boa intenção realmente não estiver presente, isso acabará se mostrando eventualmente.”

Seu conselho para mulheres que buscam entrar na IA é sempre acreditar em sua capacidade e significado. Ela disse que é fácil cair na armadilha de deixar as suposições que as pessoas têm sobre você definirem seu potencial, mas que a voz de todos será necessária nesta revolução atual da IA.

“À medida que o aprendizado de máquina/IA se torna mais integrado em nossos sistemas humanos, todos nós precisamos trabalhar juntos para garantir que isso seja feito de uma maneira que promova nosso florescimento coletivo e priorize os mais vulneráveis entre nós.”

Construindo IA ética

Portnoff disse que existem muitos aspectos da IA responsável, incluindo a necessidade de transparência, justiça, confiabilidade e segurança. “Mas todos eles têm uma coisa em comum”, continuou. “Construir ML/IA de forma responsável requer envolver mais partes interessadas do que apenas seus colegas tecnólogos.”

Isso significa mais escuta ativa e colaboração. “Se você está seguindo um roteiro para construir IA responsável e descobre que não conversou com ninguém fora de sua organização ou de sua equipe de engenharia no processo, provavelmente está indo na direção errada.”

E, à medida que os investidores continuam a despejar bilhões de dólares em startups de IA, Portnoff sugeriu que os investidores podem começar a olhar para a responsabilidade já na fase de diligência prévia, observando o compromisso de uma empresa com a ética antes de fazer um investimento e, em seguida, exigindo que certos padrões sejam atendidos. Isso pode “prevenir danos e permitir um crescimento positivo.”

“Há muito trabalho a ser feito”, disse ela, falando de forma geral. “E você pode ser a pessoa a fazer isso.”

Fonte

Compartilhe esse conteúdo: