Descobertas recentes da Graphika, uma empresa especializada em investigação de redes sociais, trouxeram à luz uma tendência preocupante: o desenvolvimento exponencial da utilização de inteligência artificial (IA) para despir digitalmente pessoas em fotografias, com foco principal nas mulheres. Só durante o mês de Setembro, este fenómeno, por vezes referido como serviços “Nudify” ou “despir-se”, relatou que mais de 24 milhões de utilizadores interagiram com tais plataformas, indicando uma preocupação significativa com a privacidade e segurança.
Ao utilizar poderosos algoritmos de inteligência artificial, estas plataformas são capazes de substituir roupas em fotografias por nudez, o que agrava ainda mais o assédio digital baseado no género. A alteração de fotos desta forma sem o consentimento do sujeito não só causa danos emocionais e de reputação substanciais, mas também apresenta preocupações éticas e legais significativas. Devido aos métodos de marketing que estas plataformas utilizam, que muitas vezes recorrem às redes sociais, registou-se um aumento de 2.400% no número de links publicitários publicados em plataformas como Reddit e outras desde o início do ano.
Vários problemas significativos foram revelados como resultado da proliferação de aplicativos Nudify. Estes problemas incluem invasões de privacidade, preocupações com a autonomia e a perpetuação de estereótipos prejudiciais e a objectificação das mulheres. Estas ferramentas contribuem para ajustes que não são feitos com o consentimento do indivíduo, o que pode resultar num aumento do número de casos de assédio e agressão sexual. Além dos problemas de privacidade, a tecnologia permite a criação de deep fakes e mídias sintéticas, o que representa riscos substanciais para a segurança dos usuários enquanto estão online e contribui para a disseminação de informações falsas.
É necessário um esforço concentrado em diversas frentes diferentes para nos defendermos contra este perigo crescente. Os anúncios das aplicações Nudify devem ser identificados e removidos dos sites de redes sociais, e os governos devem ser encorajados a explorar a aprovação de leis que proíbam a utilização de tais aplicações. Além disso, os institutos de investigação e as empresas tecnológicas precisam de criar ferramentas e métodos para identificar e prevenir a criação de fotografias nuas pela inteligência artificial.
Aplicativos como o DeepSukebe, que promete “revelar a verdade escondida sob as roupas”, têm sido especialmente problemáticos porque permitem a produção de fotografias de nus que são mostradas sem o consentimento do usuário e se tornaram instrumentos de assédio e exploração . Apesar das considerações éticas, existe uma clara necessidade de tais ferramentas, como se pode verificar pelos significativos volumes mensais de pesquisa de termos de pesquisa relacionados com o tema.
Mais de 24 milhões de pessoas visualizaram um conjunto de 34 websites e aplicações de despir-se em Setembro, de acordo com uma pesquisa publicada pela Graphika em Dezembro de 2022. Esta informação dá uma ideia da magnitude do problema. Apesar de empresas como a TikTok e a Meta Platforms Inc. terem tomado medidas para resolver o problema, existe uma necessidade imediata e premente de iniciativas mais abrangentes em toda a indústria para contrariar o desenvolvimento de anúncios gerados por IA. pornografia que é deepfakeHá um
Fonte da imagem: Shutterstock