Listas contendo os nomes de mais de 16.000 artistas supostamente usados para treinar o programa de inteligência artificial (IA) generativa Midjourney se tornaram virais online, revigorando os debates sobre direitos autorais e consentimento na criação de imagens de IA. Entre os nomes estão Frida Kahlo, Walt Disney e Yayoi Kusama.
A indignação entre os artistas no X (antigo Twitter) foi provocada pela primeira vez pela publicação de uma planilha do Google chamada “Midjourney Style List”, supostamente recuperada dos desenvolvedores do Midjourney durante um processo de refinamento da capacidade do programa de imitar obras de artistas e estilos específicos. Embora o acesso ao documento da web (que permanece parcialmente visível no Internet Archive) foi rapidamente restringido, muitos dos artistas e sugestões que apareceram também aparecem em documentos judiciais acessíveis ao público para uma ação coletiva de 2023dentro de uma lista de 25 páginas de nomes referenciados em imagens de treinamento do programa Midjourney.
Embora a prática de utilizar o trabalho de artistas humanos sem a sua permissão para treinar programas generativos de IA permaneça em território jurídico incerto, as controvérsias em torno de documentos como a “Lista de estilos intermediários” lançam luz sobre os processos reais de conversão de obras de arte protegidas por direitos autorais em material de referência de IA.
Em uma série de postagens no X, o artista Jon Lam (que trabalha para a desenvolvedora de videogames Riot Games) compartilhou capturas de tela de um bate-papo no qual os desenvolvedores do Midjourney supostamente discutem o pré-carregamento de nomes e estilos de artistas no programa a partir da Wikipedia e de outras fontes, garantindo que o trabalho dos artistas selecionados estariam disponíveis para mimetismo e predominantemente apresentados como material de referência para a criação de imagens. Uma captura de tela mostra uma aparente postagem do executivo-chefe do Midjourney, David Holz, na qual ele saúda a adição de 16 mil artistas ao treinamento do programa. Outro contém uma mensagem na qual um membro do chat aborda sarcasticamente a questão dos direitos autorais, dizendo que “tudo o que você precisa fazer é usar esses conjuntos de dados copiados e (sic) convenientemente esquecer o que você usou para treinar o modelo. Os problemas jurídicos do Boom foram resolvidos para sempre”. (Quatro membros do grupo responderam a isso com um emoji “100” entusiasticamente afirmativo.)
Os conjuntos de dados “raspados” mencionados no bate-papo são uma característica central da ação coletiva, também ganhando atenção online, que busca obter indenização da Stability AI, Midjourney e DeviantArt pelo uso não consensual do trabalho de artistas humanos em treinamento programas de IA generativos. Embora o processo original tenha sido parcialmente rejeitado por um juiz federal em outubro por ser “defeituoso em vários aspectos”, ele foi alterado e arquivado novamente em novembro, adicionando vários demandantes ao processo, bem como o gerador de vídeo Runway AI à lista de réus.
Lam pediu aos artistas que encontraram seus nomes na lista de mais de 16.000 que se inscrevessem como demandantes adicionais, dizendo: “Os techbros da geração AI querem que você acredite que o processo está morto ou arquivado, não, o processo ainda está vivo e bem, e mais evidências e demandantes foram adicionados ao arquivo do caso.”
O arquivo do caso atualizado observa que “o Tribunal negou a tentativa da Stability AI de rejeitar a reclamação mais significativa dos demandantes, nomeadamente a reclamação direta de violação de direitos de autor por apropriação indevida de milhares de milhões de imagens para formação em IA”. A tentativa de Midjourney de rejeitar a reclamação também foi negada.
Central para a alegação de que Midjourney é culpada de violação de direitos autorais é o uso do conjunto de dados LAION-5B pelo seu programa, uma coleção de 5,85 bilhões de imagens coletadas da Internet, incluindo obras protegidas por direitos autorais. Embora todas as iterações do LAION tenham sido tornadas públicas com a solicitação de que “só deveriam ser usadas para fins de pesquisa acadêmica”, o processo alega que a Midjourney usou conscientemente a coleção em seus serviços monetizados, treinando o programa de IA generativa da empresa em imagens LAION. O caso também afirma que o uso do software de texto para imagem Stability Diffusion da Stability AI pela Midjourney constitui violação de direitos autorais, já que o próprio programa foi treinado em uma coleção de obras não creditadas e protegidas por direitos autorais.
Ferramentas para os artistas combaterem a violação de direitos autorais foram mencionadas em quase todas as discussões sobre IA generativa, com Glaze da Universidade de Chicago programa entre os mais populares. Com o objetivo declarado de proteger os artistas de programas como Midjourney e Stable Diffusion, Glaze altera os dados digitais de uma imagem para que ela “pareça inalterada aos olhos humanos, mas pareça aos modelos de IA como um estilo de arte dramaticamente diferente”. Embora imperfeito, o sistema gratuito tem sido cada vez mais recomendado em resposta às novas preocupações com a imitação de estilo direcionado – uma postagem no X seguindo a “Midjourney Style List” que incentiva os artistas a “Glaze”, seu trabalho recebeu mais de 1.000 curtidas e 400 repostagens.
O site haveibeentrained.com também foi amplamente partilhado entre artistas, oferecendo a oportunidade de ver se o trabalho de alguém foi incluído como imagem de formação num programa de IA generativa. Também possui um registro Do Not Train, que impede a inclusão de obras em conjuntos de dados cooperantes.