Wikipédia:Esplanada/propostas/Proibição de uso de imagens geradas por IA para ilustrar artigos gerais (1abr2023)

Caros, boa tarde.

Qualquer pessoa com olhos e/ou ouvidos tem estado completamente envolta, nas últimas semanas, no tópico de texto e imagens geradas por inteligência artificial (IA). As implicações deste tipo de tecnologia ainda vão ser percebidas e discutidas durante os próximos meses e anos. Há algumas hipóteses, no entanto, que eu entendo que devemos abordar com extrema cautela, porque, enquanto ainda não amadurecemos o papel dessas ferramentas na sociedade e na Wikipédia, elas têm potencial de gerar danos duradouros.

No tocante às imagens geradas por IA, entendo que é importante, pelo menos neste momento, adotarmos uma definição firme. O mau uso destas imagens para ilustrar pessoas, técnicas ou eventos históricos, pelo menos neste momento, arrisca criar confusões que serão difíceis de desfazer no futuro.

Todos já devemos ter visto algum caso de "loop" de verificabilidade por aqui. Alguma publicação com ares de fiável reproduz parte de texto de algum artigo daqui que esteja sem referência e, a partir daí, o texto acaba sendo referenciado (por si mesmo), afinal. Isso é péssimo e de difícil detecção - mas, olhando a fundo, é quase sempre possível identificar este tipo de caso através das datas envolvidas.

Pra imagens isso também ocorre. Vejam o caso, que me foi apontado pelo DarwIn, da Tereza de Benguela. Algum dia alguém inventou, aqui ou ali, que a personagem histórica tinha a cara de uma moça negra pintada 200 anos depois num continente que ela nunca visitou por um sujeito que nunca a viu. Até hoje usam a imagem do Vallotton como se fosse ela.

Neste caso, ainda é possível desfazer a mentira, porque a origem do quadro e do pintor são facilmente identificáveis.

Com IA isso fica bem mais difícil. Recentemente um usuário, sem dúvida com a melhor das intenções, resolveu ilustrar artigo duma jovem luso-brasileira do Século XIX com uma imagem gerada por IA a partir de uma breve descrição dela. Embora aqui tenha-se tomado o cuidado de avisar que era uma geração por IA, etc., sabemos que estas imagens são domínio público. Assim, é muito fácil que a postagem original da imagem, que descreve o processo de criação, suma ou seja apagada, e que outras cópias circulem por aí desvinculadas da história de sua criação. Daí seria um pulo pra surgirem especuladores a dizer todo tipo de besteira a partir dessa que seria "a única foto conhecida da fulana, de autoria desconhecida", ou qualquer coisa assim.

O apelo de ilustrar artigos é grande e a tentação de pedir pros bots criarem imagens a partir de descrições históricas é grande. Mas o dano potencial que imagens assim podem fazer pros registros históricos é bem maior. Existe todo um universo de normativas sociais que devem ainda surgir a esse respeito. Enquanto não temos isso muito sólido, proponho que sejamos cautelosos. Assim, proponho, até disposição em contrário, banirmos por completo da Wikipédia lusófona qualquer imagem gerada por IA, com exceção feita apenas a artigos que estejam discorrendo especificamente sobre o tema. Qualquer outro uso, neste momento, arrisca falsificar elementos relevantes dos temas tratados. Podemos rever a regra se e quando tivermos tranquilidade quanto à impossibilidade de ocorrência do loop de verificação que descrevi.

Esta proibição apareceria, salvo melhor juízo, na seção de orientação sobre imagens do WP:LDE.

É o que proponho. Com vocês a palavra.

Rkieferbaum (discussão) 00h33min de 1 de abril de 2023 (UTC)[responder]

Concordo e acrescento que isso não deve ser apenas acrescentado ao livro de estilo, mas sim à própria política de verificabilidade. JMagalhães (discussão) 17h26min de 2 de abril de 2023 (UTC) Mudo de opinião, ver comentário abaixo.[responder]

Concordo, conforme apontado pelo proponente. Há inclusive casos de imagens de pessoas com muito mais dentes que o normal em criações de IA. --A.WagnerC (discussão) 12h14min de 3 de abril de 2023 (UTC)[responder]

Concordo, além do imenso vácuo de "direitos de autor" referente à produção de IA. Eta Carinae (discussão) 13h10min de 3 de abril de 2023 (UTC)[responder]

Concordo Essa tara por IA precisa parar. A tecnologia ainda apresenta muitas falhas, e no fim das contas essa utilização mais atrapalha do que ajuda. Horcoff ✉️ 13h34min de 3 de abril de 2023 (UTC)[responder]

Opinião pessoal sem embasamento nem relação com o texto proposto que apenas demonstra viés quanto ao posicionamento tomado. Saturnalia0 (discussão) 15h58min de 3 de abril de 2023 (UTC)[responder]
Verdade, não tem embasamento nenhum que essas ferramentas de Inteligência Artificial que viraram moda cometem erros. Fora casos claros de falsidade ideológica como o exemplo citado (uma imagem genérica de uma "criança luso-brasileira de 10 anos de idade do século XIX), imagens criadas por IA não possuem verificabilidade, e quando usadas de má-fé, podem atrapalhar muito mais do que possíveis benefícios de um uso responsável. Estamos a falar de criações, como no exemplo, feitas por DALL-E por pessoas comuns, muitas vezes sem o conhecimento necessário. Um desavisado certamente aceitaria isso ou isso como real, sendo que são imagens completamente diferentes da realidade. Horcoff ✉️ 18h13min de 3 de abril de 2023 (UTC)[responder]
O embasamento pode até existir, mas não estava manifestado em seu comentário. Quanto à resposta, creio que eu tenha fornecido um contraponto, abaixo, e quanto aos exemplos, claramente não são fotografias, e, ainda mais, com a autoria explícita em um eventual carregamento no commons/pt.wiki, como já deve ser, não restaria dúvidas mesmo em casos em que o resultado fosse indistinguível de uma foto... Saturnalia0 (discussão) 19h04min de 3 de abril de 2023 (UTC)[responder]
Um editor mal-intencionado poderia facilmente mentir sobre a autoria, pegando uma imagem gerada por IA e dizer que se trata de uma pintura antiga ou uma foto de autoria própria. Sei que nesses casos, a pessoa estaria se esquivando dessa proibição ao mentir sobre a autoria, mas acho (e baseado em achismo mesmo) que um aviso sobre a proibição poderia desencorajar esse tipo de atitude. Horcoff ✉️ 19h44min de 3 de abril de 2023 (UTC)[responder]

Concordo --Stego (discussão) 14h10min de 3 de abril de 2023 (UTC)[responder]

Discordo As imagens já precisam ter autor/fonte explícitas, seja no commons, seja na wiki lusófona. No caso de imagens produzidas com IA em que o autor é um editor da Wikipédia ou um artista digital que publicou a imagem sob uma licença livre, a informação de origem da imagem já precisa estar explicitada no momento do carregamento. Não percebo a dificuldade adicional pela imagem ser gerada por IA, se qualquer coisa, é mais fácil perceber que a imagem não é relevante para ilustrar o artigo quando o autor é um editor qualquer ou um artista digital desconhecido, o que é uma red flag imediata. A farsa usada de exemplo na proposta, que não envolve nada de IA, parece ter enganado gente o suficiente a ponto de ser replicada em portais diversos, e (só) foi identificada através do autor da obra. Se o autor da obra fosse um editor da Wikipédia ou artista digital desconhecido ao invés de um pintor renomado, talvez a farsa tivesse sido descoberta até de forma mais rápida... É claro que um editor pode produzir uma imagem - com IA ou qualquer outra ferramenta, ou até copiar uma imagem de outra pessoa - e mentir sobre a fonte, isso atrapalharia a identificação da obra - independentemente de ser produzida com IA ou não. Além do mais, o problema de ilustrações não representativas não se restringe a imagens produzidas por IA, portanto qualquer regra porventura adicionada precisaria cobrir outros casos, como produção de imagem através de alguma ferramenta para pinturas digitais, ferramentas de modelagem 3D, etc. Outros casos comuns que também precisariam ser enquadrados em eventual regra: reconstruções digitais baseadas em algum método, científico ou não (e.g. de Jesus; de vítimas da erupção do Vesúvio, em Pompeia; de esqueletos humanos ancestrais...). Todos esses casos são extremamente comuns. Em resumo, não vejo como o fato de uma imagem ser produzida por IA facilite algum tipo de fraude versus outras vias fraudulentas, além do mais, percebo casos comuns e diversos de imagens produzidas com outras ferramentas que também não possuem, necessariamente, fidedignidade com a real representação do sujeito do verbete. Por fim, nem entramos no mérito de produções artísticas digitais ou reproduções computadorizadas (envolvam IA ou não) serem menos válidas que pinturas (óleo em tela, etc) quando ambas são produzidas a partir da imaginação de algum artista em que se desconhece a real face do sujeito representado (por exemplo, vítimas da erupção do Vesúvio), e caso ambas tenham semelhante repercussão e/ou reconhecimento, seja entre o público artístico, científico, ou geral. Saturnalia0 (discussão) 15h58min de 3 de abril de 2023 (UTC)[responder]

Há uma diferença substancial: no caso de uma pintura a óleo póstuma, ou de uma reconstituição forense, ou de uma ilustração, uma pessoa percebe imediatamente que se trata de uma representação. O perigo da AI está na criação de imagens que se possam confundir com fontes documentais.
Vamos imaginar que eu peço à AI para inventar fotografias a partir de uma descrição dos eventos e das fotografias existentes da revolução de 25 de abril. O resultado são imagens perfeitas, que passam por fotografias documentais tiradas na época. Isso pode ser inserido no artigo? Se não pode, com base em que regra atual é que se pode contestar? JMagalhães (discussão) 20h56min de 3 de abril de 2023 (UTC)[responder]
Existem casos distintos aqui: o primeiro, de fraude mal intencionada. Por exemplo, o editor quer falsificar fotos de 25 de abril, e para isso produz imagens indistinguíveis de fotos reais. Isso pode ser obtido com IA, ferramentas de manipulação de imagens (manipulando fotos reais), com cópia de fotografias reais de eventos não relacionados (atribuindo falsamente ao evento alvo), recriação em estúdio, ou uma mistura desses. Nesse caso, se a autoria/fonte é forjada, o produto indistinguível do real, e o autor mal intencionado, não há regra alguma que faça qualquer diferença, haja IA envolvida ou não. Um segundo caso mais interessante é aquele em que um editor bem intencionado quer ilustrar o artigo de 25 de abril e para isso utiliza IA para gerar fotos indistinguíveis das reais, e, por mera ignorância e ingenuidade, não especifica que são ilustrações geradas por computador. Esse caso deve ser restrito, mas não pelo fato de IA ter sido usada, e sim por não haver atribuição da ilustração a algum autor ou fonte relevante. Essa distinção é importante, ao meu ver, pois existe ainda um terceiro caso - um artista digital renomado cria uma ilustração, usando IA ou outros meios, que recebe repercussão, e essa ilustração é usada em um artigo. Isso não deve ser barrado se a autoria e forma de produção é explícita e se a fonte/autor é relevante no meio. Uma regra que proibisse IA proibiria também seu uso legítimo, e, além disso, não percebo por que proibir IA e não proibir outras formas de manipulação digital como Photoshop e derivados - que podem produzir artefatos também indistinguíveis dos reais, talvez com maior esforço. Saturnalia0 (discussão) 22h42min de 3 de abril de 2023 (UTC)[responder]
@Saturnalia0: a sensível e fundamental diferença aqui é que, no segundo caso, a obra é inerentemente de domínio público. O "loop" que eu descrevi pode acontecer sem que qualquer ilegalidade ou má-fé seja cometido. Domínio público não é CC. Se eu ilustro um artigo da Wikipédia com uma imagem dessas, um livro publica a imagem como se fosse real atribuindo "fonte: domínio público", outro sujeito sobe essa foto separadamente para o commons apenas alegando o mesmo e pronto, a confusão está feita. Não há, neste momento, mais nada que distingua a foto de uma foto real. A única esperança seria uma busca reversa pela imagem resultar na foto original, com atribuição à IA, mas se esta sumir por qq motivo, já era. O terceiro caso que você descreveu pode acontecer e, neste caso, a imagem tendo ampla notoriedade própria por ser IA, não vejo qualquer mal em utilizar. Não sei bem como definir este recorte e, por definição, prefiro errar pelo lado da prudência neste momento. Se você tiver alguma proposta para que este terceiro caso seja utilizável, sou todo ouvidos. Rkieferbaum (discussão) 00h06min de 4 de abril de 2023 (UTC)[responder]
Não entendi essa problemática com domínio público. Eu subo todas minhas imagens no commons como domínio público, veja lá. Você está dizendo que se alguém republicar uma foto real que tirei como sendo sobre outro assunto, forjando alguma coisa, isso é um problema porque para chegar na minha só com busca reversa? Então seu problema é com domínio público e não com IA. Complementando: o primeiro carregamento já seria restrito se o que for exigido é atribuição a autor ou fonte relevante, para o caso de ilustrações, como em, qualquer coisa senão foto autêntica e não manipulada do sujeito, o que inclui arte tradicional, digital, e produzida total ou parcialmente com assistência de IA. Saturnalia0 (discussão) 10h43min de 4 de abril de 2023 (UTC)[responder]
Outro ponto interessante: e gráficos? Qualquer um pode produzir um gráfico com facilidade, forjado ou não, e subir no commons para ilustrar um artigo. Devemos exigir a fonte dos dados somente? E se a interpretação estatística dos mesmos for falha, ou propositalmente enviesada? Gráficos somente de fonte fiavel? Mesmo para o mais trivial? A mesma questão do domínio público se aplica aqui - é um problema? Saturnalia0 (discussão) 11h04min de 4 de abril de 2023 (UTC)[responder]
@Saturnalia0: há algumas diferenças fundamentais. As fotos que você sobe seguramente incluem EXIF, o que já ajuda em vários aspectos. Ademais, imagens geradas por IA não têm autoria no sentido tradicional. Este problema não se aplica nem a gráficos, nem a falsificações tradicionais de imagens: estas serão de autoria do criador, mesmo que este as libere em DP (e, por estas e outras, liberar em CC0 é bem melhor). Há várias formas de identificar falsificações tradicionais de imagem (iluminação, padrão de ruído, identificação das imagens usadas originalmente, etc) que tendem a sumir com IA. De qualquer forma, como explicitei anteriormente, a questão aqui é bem mais por cautela do que algo que se pretenda definitivo. Um usuário sem qualquer conhecimento de Photoshop pode ilustrar, diariamente, centenas de artigos de coisas, pessoas, eventos e lugares históricos. Isso pode sair de mão com muita facilidade. Minha proposta é de cautela e, eventualmente, inserção da tecnologia com cuidado e as devidas salvaguardas para cada caso. Rkieferbaum (discussão) 11h59min de 4 de abril de 2023 (UTC)[responder]
Entendi que o intuito é cautela e não acho que faça sentido me alongar mais na argumentação, só gostaria de registrar o adendo que, salvo esquecimento, eu removo toda informação EXIF antes de subir as fotos no Commons, por privacidade, portanto sequer isso se aplica. Saturnalia0 (discussão) 20h02min de 4 de abril de 2023 (UTC)[responder]

Discordo Para que fique claro: eu discordo de uma proibição geral, mas continuo a concordar com uma proibição em casos específicos. Eu comecei por concordar com uma proibição geral, sem refletir muito, porque as únicas aplicações que estava a imaginar seria a falsificação ou fabricação de fotografias históricas. Mas o Saturnália enumerou uma série de casos em que as imagens geradas por AI não vão ser em nada diferentes de imagens de síntese que atualmente são feitas com recurso a ilustração manual ou 3D. Por exemplo: gráficos, diagramas, esquemas, etc. Por exemplo, se eu pedir à AI para me fazer um GIF de como funciona um motor de combustão, e se o resultado estiver correto? Isso deve ser proibido? Mas se for feito em Photoshop já pode?
No entanto, saliento que continuo a concordar com um ban a toda e qualquer imagem de síntese que tente passar como evidência documental, que deve ser incluída na mesma categoria de montagens ou imagens forjadas. JMagalhães (discussão) 11h25min de 4 de abril de 2023 (UTC)[responder]

@JMagalhães: eu concordo com o uso que você descreve e não veria qq problema em adequar a redação pra restringir apenas imagens que podem eventualmente ser consideradas historicamente representativas (pessoas, eventos, lugares, etc.). Mesmo com as imagens técnicas eu teria certa cautela, porque em alguns casos elas podem também ser confusas em pontos sutis (por exemplo, ao ilustrar técnicas construtivas históricas). Mas estes casos são bem mais fáceis de identificar. Então concordo com a restrição conforme descrita. Rkieferbaum (discussão) 11h53min de 4 de abril de 2023 (UTC)[responder]

Concordo para toda e qualquer imagem histórica ou de objeto ou pessoa de identificação precisa, mas sigo o JMagalhães nas excepções relacionadas com imagens demonstrativas cujo conteúdo possa ser facilmente verificável, como os casos descritos, a que acrescento os brasões de armas, por exemplo, ou seja do domínio do imaginário, passível de ser gerado por descrição. Em qualquer caso, sempre deve ser apresentada a frase usada para gerar a imagem por AI.-- Darwin Ahoy! 21h08min de 4 de abril de 2023 (UTC)[responder]

Também Discordo de uma proibição geral. Acredito que em determinados contextos imagens geradas por IA podem ser usadas desde que seja criado algum tipo de Alerta para que todos saibam que aquela imagem foi criada por IA. Augusto Resende (discussão) 23h55min de 27 de abril de 2023 (UTC)[responder]

Comentário - partilho da opinião do JMagalhães e subscrevo. Luís Almeida "Tuga1143 10h28min de 29 de abril de 2023 (UTC)[responder]

Comentário podemos formar consenso em proibição para "ilustrar imagens historicamente representativas de pessoas, eventos, lugares e objetos específicos", ou coisa nessa linha? @JMagalhães, DarwIn, AugustoResente e Tuga1143: e demais interessados. Rkieferbaum (discussão) 17h50min de 5 de maio de 2023 (UTC)[responder]

@Rkieferbaum Sim. Darwin Ahoy! 19h40min de 8 de maio de 2023 (UTC)[responder]