O Conselho de Supervisão do Meta está mais uma vez assumindo as regras da rede social para conteúdo gerado por IA. O conselho aceitou dois casos que tratam de imagens explícitas de figuras públicas feitas por IA.
Embora as regras do Meta já proíbam a nudez no Facebook e no Instagram, o conselho disse em um comunicado que deseja abordar se “as políticas do Meta e suas práticas de aplicação são eficazes no tratamento de imagens explícitas geradas por IA”. Às vezes chamadas de “pornografia deepfake”, as imagens geradas por IA de celebridades femininas, políticas e outras figuras públicas tornaram-se uma forma cada vez mais proeminente de assédio online e geraram uma onda de assédio online. Com os dois casos, o Conselho de Supervisão poderia pressionar o Meta a adotar novas regras para lidar com tal assédio na sua plataforma.
O Conselho de Supervisão disse que não nomeia as duas figuras públicas no centro de cada caso, num esforço para evitar mais assédio, embora tenha descrito as circunstâncias em torno de cada postagem.
Um caso envolve uma postagem no Instagram mostrando uma imagem gerada por IA de uma mulher indiana nua que foi postada por uma conta que “compartilha apenas imagens de mulheres indianas geradas por IA”. A postagem foi denunciada ao Meta, mas o relatório foi encerrado após 48 horas porque não foi revisado. O mesmo usuário apelou da decisão, mas o recurso também foi encerrado e nunca analisado. Meta finalmente removeu a postagem depois que o usuário apelou ao Conselho de Supervisão e o conselho concordou em aceitar o caso.
O segundo caso envolveu uma postagem no Facebook em um grupo dedicado à arte de IA. A postagem em questão mostrava “uma imagem gerada por IA de uma mulher nua com um homem apalpando seus seios”. A mulher deveria se parecer com “uma figura pública americana” cujo nome também estava na legenda da postagem. A postagem foi removida automaticamente porque havia sido denunciada anteriormente e os sistemas internos do Meta conseguiram combiná-la com a postagem anterior. O usuário apelou da decisão de retirá-lo, mas o recurso foi “encerrado automaticamente”. O usuário então recorreu ao Conselho de Supervisão, que concordou em considerar o caso.
Em um comunicado, a co-presidente do Conselho de Supervisão, Helle Thorning-Schmidt, disse que o conselho abordou os dois casos de países diferentes, a fim de avaliar potenciais disparidades na forma como as políticas do Meta são aplicadas. “Sabemos que o Meta é mais rápido e eficaz na moderação de conteúdo em alguns mercados e idiomas do que em outros”, disse Thorning-Schmidt. “Ao considerar um caso dos EUA e outro da Índia, queremos verificar se o Meta está a proteger todas as mulheres a nível mundial de uma forma justa.”
O Conselho de Supervisão está solicitando comentários públicos nas próximas duas semanas e publicará sua decisão nas próximas semanas, juntamente com recomendações políticas para o Meta. Um processo semelhante envolvendo um vídeo editado de forma enganosa resultou recentemente na Meta concordando com mais conteúdo gerado por IA em sua plataforma.