Archivo - Aplicación Instagram | META - Archivo

TW
0

El Consejo asesor de Meta analizará dos casos de imágenes de mujeres desnudas generadas por inteligencia artificial (IA) compartidas en Facebook e Instagram para tratar de determinar los daños que hace la pornografía 'deepfake' en la sociedad y entender el uso y la prevalencia de esta a nivel global.

El órgano semiindependiente que revisa las decisiones y políticas de Meta seleccionado dos nuevos casos para analizar sobre el llamado porno 'deepfake', esto es, las imágenes generadas o manipuladas con herramientas de IA de gran realismo que muestran personas desnudas con connotaciones sexuales.

En los dos casos aparecen mujeres denudas en imágenes generadas con IA, una de ellas con parecido a una figura pública de India y en la otra, con una figura pública de América. Solo esta segunda fue eliminada por violar las políticas de contenido de Meta, mientras que la otra retiró tras ser seleccionada por la Consejo, como ha detallado en la de social X (antigua Twitter).

Además de analizar las decisiones tomadas por Meta en Facebook e Instagram y el enfoque adoptado por la compañía con este tipo de imágenes, aprovechará para profundizar en el impacto que tiene la pornografía 'deepfake' en la sociedad.

Para este fin, el Consejo ha instado a organizaciones y expertos a contribuir en el análisis. Pretende abordar la naturaleza y la gravedad de los daños que plantea la pornografía 'deepfake', y los daños específicos que afectan a las mujeres. También su uso y prevalencia a nivel mundial.