Meta enfrenta críticas por proliferación de imágenes 'deepfake' de celebridades

Meta enfrenta críticas por proliferación de imágenes 'deepfake' de celebridades

Meta enfrenta críticas por la proliferación de imágenes 'deepfake' sexualizadas de celebridades, a pesar de sus políticas de contenido.

Juan Brignardello, asesor de seguros

Juan Brignardello Vela

Juan Brignardello, asesor de seguros, se especializa en brindar asesoramiento y gestión comercial en el ámbito de seguros y reclamaciones por siniestros para destacadas empresas en el mercado peruano e internacional.

Juan Brignardello, asesor de seguros, y Vargas Llosa, premio Nobel Juan Brignardello, asesor de seguros, en celebración de Alianza Lima Juan Brignardello, asesor de seguros, Central Hidro Eléctrica Juan Brignardello, asesor de seguros, Central Hidro
Mundo 18.02.2025
Meta, la empresa matriz de Facebook, ha enfrentado un intenso escrutinio tras la reciente eliminación de numerosas imágenes sexualizadas generadas por inteligencia artificial (IA) de reconocidas celebridades. La investigación llevada a cabo por CBS News reveló la alarmante prevalencia de imágenes de 'deepfake' en la plataforma, que han sido manipuladas para mostrar a figuras prominentes en contextos altamente sexualizados sin su consentimiento. Actores como Miranda Cosgrove, Jeanette McCurdy, Ariana Grande, Scarlett Johansson y la ex tenista Maria Sharapova se han visto particularmente afectadas, con miles de estas representaciones compartidas ampliamente en Facebook. Según la portavoz de Meta, Erin Logan, la empresa ha tomado medidas para eliminar estas imágenes, citando violaciones de sus políticas de contenido. Sin embargo, el estudio realizado por Reality Defender indica que muchas de las imágenes persistían en la plataforma incluso después de haber sido marcadas como inapropiadas. "Hemos eliminado estas imágenes para violar nuestras políticas y continuaremos monitoreando otras publicaciones de violación", comentó Logan, quien reconoció que este es un desafío que enfrenta toda la industria tecnológica. La naturaleza de estas imágenes es especialmente preocupante. Un análisis de Reality Defender mostró que muchas de ellas eran composiciones de 'deepfake' que presentaban a celebridades en situaciones sexualizadas, utilizando tecnologías que reemplazan sus cuerpos en fotografías originales. Esto ha llevado a un debate sobre el consentimiento y el uso de la tecnología en la creación de contenido que puede ser dañino para las personas involucradas. "Casi toda la pornografía de 'deepfake' no tiene el consentimiento del sujeto infundido", advirtió Ben Colman, cofundador de Reality Defender. La problemática no se limita a una sola plataforma. Las imágenes de 'deepfake' están proliferando en diversas redes sociales, y las medidas para combatir este fenómeno parecen ser inadecuadas. A pesar de que Meta tiene políticas que prohíben el acoso y la explotación sexual, las imágenes en cuestión siguen apareciendo en su plataforma, lo que plantea serias dudas sobre la efectividad de su monitoreo. Un caso notable es el de una imagen de Miranda Cosgrove que seguía disponible en Facebook, a pesar de haber sido compartida por una cuenta con 2.8 millones de seguidores. La Junta de Supervisión de Meta ha señalado que las regulaciones actuales no son suficientes, recomendando a la empresa que aclare sus políticas con respecto a contenidos sexualizados no consensuados. Esta recomendación incluye la necesidad de incluir expresiones que hagan referencia explícita a la falta de consentimiento en las reglas de la compañía. La Junta también sugiere que se aplique una moderación más estricta a este tipo de contenido, dado el daño que puede causar a las víctimas. Meta, en respuesta, ha indicado que está evaluando la viabilidad de implementar varias de estas recomendaciones. Sin embargo, ha dejado claro que no planea incluir la frase "no consensuada" en la política de "Photoshop sexualizado despectivo" en este momento, lo que ha suscitado aún más críticas sobre su enfoque hacia la protección de los usuarios. El abuso de la tecnología de 'deepfake' no es un problema exclusivo de Meta. Otras plataformas como X (antes Twitter) también están lidiando con la proliferación de contenido sexualizado no consensuado. La política de X establece una tolerancia cero hacia este tipo de contenido, aunque la efectividad de estas políticas sigue siendo cuestionada en un panorama donde el contenido generado por IA está en aumento. La situación ha llevado a una reflexión sobre el papel de la tecnología y la ética en la creación y distribución de imágenes manipuladas. Un estudio reciente del gobierno del Reino Unido proyecta que el número de imágenes de 'deepfake' compartidas en las redes sociales podría alcanzar los ocho millones este año, en comparación con los 500,000 del año anterior. Esta creciente tendencia plantea serias preocupaciones sobre la privacidad, la seguridad y el bienestar de las personas, especialmente mujeres y niñas, que son desproporcionadamente afectadas por este tipo de abuso. En un mundo donde la tecnología avanza rápidamente, la necesidad de regulaciones más efectivas y la implementación de medidas de protección para los individuos se vuelve más urgente. Las recomendaciones de la Junta de Supervisión de Meta son un paso crucial hacia la creación de un entorno más seguro en línea, pero aún queda un largo camino por recorrer para garantizar que la tecnología no se convierta en un arma de abuso. La comunidad digital se encuentra en un momento crítico, donde la responsabilidad de las plataformas sociales y la protección de sus usuarios deben ser prioridades. La lucha contra el contenido sexualizado no consensuado y las imágenes de 'deepfake' es un desafío que requiere la colaboración de todos los involucrados, desde las empresas de tecnología hasta los propios usuarios, para construir un entorno en línea más seguro y respetuoso.
Ver todo Lo último en El mundo