La inteligencia artificial crea desnudos falsos… y violencia real

Ven la tempestad y no se hincan. Y eso parece estar sucediendo con el lanzamiento del prototipo de la cámara fotográfica Nuca, que presume convertir cualquier foto de una persona en un desnudo. Como si las estafas, pornovenganza y deepfakes no nos estuvieses ahogando ya.

El prototipo de cámara impresa en 3D “pretende provocar y cuestionar la trayectoria actual de la inteligencia artificial generativa en la reproducción de imágenes del cuerpo y deepfakes”, según indican sus creadores en su página web.

Es un dispositivo que se anuncia como un “proyecto de diseño y arte especulativo”, que utiliza la IA para crear instantáneamente y en tan sólo 10 segundos un desnudo de cualquier sujeto del que se tome una fotografía.

Y si bien es un prototipo que no está a la venta siquiera, utiliza tecnología que ya está en apps como Stable Diffusion y Civitai.

El incremento de este tipo de “deep fakes” –como se ha llamado a manera de eufemismo al porno falso– ha ido en incremento.

Esta “tendencia” va de la mano con otra que crea noticias falsas por medio de la IA, generando fragmentos de programas informativos con presentadores reales de cadenas como CBS, CNN y BBC. Paralelamente, celebridades como Rosalía, Emma Watson, Scarlett Johansson y Taylor Swift han sido víctimas de montajes sexuales creados con esta tecnología.

Respecto a las fake news, TikTok lanzó medidas para que los usuarios estén obligados a etiquetar todo el contenido de este tipo como “generado con inteligencia artificial”, con el fin de identificar una potencial suplantación. Para reforzar esa regla, la red social tampoco permitirá ningún contenido que “contenga semejanza con cualquier figura privada real”.

En el tema del porno falso, el FBI lanzó un comunicado alertando por el incremento de robo de imágenes en redes sociales para, a través de inteligencia artificial, manipular de manera maliciosa las imágenes para después extorsionar con falsos perfiles a los dueños de las fotos reales, tanto en Instagram y otras redes.

“Los avances en la tecnología de creación de contenidos y las imágenes personales accesibles online ofrecen nuevas oportunidades a los agresores para encontrar y atacar a las víctimas. Esto les hace vulnerables a la vergüenza, el acoso, la extorsión, la pérdida financiera o la revictimización continua a largo plazo”, aseguraron las autoridades estadunidenses.

Pues no solo se solicitan sumas de dinero para retirar el material, sino en ocasiones se solicita que la víctima realice videos o fotos íntimas, lo que la inscribe en un ciclo de violencia sin fin.

¿Es la inteligencia artificial la culpable o la maldad real y natural de la sociedad que se espanta de chistes sin corrección política, pero consume y difunde pornografía y “nudes” de personas sin importar las consecuencias, entre ellas la inducción al suicidio?

Al parecer, eso de que somos la generación que ya cambió es solo una frase más.. tan falsa como las imágenes de Nuca.

Fuente: milenio.com

Síguenos en Twitter

Síguenos en Facebook

Notas relacionadas

Impunidad y violencia contra las mujeres

Impunidad y violencia contra las mujeres

De las 3,900 agencias del Ministerio Público que se encuentran en los estados del país, las que se especializan en delitos contra las mujeres, violencia familiar y en feminicidios representan tan solo el 16%. Veracruz, Jalisco y Puebla encabezan la lista nacional con...

71 aniversario del voto de las mujeres en México

71 aniversario del voto de las mujeres en México

Estamos a unos días de que se cumplan 71 años de que a las mujeres se les reconociera el derecho constitucional de votar y ser votadas en elecciones federales. Para ello, a lo largo de la historia se han registrado importantes capítulos protagonizados por mujeres de...

La tómbola

La tómbola

350 Magistrados y Magistradas, y 361 jueces y juezas serán destituidos; sus vidas y sus carreras judiciales terminaron en una tómbola, hoy son los primeros; y van por todos y todas, por todo el Poder Judicial. Los corren porque así lo ordenó López Obrador y lo está...