Ven la tempestad y no se hincan. Y eso parece estar sucediendo con el lanzamiento del prototipo de la cámara fotográfica Nuca, que presume convertir cualquier foto de una persona en un desnudo. Como si las estafas, pornovenganza y deepfakes no nos estuvieses ahogando ya.
El prototipo de cámara impresa en 3D “pretende provocar y cuestionar la trayectoria actual de la inteligencia artificial generativa en la reproducción de imágenes del cuerpo y deepfakes», según indican sus creadores en su página web.
Es un dispositivo que se anuncia como un «proyecto de diseño y arte especulativo», que utiliza la IA para crear instantáneamente y en tan sólo 10 segundos un desnudo de cualquier sujeto del que se tome una fotografía.
Y si bien es un prototipo que no está a la venta siquiera, utiliza tecnología que ya está en apps como Stable Diffusion y Civitai.
El incremento de este tipo de “deep fakes” –como se ha llamado a manera de eufemismo al porno falso– ha ido en incremento.
Esta “tendencia” va de la mano con otra que crea noticias falsas por medio de la IA, generando fragmentos de programas informativos con presentadores reales de cadenas como CBS, CNN y BBC. Paralelamente, celebridades como Rosalía, Emma Watson, Scarlett Johansson y Taylor Swift han sido víctimas de montajes sexuales creados con esta tecnología.
Respecto a las fake news, TikTok lanzó medidas para que los usuarios estén obligados a etiquetar todo el contenido de este tipo como “generado con inteligencia artificial”, con el fin de identificar una potencial suplantación. Para reforzar esa regla, la red social tampoco permitirá ningún contenido que “contenga semejanza con cualquier figura privada real”.
En el tema del porno falso, el FBI lanzó un comunicado alertando por el incremento de robo de imágenes en redes sociales para, a través de inteligencia artificial, manipular de manera maliciosa las imágenes para después extorsionar con falsos perfiles a los dueños de las fotos reales, tanto en Instagram y otras redes.
“Los avances en la tecnología de creación de contenidos y las imágenes personales accesibles online ofrecen nuevas oportunidades a los agresores para encontrar y atacar a las víctimas. Esto les hace vulnerables a la vergüenza, el acoso, la extorsión, la pérdida financiera o la revictimización continua a largo plazo”, aseguraron las autoridades estadunidenses.
Pues no solo se solicitan sumas de dinero para retirar el material, sino en ocasiones se solicita que la víctima realice videos o fotos íntimas, lo que la inscribe en un ciclo de violencia sin fin.
¿Es la inteligencia artificial la culpable o la maldad real y natural de la sociedad que se espanta de chistes sin corrección política, pero consume y difunde pornografía y “nudes” de personas sin importar las consecuencias, entre ellas la inducción al suicidio?
Al parecer, eso de que somos la generación que ya cambió es solo una frase más.. tan falsa como las imágenes de Nuca.
Fuente: milenio.com