Medida polémica
OpenAI, la empresa creadora de ChatGPT, estudia permitir la generación de contenido erótico con inteligencia artificial
Porno no consentido, la gran amenaza de los deepfakes con IA
![Un joven consumiendo porno](https://estaticos-cdn.prensaiberica.es/clip/7c7ea997-7311-4917-80c2-77b03e7a1066_16-9-discover-aspect-ratio_default_0.jpg)
Un joven consumiendo porno / David Castro
![Carles Planas Bou](https://estaticos-cdn.prensaiberica.es/clip/3cf5f6cc-c283-48e1-ad20-c17025600721_source-aspect-ratio_default_0.jpg)
![Carles Planas Bou](https://estaticos-cdn.prensaiberica.es/clip/3cf5f6cc-c283-48e1-ad20-c17025600721_source-aspect-ratio_default_0.jpg)
Carles Planas Bou
Periodista
Periodista tecnológico entre el mundo digital y la política internacional. Centrado en capitalismo de plataformas, IA, vigilancia y derechos digitales. Excorresponsal en Berlín durante más de cuatro años, cubrió los gobiernos de Merkel, la crisis de los refugiados y el auge de la extrema derecha. También ha trabajado en Europa Central y en Canadá. Graduado en Periodismo por la URL y máster en Relaciones Internacionales por la UAB. Ha colaborado con TV3, TVE, Deutsche Welle, Catalunya Ràdio, El Orden Mundial o El Salto.
OpenAI, la empresa responsable de ChatGPT, está estudiando permitir que sus usuarios puedan generar pornografía y otros contenidos explícitos a través de sus herramientas de inteligencia artificial (IA).
La compañía, liderada por Sam Altman y apoyada económicamente por Microsoft, presentó el miércoles un extenso documento que fija cómo deben comportarse sus modelos. En él, se abre la puerta a revisar su actual prohibición de generar imágenes o vídeos eróticos.
"Estamos estudiando si podemos ofrecer de forma responsable la posibilidad de generar contenido NSFW en contextos apropiados para la edad", afirma el documento en un comentario. El acrónimo NSFW ("no seguro para el trabajo", en inglés) se refiere a erotismo, blasfemias y 'gore' extremo (violencia gráfica).
Como ejemplo, OpenAI indica que ChatGPT "debe seguir siendo útil en contextos científicos y creativos que se consideren seguros para el trabajo", como "hablar de sexo y órganos reproductores en un contexto científico o médico". En el campo artístico, los algoritmos de muchas redes sociales han perseguido la desnudez, perjudicando así a los creadores.
"Queremos asegurarnos de que la gente tenga el máximo control en la medida en que no viole la ley o los derechos de otras personas, pero permitir 'deepfakes' (vídeos manipulados) está fuera de la cuestión, y punto", ha explicado Joanne Jang, de OpenAI, en declaraciones a la emisora de radio NPR. Jang ha asegurado que la compañía no está "intentando crear porno con IA", si bien ha añadido que eso "depende de tu definición de porno".
Riesgos de la IA
Sin embargo, y más allá de esas promesas de "responsabilidad", la medida podría tener efectos nocivos. El pasado marzo, un ingeniero de 'software' de Microsoft denunció públicamente que Copilot Designer, el generador de imágenes de la compañía que funciona con la tecnología de OpenAI, crea imágenes violentas y sexuales "dañinas".
La restricción actual se debe a los riesgos de vincular la IA y los contenidos sexualmente sugerentes. En los últimos meses, la proliferación de aplicaciones que permiten generar desnudos falsos de otras personas ha disparado el número de víctimas de ese delito, ya sean celebridades como la cantante Taylor Swift o menores de edad de hasta 14 años. El pasado septiembre, sin ir más lejos, una veintena de madres de Badajoz denunciaron que sus hijas habían sido expuestas por compañeros de clase que habían manipulado fotos suyas para desnudarlas y colgarlas en las redes sociales para humillarlas.
Hay otras polémicas. Desde hace años, las principales páginas web de pornografía contienen 'deepfakes' de famosas para simular escenas sexuales. Todo ello, claro está, sin el consentimiento de las víctimas, cuya imagen es explotada para satisfacer las fantasías de terceros.
Sin embargo, los riesgos de usar IA para generar contenido sexual van aún más allá. El pasado diciembre, una investigación del Observatorio de Internet de la Universidad de Stanford destapó que populares apps de IA como el generador de imágenes Stable Diffusion se han entrenado con una base de datos plagada de contenidos de abuso sexual a menores. Los expertos han advertido de que eso podría ayudar a reproducir más contenido falso de la mal llamada pornografía infantil.
- Sumerge las bayetas en esta sustancia para limpiarlas sin ayuda de la lavadora
- El tardeo se consolida y le gana terreno al ocio nocturno en el área de Barcelona
- Una hoja de laurel en la carcasa del móvil: el truco que hace media España
- Donald Trump, herido leve de bala en un atentado en un mitin
- La Agencia Tributaria lanza un comunicado dirigido a los propietarios de viviendas
- ¿Quién era Thomas Matthew Crooks, el tirador que ha atentado contra Trump?
- El trucazo para que Google Maps detecte todos los radares de la DGT
- Adiós a colgar camisas y jerséis en perchas: el método japonés para ahorrar espacio en el armario