Creadora del área ética algorítmica de Twitter

Ariadna Font: "La IA carece de un marco regulatorio y así es fácil violar derechos humanos"

Su impresionante carrera ha estado vinculada a los grandes nombres de la tecnología mundial y la convierte en una de las ponentes más destacadas del Forum Europeo de Inteligencia Artificial en Alicante

Ariadna Font ha trabajado en tres de los grandes de la tecnología: IBM, Meta y Twitter.

Ariadna Font ha trabajado en tres de los grandes de la tecnología: IBM, Meta y Twitter. / INFORMACIÓN

Redacción

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

Ariadna Font nació y creció en Barcelona y es doctora en lingüística computacional por la Universidad norteamericana Carnegie Mellon. Su impresionante carrera ha estado vinculada a los grandes nombres de la tecnología mundial. Formó parte del “Grupo Watson” de IBM, fue fundadora de META y de su equipo de transparencia y rendición de cuentas y también fue creadora del área de ética algorítmica de Twitter, donde también desempeñó la estratégica tarea de ser directora de ingeniería de la plataforma de aprendizaje automático. Un currículum que la convierte en una de las ponentes más destacadas del Forum Europeo de Inteligencia Artificial que, organizado y promovido por Encuentros NOW, Ellis Alicante, INFORMACIÓN y Prensa Ibérica, se celebrara este miércoles en el ADDA.

¿Por qué hay aún tanta gente a la que todo lo relacionado con la Inteligencia Artificial le causa aún tanta inquietud? ¿Es un efecto parecido a las reacciones negativas que provocaron las anteriores "revoluciones industriales" a las que se compara su llegada?

undefined

La Inteligencia Artificial (IA), como cualquier herramienta, puede ser usada para bien y para mal. Con el hueco regulatorio que existe hoy en día en torno a la IA, es comprensible que haya inquietud sobre el tema porque, queriendo o no, sin una buena regulación es fácil violar derechos humanos en nombre del progreso, como ya se ha visto con el tema del reconocimiento de caras en contextos policiales. Por otro lado, hay que tener en cuenta que varios de los que divulgan a gritos que la IA supone un riesgo existencial, se están beneficiando del pánico relacionado con la IA. Ya en el 2016 desde IBM Watson comparábamos la entrada de la IA en el mundo de los negocios y en la sociedad con la Revolución Industrial, y yo sigo pensando que es una buena analogía, porque nos ayuda a entender la dimensión e impacto de los cambios que están ocurriendo ya y ocurrirán en los próximos años. No es una moda que vaya a pasar, porque la IA lleva años permeando todo lo que hacemos, sobre todo en el mundo digital. En realidad, la IA generativa, con la llegada de chatGPT, es más bien una revolución de acceso y de experiencia de usuario y no tanto de deep tech. La tecnología de IA ha estado avanzando mucho en la última década y ahora estamos viendo una aceleración muy fuerte, pero lo que hizo que estallara en popularidad a finales del año pasado fue el acceso abierto a todo el mundo -mientras que durante la década anterior, solamente los investigadores en IA y algunos desarrolladores de software tenían acceso directo.

¿Qué impacto tiene la inteligencia artificial en nuestra cultura, nuestra identidad, nuestra comunicación y nuestra forma de pensar y aprender? ¿Nos hace más inteligentes o nos hace más dependientes?

undefined

Las dos.¿Qué pasó cuando se inventó la calculadora? ¿Eso nos hizo más inteligentes o más dependientes? ¿Y cuando salieron los ordenadores personales al mercado? Pues la IA es una pieza principal de una nueva generación de sistema operativo para los ordenadores que ya todos tenemos en nuestros bolsillos, nuestros hogares y nuestros trabajos. Los LLMs (modelos de lenguaje con miles de millones de parámetros que han sido entrenados con gran cantidad de datos), usados de manera responsable y sostenible, nos van a dar superpoderes a todos, sobre todo en los campos que no dominamos (programar, escribir, dibujar, etc) y nos va a ayudar a procesar y clasificar el volumen inmenso de información que nos rodea.

¿Estaremos dominados algún día por la IA?

¡Esperemos que no! Yo soy de las que piensa y trabaja para que la IA apoye a los humanos y nos ayude a mejorar su día a día. El paradigma que tenemos que fomentar es el de que las máquinas están para aumentar la inteligencia humana, no dominarla ni reemplazarla. Y esto depende de nosotros. De los investigadores que están inventando estas nuevas tecnologías, de las empresas que las están impulsando, de la sociedad civil que compra y usa esos productos y de los gobiernos que les toca legislar esta nueva realidad. 

¿Hasta qué punto va a modificar nuestras vidas la IA en los próximos años?

Espero que esto dependerá, en gran parte, de hasta qué punto dejemos que cambie nuestras vidas. Desde un punto de vista tecnológico, el potencial de cambio es inmenso, pero lo más importante y difícil es decidir cuándo y cómo queremos que nos cambie las vidas. Mi idea de futuro, donde la IA está al servicio de la humanidad, es una sociedad donde podamos dedicar la mayor parte de nuestro tiempo a aprender y hacer las cosas que nos gustan, delegando las cosas que no nos aportan ninguna satisfacción a las máquinas. Tenemos una oportunidad histórica única de crear una sociedad y un mundo más justo y más enriquecedor para todas las personas, y no solo unos cuantos que tienen el poder. Pero eso no va a pasar automáticamente, hay que trabajar a muchos niveles para conseguirlo. 

¿Crees que está cambiando la percepción negativa o neutra que mucha gente tiene de la iA y que ésta se está convirtiendo en positiva?

Como decía antes, la IA generativa ha representado principalmente una revolución de acceso y de experiencia de usuario: por fin la gente de la calle puede tocar y relacionarse con esta tecnología directamente de manera natural y puede juzgar por sí misma. Sin embargo, hoy en día, si preguntas para qué sirven los LLMs, la gente no consigue ver mucho más allá de los chatbots. Y reducir los LLMs a chatbots, es como pensar que los ordenadores solo son calculadoras. Por lo tanto, la mayoría de la gente todavía tiene una idea equivocada de los riesgos y beneficios de esta tecnología, es decir de su impacto real.

¿Qué principios y normas deberían regir el desarrollo y el uso de la inteligencia artificial para garantizar su responsabilidad, transparencia, equidad y respeto a los derechos humanos?

La IA Responsable (RAI) es un campo relativamente nuevo y se preocupa exactamente de esto. Además de respetar los derechos humanos, hay unos principios comunes en la mayoría de marcos de RAI: inclusividad, equidad y justicia, transparencia, privacidad y seguridad y rendición de cuentas. Hay también equipos dedicados exclusivamente a velar por que estos principios se apliquen durante todas las fases de producción (diseño, desarrollo y evaluación) de los sistemas con componentes de IA. De hecho, yo lideré el equipo de RAI en Twitter desde el 2020 hasta el 2022.

¿Por qué trabajar en temas relacionados con la IA es una de las profesiones con más futuro? ¿Qué habilidades y competencias se requieren para trabajar con la inteligencia artificial o para convivir con ella en el futuro?

Para diseñar e implementar una IA responsable, necesitamos a profesionales y a gente de todo tipo. Cuanta más diversidad haya entre los creadores de estas nuevas tecnologías, mejor. No sólo a nivel profesional, con distintos campos de especialización, sino también a nivel personal, con experiencias vitales diferentes. Una de las cosas que cambiará la IA es el sistema educativo, como aprenden los niños, así como las habilidades y competencias que serán necesarias en un futuro donde la IA se encargará de hacer muchas de las tareas que hoy en día hacemos nosotros. En mi opinión, lo más importante que les podemos enseñar a las generaciones que vienen es, por un lado, el pensamiento crítico y el método científico, y por el otro cultivar la creatividad y la imaginación. Ambos aspectos serán muy necesarios tanto para seguir inventando y creando nuevas tecnologías, como para convivir con la IA de la mejor manera posible. Relacionado con esto, la escritura está muy ligada a nuestra capacidad de pensar, y por lo tanto es muy importante que cada uno de nosotros continúe desarrollando y utilizando esta capacidad regularmente, en vez de delegarla por completo a chatGPT. De no hacerlo, se nos acabaría atrofiando nuestra capacidad de pensar, y eso es algo que no queremos que las máquinas hagan por nosotros. 

¿Crees que eventos como el Fórum de Inteligencia Artificial que se celebrará en Alicante el próximo 4 de octubre ayudan a romper miedos y tópicos sobre lo que la IA es y va a representar en nuestra vida?

¡Sin duda! Vienen ponentes de primera clase con mucha experiencia en estos temas y seguro será un congreso muy informativo que ayudará a acercar el impacto de la IA a los asistentes.

Yo, IA, y los humanos

Ariadna Font pregunta a las tres IA más conocidas, Open AI, Bard Llama 2, su opinión sobre las diferencias entre su propia inteligencia y la de los seres que las han creado

"¡Definitivamente no!". Ariadna Font respondía así de enfáticamente a la pregunta de si la inteligencia humana y la de la AI son comparables. Ella nos dio su pormenorizada respuesta, aquí incluida, pero luego decidió ir un paso más allá y dejar que fueran tres de las IA más conocidas (Open AI, creadora de ChatGPT; Bard, la AI de Google que ya se está implantando en sus búsquedas; y Llama 2 la AI de Meta) las que respondieran a esa misma pregunta. Ariadna explicaba que "los modelos de lenguaje con miles de millones de parámetros que han sido entrenados con gran cantidad de datos (LLMs) son como "loros estocásticos" (término acuñado por Emily Bender en un artículo del 2021 muy controvertido sobre si los modelos de lenguaje que se estaban creando en Google y otras grandes empresas tecnológicas eran demasiado grandes).

Estos modelos sólo predicen la probabilidad de la siguiente palabra, dadas las palabras anteriores. Son mecanismos enormes de memorización. Lo que pasa es que la calidad de generación de texto e imágenes de estos modelos es cada vez mayor, y por lo tanto es cada vez es más difícil darse cuenta de que lo que hay detrás son máquinas que ni piensan, ni entienden. Los test que hasta hace poco servían para distinguir humanos de máquinas ya se están poniendo en cuestión, e incluso ahora se ha dado la vuelta a la tortilla y más bien puedes detectar cuando estás hablando con una máquina porque produce un contenido demasiado perfecto, sin faltas ni errores gramaticales. Y para que veáis de qué estoy hablando, le he hecho esta misma pregunta a 3 de los modelos de lenguaje más grandes y de más calidad que existen hoy en día".