¿Qué papel tiene la Inteligencia Artificial en el futuro del comportamiento humano?
Nos enfrentamos a retos de gran envergadura, como puede ser el cambio climático, el envejecimiento de la población o la sostenibilidad del planeta. Para poder afrontar estos retos vamos a tener que apoyarnos en tecnología y dentro de la tecnología, en la Inteligencia Artificial.
Hay un movimiento mundial para ver cómo vamos a usar la Inteligencia Artificial para tener impacto social positivo, y para ayudarnos a tomar decisiones basadas en evidencia, en datos, que nos permitan conseguir los 17 objetivos de desarrollo sostenible. Esa es la aspiración, pero no podemos ser inocentes. También tenemos que reflexionar sobre las limitaciones y métodos actuales que nos impiden desarrollar esa visión.
¿Cuáles son esas limitaciones relacionadas con el uso de la tecnología?
Los sesgos y la discriminación por diferentes motivos son grandes limitaciones. Si desarrollamos métodos basados en datos y si los datos tienen sesgos, la Inteligencia Artificial va a aprender con sesgo.
Otro de los retos son las violaciones computacionales de la privacidad. Es decir, de datos que no son personales se pueden inferir atributos personales. Por ejemplo, a partir del patrón de likes en una red social, que se consideraría algo no personal, se puede inferir tu orientación sexual, tus inclinaciones políticas, tu nivel socioeconómico o tu género.
Otro desafío es la falta de transparencia o la opacidad. Hay tres tipos de opacidad en los sistemas algorítmicos basados en la Inteligencia Artificial. El primero surge porque los algoritmos que utilizamos (por ejemplo en las redes neuronales) son tan complejos que es difícil entender cómo funcionan. Otro tipo de opacidad es la intencional, y hace referencia a que los creadores de estos algoritmos, intencionalmente, no quieren desvelar con detalle cómo están hechos. Y luego, hay otra opacidad que es la del conocimiento: incluso si yo fuese a enseñarte mi código fuente con mis algoritmos, si tú no tienes un mínimo de conocimiento técnico, no sirve de nada.
El cuarto reto es de asimetría. Tenemos asimetrías desde muchos puntos de vista pero voy a mencionar dos: el primero es la asimetría con respecto al acceso a los datos y el provecho que se puede sacar de ellos para tomar decisiones. La mayoría de los datos no son públicos sino que están generados por empresas privadas. De modo que quien tenga acceso a los datos tiene mucho poder, pues tiene la capacidad de aprovecharlos y sacarles partido. La otra asimetría aún más difícil de solventar es la de conocimiento y habilidades, donde ahora mismo somos un porcentaje muy bajo de la población los que somos capaces de sacarle partido a estos datos. Si yo te doy los datos y el 99% de la población no sabe qué hacer con ellos, da absolutamente igual.
¿En qué medida el comportamiento humano es manipulado por quienes tienen acceso a los datos?
Hay un fenómeno que es muy preocupante que es la manipulación del comportamiento humano y de la opinión pública de manera subliminal por parte de quienes tienen acceso a los datos y a la capacidad para hacer algo con ellos. En ese contexto hay dos grandes áreas de manipulación: a través de social media (Facebook fundamentalmente) donde el objetivo es modelar de manera muy detallada los diferentes perfiles humanos y hacer campañas de microtargeting, totalmente personalizadas de inyección de información de anuncios o noticias en las plataformas de social media para dirigir la intención de voto, por ejemplo. El caso más conocido es el escándalo de Facebook y Cambridge Analytica con las elecciones americanas y también con el Brexit.
Pero hay otra manera de manipulación subliminal del comportamiento humano que, es menos conocida, y se da por el mero uso de un buscador. Estos buscadores deciden lo que es importante y lo que no es. Entonces hay varios efectos, incluyendo uno que se llama Search Engine Manipulation, y el otro que se llama de Search Suggestion Manipulation. El primero refiere a la manipulación simplemente por buscar, que es cuando tu buscas en Internet y te muestra una lista ordenada, un ranking donde inevitablemente hay cosas que están arriba del todo y cosas que están abajo. Entonces si, por ejemplo, frente a unas elecciones, tú selectivamente decides qué candidato poner arriba, de manera subliminal estás de alguna manera cambiando el comportamiento.
Otro ejemplo es con las sugerencias que te ponen cuando tecleas en un buscador. De nuevo, esas sugerencias son una manera de manipular el comportamiento humano. Se hizo un experimento donde gente que no estaba decidida a quien votar tenía que teclear el nombre del candidato y allí aparecían sugerencias. En función del tipo de sugerencias los investigadores encontraron que con gente indecisa podían cambiar la intención de voto en un 90%.
También está el reto de la veracidad. Hoy en día utilizando Inteligencia Artificial podemos crear contenidos sintéticos de video, texto, fotos, audio, que es indistinguible del contenido veraz. Yo puedo ahora mismo generar una foto tuya o un video tuyo que parezca que estás diciendo cualquier barbaridad que se me ocurra a mí y que nadie pueda distinguir que eso es verdad o no.
¿En qué dirección hay que trabajar para revertir estos retos?
Centrar el desarrollo tecnológico en la humanidad, en las personas siempre. Desde un punto de vista ético, me gustan resumir las principales líneas de trabajo en un acrónimo que en inglés es FATEN. La F significa fairness, justicia. Tenemos que asegurarnos que los algoritmos que desarrollamos no discriminen. La A es triple, de autonomía, y tiene que ver con que la autonomía humana siempre se debe preservar, es un pilar fundamental. La A también es de accountability (es decir, con claridad en la atribución de responsabilidad) y de aumento de la inteligencia. La "T" es de transparencia, tanto algorítmica como con respecto a explicar para qué se utilizan los datos, cuando interactuamos con humanos, algoritmos, etc. La "E" es de beneficencia, es decir, deberíamos aspirar a que estos desarrollos tecnológicos contribuyan al progreso de la humanidad; y de educación, pilar fundamental para resolver el reto de la asimetría. La "N" es no maleficencia, significa asegurarnos de que el desarrollo tecnológico no es negativo y no va a hacer daño, aplicando un principio de prudencia, con fiabilidad, seguridad y siempre preservando la privacidad.