José Ignacio Latorre: «Las que tienen el límite del conocimiento hoy no son las universidades sino las corporaciones»

Compartir:

Esta semana, los cuatro Premios Nobel de Física y Química están relacionados con la inteligencia artificial (IA) y dos de ellos trabajaron en Google. El entrevistado, físico cuántico, investigador, divulgador científico y catedrático español, becario del MIT y director del Centre for Quantum Technologies de Singapur, donde reside, es también el creador del Centro de Computación Cuántica de Abu Dhabi, sitio en el que pasa un tercio de su tiempo. Latorre elogia el progreso en IA a partir de sus investigaciones en física teórica y en la teoría de la información cuántica. Cree que muchos problemas de la política son, en realidad, técnicos y que el problema del futuro para los humanos será la longevidad. Pronostica una guerra entre jóvenes y viejos, y que el límite del conocimiento no lo ostentarán las universidades sino las corporaciones. Latorre en Europa fundó la Nnpdf, que usa la inteligencia artificial para analizar los datos del colisionador de partículas LHC (Gran Colisionador de Hadrones) en el CERN (Organización Europea para la Investigación Nuclear).


¿Cuánto la mecánica cuántica altera el curso de la filosofía?
La mecánica cuántica es la mejor teoría que los humanos hemos construido para comprender la naturaleza. En ese sentido, altera todo el curso de la filosofía. Para que la gente entienda un poquito por qué la mecánica cuántica tiene este carisma tan especial, es que las leyes de la física clásica que estamos acostumbrados, las leyes de Newton, no tienen validez en el mundo de las partículas subatómicas ni en los átomos. Hemos descubierto toda esta nueva forma de construir la teoría, de cómo describir los átomos, desde principios del siglo XX. La primera ecuación cuántica es del 7 de octubre de 1900. Lo que no nos esperábamos es que al llegar a controlar la materia a nivel de sus elementos mínimos, es decir a nivel de átomos, a nivel de protones, a nivel de electrones, de fotones, ha aparecido algo inesperado, y es que las leyes de la mecánica cuántica nos permiten calcular, nos permiten hacer computación cuántica, le llamamos, de una forma radicalmente diferente a la que ustedes utilizan en un ordenador de sobremesa. Estamos ahora en plena batalla en la Tierra por liderar la nueva forma de computar. Es decir, queremos saber cuáles son las ventajas de un ordenador cuántico, para qué nos va a servir y en qué sentido, pues, los países que ostenten la computación cuántica, el conocimiento de computación cuántica, van a seguir liderando la tecnología del futuro.

¿En qué se diferencia una computadora cuántica de una normal y cómo se relaciona una computadora cuántica con la inteligencia artificial cuántica? 
La computadora cuántica requiere necesariamente vivir en el mundo de la mecánica cuántica, el mundo de lo muy pequeño, de lo que está controlado, en la que un átomo queda libre en medio del espacio, todos los demás influencian sobre él y lo alteran. Entonces, si hemos codificado información en un átomo, se pierde inmediatamente. Eso nos fuerza a construir ordenadores cuánticos, que son unas de las máquinas más precisas que los humanos hemos creado. Pero para que se haga una idea, un tipo de ordenador cuántico se hace con lo que se llama corriente de superconductores. Hemos de bajar a la temperatura de diez milikelvin, es decir -273 grados, donde de repente frenamos el universo y la mecánica cuántica aparece en toda su plenitud. Ahí es donde logramos entonces manipular la información, codificarla, procesarla, de una manera increíblemente eficiente. La segunda parte de su pregunta era en qué altera la inteligencia artificial. La inteligencia artificial es cómputo. No hay otra cosa. Es un algoritmo, es cómputo. Entonces, las mejores máquinas nos van a proporcionar la mejor inteligencia artificial. Al día de hoy, utilizamos estas máquinas que se llaman GPUs. Y el éxito de las GPUs tal vez se pueda vivir porque la empresa Nvidia se ha convertido en la mayor de la Tierra. En un futuro seguramente la computación cuántica será el instrumento de cómputo que necesitaremos para lograr la máxima inteligencia artificial posible.

Usted vive en Singapur, entre otros motivos porque está desarrollando una computadora cuántica, ¿cuál es la importancia de que un país pueda desarrollar esa tecnología para el futuro del desarrollo de ese mismo país? 
Me gustaría ser a la vez educado y a la vez directo, hay que lograr un equilibrio. Vivimos el siglo XXI, no vivimos el siglo XII, y uno pertenece a los países donde se define la tecnología, donde se construye la tecnología o donde se compra la tecnología. Los países tienen que decidir si son generadores de conocimiento o son compradores de los resultados del conocimiento. Singapur tiene solo 5 millones y medio de personas, pero es un país exquisitamente ordenado que no tiene ningún tipo de corrupción, donde la economía es muy sólida. Singapur no tiene materias primas, no puede producir alimentos, no puede producir esencialmente nada. Su economía debe basarse necesariamente en el conocimiento, y de ahí que Singapur es uno de los países que han hecho un plan estratégico cuántico que, por científico, tiene una financiación mayor. Usted compara cuánto ha puesto Francia y cuánto ha puesto Singapur, por científico, y Singapur ha puesto mucho más, no más, mucho más. Le puedo confesar que ayer estaba con uno de los filtros que tenemos, aquí hay millones de filtros donde se aprueban proyectos, son evaluados por decenas de personas y ayer estaba con lo que se llama un Senior Advisor, una de las personas que son asesoras del gobierno, incuestionables, personas muy buenas, esta era una mujer, y toda la reunión fue muy bien, esto es investigación, y qué haremos con esa investigación, qué desarrollaremos, qué economía tendrá Singapur, cómo garantizamos el bienestar de nuestros ciudadanos en el futuro. Y le puedo decir que no fue una reunión trivial, fue dura. Dicho esto, jamás cuestionó que hubiera que invertir. Solo que ella quería ver un plan de utilización de la tecnología del conocimiento que se genera en Singapur. Nos estamos convirtiendo en uno de los hubs, es la palabra que se suele utilizar, más importantes de la Tierra. En los últimos meses ya son muchas las empresas que van a venir aquí a asentar su segunda sede, para estar en el corazón de donde se está desarrollando la tecnología cuántica. No tengo que ser chauvinista, obviamente, Estados Unidos de Norteamérica es uno de los países más potentes, lidera. China está liderando también una parte. Europa va un poquito rezagada, pero tiene el gran conocimiento. Países como los Emiratos Árabes, donde trabajo un tercio de mi tiempo, están haciendo un cambio sustancial en lo que significa liderar un país. Están yéndose fuera de lo que sería el petróleo y empezaron a construir una sociedad de conocimiento. De ahí que creásemos un centro potentísimo en el año 2020. Hay una gran guerra geopolítica, no me gustaría abusar de esa palabra, creo que se ha abusado mucho. Pero en este caso es verdad, hay una guerra geopolítica, aquí hay una verdadera lucha por ostentar el conocimiento, por tener los mejores científicos, dotarlos de medios y que generen la computación, la comunicación cuántica, los sensores cuánticos para la medicina, toda la nueva tecnología que se nos viene encima. 

¿Por qué Europa está retrasada respecto a la inteligencia artificial y en particular del desarrollo de lo cuántico?
Por su incapacidad de eliminar la burocracia, por su incapacidad de tomar apuestas firmes por las personas correctas. Es, en mi opinión, Europa, el estandarte de la ética, es la zona de la tierra donde más se evalúan las consecuencias de la tecnología. Y eso está muy bien, he pertenecido al Comité Asesor para Ética del gobierno de España, y creo que es necesario. Ciencia sin ética no tiene sentido. Pero, por otra parte, debería dotarse de mecanismos extremadamente ágiles para poder competir contra los países de la Tierra. Es una pena porque el mayor número de universidades sólidas está en Europa, son cientos de universidades muy buenas, frente a cantidades mucho menores en otros países. Luego, la importación de cerebros es dramática, hay cinco grandes centros de cuántica y en un momento dado, tres estaban dirigidos por españoles. Algo se hará bien en las universidades por qué no se les da ese liderazgo en España. Tengo millones de amigos en Argentina, y de ahí han salido científicos notables. Pero de nuevo, es muy difícil traducir ese conocimiento en realidad económica si no hay unas apuestas extremadamente firmes y claras. Vivimos un milenio que es diferente al anterior, un siglo que es diferente al anterior, pero seguimos discutiendo en términos que ahora, en mi opinión, son obsoletos. 

¿Cómo introduce la ética y cómo se enseña a una inteligencia artificial a discernir éticamente? 
Todo es programable. La inteligencia artificial tiene lo que le queramos poner, no es más que un programa de aprendizaje automatizado. Si uno la modera, será ética. Si uno no la modera, será lo que sea. Es exactamente igual que educar a los humanos. Hay humanos muy bien educados, exquisitamente educados, hay humanos que son salvajes. No es que el cerebro humano fuera o no fuera salvaje, es como ha sido educado. En ese sentido, hay que ser muy vigilantes, hay que supervisar el aprendizaje de inteligencias artificiales profundas. Hay que establecer los mecanismos de verificación. No solo hay que supervisar cómo se entrena, sino verificar el uso que se hace de esa inteligencia artificial y de ahí que reglamentar, establecer las leyes no sea elemental. Es el momento del derecho, esa es la gran palabra con mayúsculas, Derecho con mayúsculas. Es el momento de establecer el principio, los principios que nos han de gobernar. Luego las leyes implementarán estos principios. Pero, por ejemplo, ¿es lícito autorizar a inteligencias artificiales a educar a nuestros niños? ¿Tenemos garantías de que no va a haber sesgo, de que no va a haber adoctrinamiento? ¿Tenemos garantías de que no van a producir un daño psicológico en ciertos niños? ¿Podemos autorizar a las compañías que quieran crear asistentes personales de gente mayor a que eso suceda? ¿Serán esas inteligencias artificiales capaces de arruinar a una persona mayor, de crear una dependencia insólita? No es lo mismo hacer una inteligencia artificial para vender mejor un producto, que eso es perfectamente lícito, que permitir que inteligencias artificiales se relacionen con millones de personas sin una supervisión previa. 

Usted comentó en una charla, a propósito de su libro “Ética para máquinas”, que la Justicia en Estados Unidos estaba haciendo un experimento de inteligencia artificial para asistir a los jueces, ¿cómo se entrena la inteligencia artificial en el caso y qué pasa cuando, no sé si decir la palabra, se equivoca o está mal programada? 
Ese fue el caso. Esta fue una iniciativa de hace ahora ya bastantes años. Se entrenó para establecer el valor de la fianza, y también la prisión preventiva. Y lo que sucedió es que resultó que la inteligencia artificial fue entrenada con casos, que son los casos reales, y entonces creó sesgo, sistemáticamente penalizaba a la población de color y a la gente más humilde, fue un entrenamiento erróneo. Eso levantó todas las alarmas y se frenó el proyecto. Sucedió algo parecido con un proyecto de medicina donde se quería también sustituir a médicos, y eso era incorrecto. Hubo un caso de diagnóstico erróneo, y eso volvió a frenarlo todo. Al día de hoy son mucho mejores. Y se ha entendido que no se trata de hacer una inteligencia infalible, sino una inteligencia que pueda asistir a un médico para que su decisión sea un poquito más sabia. Un médico puede haber visto 300 casos de una enfermedad poco común, la inteligencia artificial puede ver todos los de la Tierra. O sea, tiene una estadística que es inabarcable para un cerebro humano. Entonces esa asistencia, tanto en leyes como en medicina, debería ser muy beneficiosa. De hecho, en los proyectos modernos, por ejemplo, el de España de inteligencia artificial, la idea consiste en crear el equivalente a un GPT para lengua española, pero entrenado con las leyes españolas, que no seguimos la common law, seguimos un Código Penal. Es muy diferente la ley en España que la ley sajona, también en medicina y también en otras áreas que son específicas de la cultura española. Esa inteligencia artificial dará lugar a un modelo fundacional, que podrá ser utilizado por las empresas. Entonces, la idea es que el Centro de Supercomputación de Barcelona, que es el más potente de España, cree esta inteligencia artificial que genere una empresa potente a la cual accedan las demás empresas que quieran mejorar sus actividades. Es decir que tenemos un camino hacia la explotación correcta de la inteligencia artificial, pero los primeros pasos que fueron dados sin supervisión suficiente demostraron que hay que ir con cuidado. 

¿Se podría entonces, programando correctamente a las máquinas, lograr que la inteligencia artificial hasta sea más ética que el promedio de los seres humanos y nos haga mejores a los seres humanos?
Absolutamente. Claro que sí. Esto es como pensar si usted podría educar a unos humanos, hacer un experimento con humanos de educarlos muy bien, claro que serán más éticos que los señores de la guerra de ciertos países. Claro que van a ser mucho más éticos. El gran poder de la educación, si antes era obvio para muchos, ahora lo será mucho más, porque ahora vamos a educar a seres artificiales. Y también déjeme que haga esta pequeña analogía: los humanos hemos abandonado poco a poco ser el centro de todo. Primero hicimos máquinas que eran más fuertes que nosotros y al día de hoy, pues, usamos coches, ascensores, camiones, grúas, ya hemos aceptado que las máquinas nos superan en fuerza, eso ya no es una discusión. Luego hicimos ordenadores que calculaban más rápido. De nuevo, ya no hay contables antiguos y aquellos que iban sumando columnas de números, nosotros ya utilizamos toda esa tecnología. Usted y yo nos estamos comunicando ahora por un complejísimo sistema de comunicación que implica fibras ópticas, bits que están circulando como secuencias de fotones por fibras ópticas y también a veces por satélites o por debajo del mar. Hemos aceptado que el cómputo lo hace mejor una máquina que un humano. El problema de la inteligencia artificial es que lo que está en juego ahora son las decisiones. Y de forma inexorable, vamos a lograr educar a máquinas para que tomen decisiones supervisadas, sabias, mejores que nosotros. Muchas serán banales. También le voy a dar un ejemplo, cómo se potabiliza el agua de Barcelona, pues con una red neuronal. La decisión de cómo se hace no la hace un humano, la hace una red neuronal. Luego, es obvio que muchas de las tareas que estamos haciendo, que son decisiones, van a ser tomadas ahora por algoritmos muy potentes. El problema está en que, cuando hicimos máquinas, pues ahora tenemos que pagar dinero para ir al gimnasio para no ser superdébiles, que nadie sabe dividir por siete porque tenemos máquinas que dividen muy bien, el problema es que delegar la decisión es un problema ético. Estamos delegando la ética, y ahí es donde hay esa insatisfacción, ese peligro latente que vemos venir y que queremos muchos, al menos yo, que sea hecho de forma lenta. Yo creo que uno de los grandes secretos es que la inteligencia artificial no entre tan rápido, entre más despacito. 

Escuchá la entrevista completa en Radio Perfil AM 1190.

por Jorge Fontevecchia

Galería de imágenes

En esta Nota

También puede interesarte

A Lara Fernández la mataron para robarle el celular: sus asesinos fueron condenados hoy a más de 20 años de prisión

Tres delincuentes fueron condenados a penas de entre 20 y 24 años por el crimen de la...

Crítica sobre todo, ensayista, polémica, formadora: Beatriz Sarlo, la intelectual argentina del siglo XX

Este martes 17 de diciembre tocó despedir a Beatriz Sarlo a sus 82 años. Su obra crítica...

Allanaron las oficinas de Edgardo Kueider en el Senado

Tras el traspié judicial que recibió este mismo viernes, cuando el Juzgado Contencioso Administrativo rechazó su...