Yann LeCun, científico jefe de IA de Meta: “Una inteligencia artificial de nivel humano va a llevar mucho tiempo” | Tecnología

El extraordinario potencial y los enormes riesgos de la revolución de la inteligencia artificial (IA) generativa han sido grandes protagonistas en los debates de la reunión anual del Foro Económico Mundial en Davos. Nick Clegg y Yann LeCun, presidente de Asuntos Globales y científico jefe de IA de Meta, han expresado sus puntos de vista en esta materia en un encuentro con periodistas de cinco medios internacionales, entre ellos EL PAÍS.

Meta, compañía matriz de Facebook, es una de las empresas protagonistas de la revolución. Lo es por su notable capacidad en este sector específico, y lo es porque va de la mano del enorme poder que otorga el control de su gigantesca plataforma social, cuya gestión ha acarreado graves críticas y acusaciones en los últimos años, entre otras cosas, por su impacto en la democracia.

En la conversación, LeCun subraya que “contrariamente a lo que se puede escuchar de algunas personas, no existe un diseño para un sistema que alcance la inteligencia humana”. El experto cree que “pedir regulaciones por miedo a la inteligencia sobrehumana es como pedir una regulación de vuelos transatlánticos a una velocidad cercana a la del sonido en 1925. Esto no está a la vuelta de la esquina; va a llevar mucho tiempo, con sistemas que todavía no conocemos”, asegura, y por ello cree que es prematuro legislar pensando en el riesgo de que puedan salir del control humano. La UE aprobó en diciembre la primera legislación del mundo sobre IA, y otros lugares, como EE UU y el Reino Unido, también trabajan en leyes específicas para controlar esta tecnología.

Clegg, por su parte, exhorta los legisladores que en todo el mundo se ocupan de la materia a regular los productos, pero no la investigación y el desarrollo. “La única razón por la que puede pensarse que sería útil regular la investigación y el desarrollo es porque se cree en esta fantasía de que los sistemas de IA pueden apoderarse del mundo, o son intrínsecamente peligrosos”, dice Clegg, quien fue viceprimer ministro británico y líder del partido liberaldemócrata de ese país.

Los dos se muestran satisfechos de que, tras un periodo de cierta conmoción después de la aparición de ChatGPT, el debate público se haya alejado de hipótesis apocalípticas y se haya ido centrando en temas más concretos y desafío actuales como la desinformación, los derechos de autor, el acceso a la tecnología.

El estado de la tecnología

“Estos sistemas son inteligentes en un dominio relativamente estrecho en el que han sido entrenados. Dominan el lenguaje y eso nos hace pensar que son inteligentes, pero no lo son tanto”, explica LeCun. “Y nosotros no tenemos la capacidad de simplemente crecer de escala y evolucionarlos con más datos, con ordenadores más grandes, y por ese camino alcanzar la inteligencia humana. Eso no va a ocurrir. Lo que va a pasar es que vamos a tener que descubrir nuevas tecnologías, nuevas arquitecturas de esos sistemas”, aclara el científico.

El experto explica que va a ser necesario desarrollar nuevas formas de sistemas de IA “que permitirían a esos sistemas, en primer lugar, entender el mundo físico, lo que no pueden hacer en este momento. Recordar, lo que tampoco pueden hacer por el momento. Razonar y planificar, algo que tampoco pueden hacer por el momento. Y cuando descubramos cómo construir máquinas que comprendan el mundo, recuerden, planifiquen y razonen, tendremos un camino hacia la inteligencia humana”, prosigue LeCun nacido en Francia. En más de un debate y discurso de Davos se ha mencionado la paradoja de que Europa disponga de un capital humano muy notable en este sector, pero no de empresas punteras a escala global.

“Esto no está a la vuelta de la esquina”, insiste LeCun. El científico cree que este camino “va a llevar mucho tiempo; años, si no décadas. Va a requerir nuevos avances científicos que no conocemos. Así que conviene preguntarse por qué personas que no son científicos lo dicen, ya que no son los que están en las trincheras intentando que funcione”. El experto explica que, en estos momentos, tenemos sistemas que pueden aprobar el examen de abogacía, pero no tenemos sistemas que puedan limpiar la mesa y tirar a la basura.” No es porque no podamos construir un robot. Es porque no podemos hacerlos lo suficientemente inteligentes. Así que obviamente, nos falta algo grande antes de que podamos alcanzar el tipo de inteligencia que observamos, no solo en los seres humanos, sino también en los animales. Me alegraría que al final de mi carrera [tiene 63 años] tuviéramos sistemas tan inteligentes como un gato o algo similar”, apunta.

El estado de la regulación

El debate sobre cómo regular esta tecnología en su estado actual y con las posibilidades de desarrollo cercanas ha sido uno de los asuntos clave en el foro anual de Davos. La legislación que está siendo introducida en la UE, en muchos sentidos pionera, ha sido uno de los principales focos de atención.

Preguntado el respecto, Clegg, que fue eurodiputado y es un europeísta convencido, evita pronunciarse de forma definitiva sobre la materia, pero lanza pullas a la Unión. “Es un trabajo todavía en desarrollo. Es una cosa muy clásica de la UE. Hay fanfarria, se dice que se ha acordado algo, pero en realidad es un trabajo que no está terminado. Lo estudiaremos de cerca cuando esté completo y publicado, creo que el diablo realmente estará en los detalles”, dice el presidente de Asuntos Globales de Meta.

“Por ejemplo, en cuanto a la transparencia de los datos en estos modelos, todo el mundo está de acuerdo”, prosigue Clegg. “¿Pero qué nivel de transparencia? ¿Son los conjuntos de datos? ¿Se trata de datos individuales? O, por ejemplo, en derechos de autor. En la UE ya existe una legislación sobre derechos de autor. ¿Simplemente se va a limitar a eso? ¿O se va finalmente a añadir una nueva capa específica? Cuando se entrenan estos modelos, se devoran una enorme cantidad de datos. Etiquetar cada bit de datos por razones de propiedad intelectual es de una complejidad extraordinaria. Así que creo que el problema está en los detalles. Lo estudiaremos”.

A partir de ahí, afloran críticas. “Personalmente, como apasionado europeo, a veces me frustra un poco que en Bruselas parezcan enorgullecerse de ser los primeros en legislar, más que de si la legislación es buena o no. Hay que recordar que esta Ley de Inteligencia Artificial de la UE fue propuesta inicialmente por la Comisión Europea hace tres años y medio, antes de que estallara todo el asunto de la IA generativa [como ChatGPT]. Y luego trataron de adaptarla a través de una serie de enmiendas, disposiciones para tratar de captar la última evolución de la tecnología. Es una forma bastante torpe de legislar, una adaptación, para algo tan importante como la IA generativa”.

El debate entre establecer protecciones y evitar entorpecer el desarrollo genera fuertes tensiones, dentro de la política, y entre política y sector privado. En esa línea sutil que tienen que trazar los legisladores se juega un valor incalculable: productividad, puestos de trabajo, capacidades que definirán el balance de poder geopolítico.

Clegg toca ese nervio. “Sé que Francia y Alemania, Italia en particular, han estado, creo, pidiendo sensatamente a los eurodiputados y a la Comisión Europea que tengan mucho cuidado de no incluir en la legislación algo que realmente obstaculice la competitividad europea. Porque de las diez empresas más grandes del mundo, ninguna es europea”. Por contra, un grupo de expertos reclamó a la UE, en una carta abierta que publicó EL PAÍS, una legislación aún más fuerte “para proteger los derechos de los ciudadanos y la innovación”.

Optimismo y prudencia

Por debajo de ese enorme pulso de poder avanza una tecnología que, si bien no está cerca de alcanzar plenamente niveles humanos o sobrehumanos, ha entrado ya con una fuerza extraordinaria en nuestras vidas.

“La IA amplifica la capacidad correctiva de la inteligencia humana. Hay un futuro en el que todas nuestras interacciones con el mundo digital serán mediadas por un sistema de IA”, dice LeCun. “Lo que eso significa esto es que, en algún momento, esos sistemas de IA serán más inteligentes que nosotros en ciertas áreas, de hecho en algunas ya lo son, y tal vez más inteligentes que nosotros en todas las áreas en algún momento. Y lo que eso significa es que vamos a tener asistentes con nosotros en todo momento, que son más inteligentes que nosotros. ¿Deberíamos sentirnos amenazados por esto? ¿O deberíamos sentirnos fortalecidos? Yo creo que deberíamos sentirnos fortalecidos”.

A lo largo de la entrevista, LeCun introduce varios elementos de prudente optimismo. “Si usted piensa en el efecto que esto podría tener en la sociedad a largo plazo, podría tener un efecto similar a la invención de la imprenta. Así que, básicamente, crear un nuevo Renacimiento en el que puede ser más inteligente, es intrínsecamente bueno. Ahora, por supuesto, hay riesgos. Y hay que desplegar la tecnología de forma responsable, de manera que se maximicen los beneficios y se mitiguen los riesgos o se minimicen”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_