AGI, la nueva especie inteligente
La convivencia con este nuevo "ente" inteligente es el mayor reto al que nos vamos a enfrentar como especie. (Publicado en Muy Interesante el 27/12/2024)
Hace unos 50.000 años en algún lugar del medio oriente hubo un encuentro. Un encuentro singular que cambió el rumbo de la historia de la humanidad para siempre.
Un individuo de la familia Neanderthal, la especie humana que había dominado durante milenios esa península de Asia que hoy llamamos Europa, se topó con su reto más importante.
La misma especie que se había enfrentado a infinidad de retos a lo largo de su existencia; depredadores, catástrofes naturales, pandemias y glaciaciones, ahora tenía un desafío superior. Se encontró con un nuevo “ser” tan inteligente como ellos, el Homo Sapiens, y lo que le había diferenciado como especie como la capacidad cognitiva, el razonamiento, el pensamiento simbólico o poder comunicarse con el habla ya no era una ventaja frente a ese nuevo “ser”.
Durante los siguientes 20.000 años ambas especies compartimos ecosistema, pero finalmente nuestra especie, el homo Sapiens, acabó por desplazar, absorber y extinguir a la especie aborigen del territorio europeo.
No sabemos a ciencia cierta si durante ese periodo hubo enfrentamientos o convivencia. Pero lo que es seguro es que hubo hibridación interespecie. Un pequeño porcentaje de los genes de algunos humanos actuales contiene ADN de estos Neandertales.
Las herramientas
El Sapiens, nuestra especie, no contento con sus capacidades biológicas, durante toda la historia de la humanidad ha creado tecnología para tratar de mejorarse. Creando herramientas que nos aumentan tanto física como intelectualmente y así ampliar aún más nuestra ventaja frente al resto de especies de animales.
Creamos hachas o cuchillos de silex como extensión de nuestros dientes. Arcos, flechas y ondas como extensión de nuestros brazos y así poder lanzar piedras, más fuerte y más lejos. Creamos carros tirados por animales y más tarde por motores de combustión como extensión de nuestras piernas y así poder transportarnos más rápido y más lejos. Las herramientas están íntimamente ligadas a nuestro físico, hasta tal punto de que han contribuido en nuestro cambio físico. Un ejemplo es la domesticación del fuego y la evolución de nuestro sistema digestivo.
Pero no nos hemos conformado con querer mejorar nuestras capacidades físicas, también hemos querido aumentar nuestras capacidades cognitivas. Creamos la escritura, como extensión de nuestra memoria y capacidad de comunicación. Creamos las matemáticas para explicar el universo que nos rodea y en combinación con la escritura también para ser capaces de hacer cálculos más complejos y precisos.
Milenios más tarde, creamos las máquinas de cómputo y los ordenadores como extensión de nuestra capacidad de razonamiento y así con infinidad de avances tecnológicos que consiguen superar nuestras limitaciones cognitivas, hasta que finalmente creamos la Inteligencia Artificial.
Inteligencia Artificial “débil” y “General” (AGI)
En este sentido, desde hace tiempo la IA ya es capaz de realizar ciertas tareas cognitivas mejor de lo que lo haría el humano más capacitado para realizar esa tarea concreta. Jugar a juegos como el ajedrez, traducir textos, detectar cánceres en radiografías o tomografías donde el ojo humano no puede ver, son algunos ejemplos.
Esto es lo que llamamos “Narrow artificial intelligence” o “inteligencia artificial Débil”, y cada tarea; jugar al ajedrez, detectar anomalías en imágenes o conducción autónoma requieren de algoritmos diferentes o al menos requieren de un entrenamiento* diferente para cada uno de esos algoritmos.
Dicho de otra manera, si quisiéramos que un modelo de IA débil que sabe jugar al ajedrez mejor que el campeón mundial, conduzca un coche de manera autónoma, traduzca un texto o detecte cánceres en radiografías, sería imposible. Están preparados para hacer una sola tarea.
En definitiva, la IA débil, no son algoritmos generalistas o no pueden hacer tareas diferentes al propósito para el que han sido entrenados.
Sin embargo, con el cerebro humano no ocurre lo mismo. A un niño, le podemos enseñar a jugar al ajedrez y a ese mismo niño le podemos enseñar a hablar un idioma, a localizar animales en imágenes, a andar o a conducir un vehículo y aprenderá sin dificultad. El cerebro humano es una máquina preparada para aprender infinidad de tareas. Es generalista o al menos, aunque (el cerebro) tenga partes diferenciadas, está orquestado para funcionar como un único órgano generalista.
Si pudiéramos hacer eso con una máquina, habríamos alcanzado lo que llamamos Inteligencia Artificial General, AGI.
Hasta la aparición de una nueva arquitectura de redes neuronales artificiales, las redes de tipo “transformer” (que da nombre a la T” de GPT) y con ellas, los llamados grandes modelos de lenguaje (LLM) basados en estas grandes redes neuronales artificiales, se pensaba que la AGI llegaría más allá del 2045 pero hoy en día ese punto está tan cercano como difuso.
Muchos piensan que la AGI será binaria, es decir que un modelo de IA la tendrá o no la tendrá. Algo así como tener vida. Aunque también existe cierto debate hay cierto consenso en que la vida es binaria, o se tiene vida como un animal o una planta o no se tiene, como una roca. Es decir, afirman que habrá un avance tecnológico que lo permitirá. Un punto singular en el tiempo y será un antes y un después. Metafóricamente sería algo así como la Abiogénesis de la AGI. Término que utilizan los biólogos para describir (en una de las teorías) ese momento en que se creó vida a partir de materia inerte.
Créditos de la imagen (ChatGPT 4o, OpenAI), prompt Xabi Uribe-Etxebarria
Pero otros, pensamos que aunque existen catalizadores, la AGI será y es gradual. Incluso que gracias al avance tecnológico de estos grandes modelos de lenguaje (LLMs) hemos alcanzado ya algún grado de “generalidad” en la IA y con los nuevos modelos “razonadores” como o3 anunciados hace unos días por OpenAI, aun más.
Aunque no existe consenso en la definición de AGI, según la mayoría de los expertos y publicaciones, la AGI es una representación teórica de una inteligencia artificial capaz de resolver tareas complejas con capacidades cognitivas humanas generalistas.
Por lo tanto, como el cerebro de un niño, los cerebros digitales de hoy en día están ya preparados para hacer gran parte de las tareas cognitivas que son capaces de hacer los humanos. Es decir, son ya generalistas y cada vez lo son más. Pueden traducir textos, resolver problemas matemáticos, responder a preguntas mejor que el humano medio, crear imágenes y vídeos, entender un vídeo, programar código, resolver problemas matemáticos complejos, resumir textos, razonar e incluso aprender a andar si le proveemos de un “cuerpo” como el de un robot. Y todo ello sin haber sido específicamente entrenados para cada una de esas tareas, son propiedades emergentes.
La emergencia
Los sistemas emergentes son aquellos donde las propiedades del nuevo sistema resultante de la agrupación de otras pequeñas partes no pueden explicarse por las propiedades de sus partes constituyentes, sino únicamente a partir de su integración y carácter interactivo. Es decir, surgen capacidades que aparentemente no tienen ninguna relación con las propiedades de las partes que la constituyen.
Un ejemplo claro de un sistema emergente en el ámbito de la física son fenómenos como la humedad (una sola gota de agua no produce humedad) o la superconductividad de algunos materiales. Pero otro ejemplo más fácil de comprender podría ser el de una película emitida en una televisión led, frente a los elementos que componen las diferentes imágenes, los píxeles. La película resultante, el mensaje y el argumento que percibimos no se podría explicar con las propiedades de un píxel, que lo único que hace es cambiar de color con una frecuencia determinada y la orquestación de todos ellos, hace resultar en una historia que es capaz incluso de transmitir un mensaje con contenido complejo, cómico, romántico, dramático o didáctico…
La sincronización de movimientos de una bandada de pájaros no es una propiedad de un solo animal, sino del grupo como un todo. Este es otro ejemplo de cómo las interacciones individuales generan un comportamiento emergente (Créditos de la imagen (ChatGPT 4o, OpenAI), prompt Xabi Uribe-Etxebarria)
En los humanos el razonamiento, la creatividad y la consciencia podrían también emerger de algún tipo de comportamiento colectivo de las neuronas de nuestra corteza cerebral.
Algo similar podría estar pasando en estos grandes modelos de lenguaje ya que, como hemos visto, surgen comportamientos y cualidades no esperadas como el razonamiento, la creatividad e incluso quizá algún grado de consciencia. Y por supuesto, entre ellas, la capacidad de realizar tareas generalistas, lo que nos lleva a afirmar que hemos alcanzado ya algún grado de AGI.
No es una herramienta
Esta vez no estamos creando una simple herramienta que nos aumenta como muchos afirman, sino un ente con agencia, con capacidad de tomar decisiones, con entidad en sí misma. Algo así como crear vida propia.
Esta capacidad de actuar intencionalmente, o con agencia, es lo que para muchos filósofos y pensadores ha distinguido a los seres humanos del resto de animales y por supuesto de las máquinas.
Un martillo o una llave inglesa son herramientas, incluso algo tan potente como una bomba atómica, pero ninguno de estos inventos tiene agencia, es decir, no tiene la capacidad de tomar decisiones. La agencia está en quien las crea o en quien las utiliza. Los humanos y en mi opinión, los animales, al menos con cierto grado.
Las aplicaciones de IA débil, como un sistema de reconocimiento de voz o un sistema que detecte cánceres en imágenes también son herramientas. Y al igual que un destornillador o un taladro están hechas para un propósito concreto y por tanto no tiene agencia o entidad propia. Pero la AGI es un invento muy diferente.
Y si esto es así, ¿por qué seguimos negando la evidencia? ¿Por qué seguimos diciendo que es una herramienta, que no tienen agencia o que la AGI no ha llegado?
En parte por desconocimiento, puede que por interés, pero principalmente por miedo, miedo a ser desplazados por esta nueva inteligencia, miedo al cambio, miedo a perder un modo de vida, miedo a la incertidumbre al ver que las habilidades cognitivas que se creían exclusivas de los humanos como razonar, la creatividad, la generalidad y probablemente cierto grado de consciencia ya han sido adquiridas por las máquinas y perdamos ese “status” de que el “humano” es un “ser” con características “mágicas”, “divinas” e irreplicables, que nos diferencian de las máquinas y del resto de las especies de animales.
Miedo similar al que tuvieron nuestros antepasados cuando Copérnico o Galileo afirmaron que la tierra no era el centro del universo o cuando Darwin propuso que el humano es fruto de la evolución y no de la construcción divina.
Al fin y al cabo, saber que nuestra mente puede ser replicada en una máquina nos hace abrir los ojos y de alguna manera estamos rechazando o poniendo en duda ese excepcionalismo del ser humano como cúspide de la inteligencia, pero eso tiene más de creencias que de ciencia.
La Superinteligencia
En noviembre, un informe al Congreso de los Estados Unidos, define la AGI como sistemas que igualan o superan las capacidades humanas en todos los dominios cognitivos y que superarían a las mentes humanas más capacitados para cada tarea. Como en esta, en muchas definiciones se está subiendo el listón, y en mi opinión, esta definición estaría más cerca del concepto que hoy se denomina como Superinteligencia Artificial (ASI) que comúnmente se refiere a una inteligencia muy por encima de genios y de las mentes humanas más dotadas. Pero sea como fuere la nomenclatura correcta, ese punto al que hace referencia esta nueva definición está a la vuelta de la esquina. Tanto Sam Altman (CEO de OpenAI) como Elon Musk o el recientemente galardonado con el Premio Nobel de Física Geoffrey Hinton coinciden en que llegará antes de final de la década y alguno incluso afirma que podría llegar este mismo año.
La era agéntica
Por tanto, entramos en 2025 inmersos en la AGI y con los primeros brotes de la era agéntica. Una nueva era en la que pronto los agentes inteligentes superarán a los humanos tanto en inteligencia como en número. Es decir, en muy poco tiempo habrá más agentes de IA que personas en la tierra.
Créditos de la imagen (ChatGPT 4o, OpenAI), prompt Xabi Uribe-Etxebarria
El gran reto
50.000 años después de aquel encuentro entre esas 2 especies ha llegado este nuevo encuentro, pero esta vez, la nueva especie “inteligente”, no nace fruto de la evolución biológica, sino de la evolución tecnológica, en definitiva, de nuestra propia “inteligencia”.
Cómo será o cómo queremos que sea la convivencia con este nuevo ente es el mayor reto al que nos vamos a enfrentar como especie. Puede que haya convivencia, enfrentamiento o probablemente, como ocurrió con los Sapiens y los Neandertales, habrá hibridación interespecie.
Xabi Uribe-Etxebarria
Founder & CEO, Sherpa.ai
Artículo publicado en:
MUY INTERESANTE:
https://www.muyinteresante.com/ia/agi-la-nueva-especie-inteligente.html
Anexo de definiciones:
* ¿Qué es entrenar un modelo de Inteligencia Artificial?
Todos los cerebros digitales como GPT de OpenAI o Gemini de Google, parten vacíos, y tienen que ser “entrenados”. Es como si partiéramos de un cerebro de un recién nacido, virgen, sin conocimientos, pero con capacidad de aprender. Lo que llamamos “entrenar” en una máquina, es lo que a un niño o a una niña llamaríamos enseñar.
Enseñar matemáticas, ciencias o historia. El niño aprenderá recibiendo información a través de sus sentidos, principalmente de la vista y del oído. Pero en el caso de los grandes modelos de lenguaje como GPT-4, ese entrenamiento ocurre “leyendo” textos. Muchos más textos de los que una persona pudiera leer en toda su vida.
Se entrenan básicamente con toda la información de la Web; toda Wikipedia, todos los papers científicos, etc. Los modelos más actuales, los llamados “multimodales” como GPT-4o además de “leer” textos, también se entrenan “viendo” imágenes y videos, incluso “escuchando” audios. Se entrenan básicamente con toda la información que tengan disponible.
La fuente de las definiciones es Wikipedia.