¿Exigimos demasiado a la Inteligencia Artificial?
Estamos dispuestos a asumir que un humano cometa errores y tolerarlo, pero no estamos dispuestos a asumir que una máquina los cometa.
La semana pasada, la Autoridad de la Competencia de Francia multó a Google por entrenar su modelo de Inteligencia Artificial con contenidos editoriales sin previo permiso. Algo similar a lo que ocurrió hace semanas cuando el diario New York Times demandó a OpenAI por presuntamente haber entrenado el modelo GPT-4 (el motor detrás de ChatGPT) con sus artículos.
Todos los cerebros digitales como GPT-4 de OpenAI o Gemini de Google, parten vacíos, y tienen que ser “entrenados”. Es como si partiéramos de un cerebro de un recién nacido, virgen, sin conocimientos, pero con capacidad de aprender. Lo que llamamos “entrenar” en una máquina, es lo que a un niño llamaríamos enseñar.
Enseñar matemáticas, ciencias, historia, pero también a escribir artículos. El niño aprenderá recibiendo información a través de sus sentidos, principalmente de la vista y del oído. Pero en el caso de los grandes modelos de lenguaje como GPT-4, ese entrenamiento ocurre “leyendo” textos. Muchos más textos de los que una persona pudiera leer en toda su vida, del orden de 10.000 veces más.
Se entrenan básicamente con toda la información de la Web; toda Wikipedia, todos los Papers científicos, pero también con todos los artículos de medios de comunicación. Es decir, una empresa privada, como Google u Open AI, está nutriéndose de lo que ha “leído” en un medio de comunicación para después poder prestar sus servicios y ser capaz dar mejores repuestas a las preguntas que hacen sus usuarios o incluso escribir nuevos artículos.
Puede que nos parezca razonable que, si una empresa se “aprovecha”, para aprender o entrenar sus modelos, de datos u artículos con propiedad intelectual deba previamente llegar a un acuerdo con la empresa propietaria de esos datos o si no es así y si se lo piden, borrarlo de su sistema.
Hasta ahí todo nos parece justo. Ahora bien, si un articulista o periodista humano, un individuo también privado, ha leído durante toda su vida diferentes artículos de medios de comunicación para entender mejor un tema o mejorar su escritura y así poder prestar mejor sus servicios, nos parece normal. Y a nadie se le ocurriría denunciar a ese escritor por haber leído un medio u otro, un libro o un artículo científico. O más aún, pedirle que borre de su mente ese conocimiento adquirido. Metafóricamente hablando, eso es lo que estamos exigiendo.
Con esta reflexión no pretendo afirmar que debamos de dejar de exigir estos derechos de autor, que considero que tienen que ser valorados, pero sí hacer una invitación al debate y a la reflexión porque muchas veces no somos conscientes de la doble vara de medir que tenemos a la hora de aplicar ciertas normas, sean jurídicas, principios morales o reglas no escritas que exigimos cumpla la Inteligencia Artificial pero que nunca exigiríamos al humano. Aunque aplicar esas normas pueda tener un impacto negativo para la humanidad. Expongo algunos ejemplos:
Exigimos que la IA no tenga sesgos. Ponemos el grito en el cielo, si un artículo generado por una IA no ha elegido la palabra correcta o si algún párrafo no es totalmente neutral.
Todo ello cuando la mayoría de los medios de comunicación y publicaciones periodísticas hechas por periodistas humanos publican artículos con un determinado nivel de sesgo, sea a determinada ideología política o a una causa que quiere apoyar o rechazar.
Es cierto que hay hechos irrefutables, pero también hay muchas opiniones y puntos de vista diferentes. La libertad de expresión es uno de los pilares fundamentales de nuestra democracia y al igual que en la prensa, quizá debiéramos plantearnos si pudiera haber diferentes IAs con diferentes pensamientos y puntos de vista en lugar de exigir una neutralidad utópica. Al fin y al cabo, la diferencia de ideas y de opiniones son fundamentales para nuestro progreso como sociedad.
El avance científico también se ha basado en proponer diferentes pensamientos y muchas veces en estar en desacuerdo con los postulados anteriores. Y como humanos debemos que ser capaces de proteger a los Sócrates y Galileos digitales del futuro sin hacerles beber la cicuta antes de tiempo.
Imagen generada con ChatGPT de OpenAI.
Exigimos que no tenga errores. Estamos dispuestos a asumir que un humano cometa errores y tolerarlo, pero no estamos dispuestos a asumir que una máquina los cometa.
Por ejemplo, si un coche conduciendo autónomamente tiene un accidente mortal, nos llevamos las manos a la cabeza, sale en todos los telediarios y da la vuelta al mundo. Pero ¿se ha contabilizado cuántos accidentes ha podido evitar ese mismo automóvil? ¿Cuántos accidentes hay por despistes de personas mirando el móvil? ¿Cuántos accidentes por gente que va conduciendo ebria?
Aun así, para que asumamos que un vehículo pueda funcionar de manera totalmente autónoma, el ratio de errores tiene que ser de un orden muy inferior al del humano. ¿No debería ser suficiente que fijáramos objetivamente el índice de accidentes que tiene el humano y si la IA consigue bajar de ese umbral permitir que se use masivamente? Salvaríamos millones de vidas, pero decidimos que no sea así. ¿No es una imprudencia? ¿Estamos dispuestos a sacrificar miles de vidas humanas por esa exigencia hacia las máquinas?
Y ya si hablamos de sectores más delicados como la medicina, ¿estaríamos dispuestos a que un informe médico o una operación la hiciera una máquina totalmente autónoma si superara el ratio de acierto de un humano en sólo 1 punto y si con ello pudiéramos salvar millones de vidas?
Todo ello sin tener en cuenta la replicabilidad de estos sistemas y con ello poder llegar a muchos más pacientes que actualmente no tienen acceso a ese tratamiento. Por lo tanto, ¿cuál es el umbral que debería superar una máquina para poder utilizarse para estos casos? ¿Debemos esperar a que el error sea mínimo y mientras tanto poner en juego millones de vidas?
Muchos también habrán oído hablar del famoso término “alucinaciones” relacionado con la Inteligencia Artificial, que no es más que una manera metafórica de describir cuando un LLM (un gran modelo de lenguaje como GPT-4 o Gemini) da una respuesta que no está basada en los datos de los que ha sido “entrenado” y que no es correcta. Básicamente, se inventa toda o parte de una respuesta. Es cierto que, si ese comportamiento es corregible, deberíamos tratar de solucionarlo, y se ya está intentando, pero la cuestión es que lo vemos como un problema inaceptable.
Una vez más, si hiciéramos una comparativa entre el humano y la máquina, una competición de quien sabe más o se equivoca menos en diferentes materias como historia, geografía, matemáticas, física, etc., el porcentaje de error en una máquina sería mínimo.
El humano medio quedaría en ridículo frente a la IA y veríamos normal que una persona no supiera de todas las materias incluso que respondiera incorrectamente a algunas de las preguntas. Es decir, el humano cometería lo que en una máquina llamamos “alucinaciones”. En este caso también, el índice de tolerancia al fallo o al error es muy superior si lo hace un humano que si lo hace una máquina.
Otro de los grandes debates y críticas a las redes neuronales artificiales es la falta de “explicabilidad”. Se les achaca que son “cajas negras” es decir, que no es evidente explicar el razonamiento que ha tenido para dar una respuesta determinada. En definitiva, que no se puede saber con exactitud qué neuronas artificiales y con qué peso han intervenido para llegar a una conclusión y con ello, existe toda una corriente de exigir esa “explicabilidad” a la IA.
¿Pero acaso entendemos qué neuronas se le han activado, que ha ocurrido en el cerebro de un humano para llegar a un razonamiento concreto? ¿Qué millones de neuronas, conexiones o sinapsis han intervenido en para ello? ¿En qué vivencias, lecturas o pensamientos se ha basado para ello?
El cerebro humano es una auténtica “caja negra”, mucho más que las máquinas. Pero si a un humano no se le exige esa explicabilidad para conducir un automóvil o para operar a un paciente, ¿Por qué se le debe de exigir a una máquina si el resultado final supera al del humano?
Los humanos somos imperfectos, cometemos errores y es justo que tratemos de mejorarnos en nuestra versión digital. Pero debemos de ser conscientes de que no la estamos creando a nuestra imagen y semejanza sino a una imagen utópica y el coste en energía, en salud del planeta e incluso en vidas humanas que puede suponer la búsqueda de esa perfección imposible. En definitiva, las implicaciones y el impacto que puede tener el no aplicar la Inteligencia Artificial o sobrerregularla.
Al igual que los médicos, pilotos y periodistas, las máquinas también cometerán errores y tendrán sesgos, pero también tendrán grandes aciertos y si el balance final es positivo quizá deberíamos de plantearnos confiar más en la Inteligencia Artificial.
Xabi Uribe-Etxebarria
Artículo publicado en:
El Mundo: https://www.elmundo.es/papel/firmas/2024/03/30/6606f229e9cf4a3e1f8b4570.html
Clarín: https://www.clarin.com/opinion/exigimos-demasiado-inteligencia-artificial_0_3t9KLjrmzw.html