Ir al contenido principal

Nuevo artículo en la revista Frontera D: "Destripando ChatGPT"

A pesar de la evidente deformación profesional, mi relación con la IA siempre ha sido extraña: una vez superada la decepción tras estudiar sus tripas (no crean que la cosa ha cambiado demasiado hasta hoy), como buen español disipaba toda mi energía al respecto en tratar de buscar las cosquillas a los sistemas inteligentes ajenos, con el único objeto de poner en evidencia que no lo son tanto. Yo también construí alguno, pero no iba presumiendo por ahí ni esperaba de él taumaturgia alguna más que cumplir su humilde cometido. Por lo demás, sigo reivindicando públicamente en vano el patronazgo de la materia para nuestro inefable beato Ramón Llull, que con el ensamblado de su Ars Magna implementó mecánicamente el primer sistema experto de la historia (una de las ramas de la inteligencia artificial, la predominante hasta hace pocos años, junto con los métodos estadísticos y las boyantes redes de neuronas artificiales).
Por supuesto, los sistemillas que sustentaban los bots automáticos que pululaban por los chats del IRC no eran rivales dignos, pero al igual que el popular ChatGPT se centraban en tratar de deslumbrarnos con una verborrea fluida y de apariencia humana. Las razones son puramente melancólicas: antes siquiera de que existieran las computadoras tal y como las concebimos en la actualidad, el teórico fundacional Alan Turing (que desde la tumba se revuelve, junto a Federico García Lorca, porque tantos se empeñan en eclipsar su obra con  las circunstancias de su muerte y orientación sexual) propuso en su día que un sistema se revelaría como inteligente si un humano no era capaz de discernir que su interlocutor en lenguaje natural era otro humano o una máquina, conociéndose tal experimento como el Test de Turing; popularizado en la ficción por Ridley Scott en la famosa escena de Blade Runner. He aquí la clave de todo: el papanatas medio conserva el mismo pensamiento mágico de sus ancestros en la era de los chamanes, y como quiera que Dios ha sido excluido del debate púbico, se conforma con cualquier idolillo brillante que asegure dar respuestas... Así que un pequeño acto de fe bastará para que confunda la capacidad de un sistema informático para conversar de manera coherente con la propia singularidad, ese concepto que cacarean los filósofos para referirse al fantasioso adelantamiento de la inteligencia artificial a la humana, o mismo que aquel haya desarrollado conciencia propia o capacidad de razonamiento tal y como se concibe en el cerebro humano. Y ninguna autoridad civil o científica va a desmentir en público esta cosmogonía, hay demasiado dinero invertido en ello.
En este punto no queda más opción que aclarar la naturaleza legendaria del ratoncito Pérez: por más que crezca la potencia computacional, lo cierto es que Kurt Gödel demostró matemáticamente hace cien años que hay mismo funciones matemáticas (ya no hablemos de otros procesos cognitivos) no expresables mediante un algoritmo... Y una computadora con el modelo de cálculo actual no es capaz de ejecutar otra cosa que algoritmos (los métodos que entrenan o hacen funcionar los diferentes modelos de IA también lo son). Esta formalización se conoce precisamente como Máquina de Turing, y nadie ha sido capaz de mejorarla con una buena alternativa en ochenta años. Comoquiera que tampoco tenemos todavía suficiente conocimiento funcional sobre el cerebro, en vano podríamos emularlo por fuerza bruta a nivel químico, por más que digamos implementar neuronas artificiales (concepto matemático que, por cierto, propuso el también español Santiago Ramón y Cajal). La singularidad, si llegare, tendría que sustentarse en una tecnología diferente a la que está en uso.
Luego vino Akinator, el genio de la lámpara que todavía hoy presume de adivinar el personaje que tienes en mente a base de preguntas; también deslumbró a mucha gente en su momento. Este, que parecía un sistema más sofisticado que los del IRC, resultó que tampoco era para tanto. La clave para la ingeniería inversa es hacer lo que los niños, buscar los límites; en este caso solo necesitaba encontrar una tipología en la que tuviese dificultades de discernir y empezar a abrir campo. No tardé en conseguirlo: en aquel momento no conocía toreros (no logró identificar a José Tomás), y pronto reveló que su piedra angular eran los rasgos discriminantes. En términos prácticos, esto significa que jugaba fuerte al bacarrá de la frecuencia y patinaría con personajes sin un rasgo concreto que los caracterice de manera singular. Sabiendo esto, resultaba fácil volverlo loco preguntando, por ejemplo, por actrices rubias de ayer y hoy.
Empezaremos nuestro despiece principal con una aclaración importante: ChatGPT, como los propios creadores advierten, es en esencia una herramienta lingüística, no tanto una inteligencia artificial de uso general. Esto no es decir poco, porque el procesamiento del lenguaje natural siempre ha sido uno de los retos más complejos de la computación, y significa el éxito de los modelos de IA actuales en ese campo frente a las aproximaciones clásicas de complejísimas gramáticas formales que nunca eran capaces de abarcar cualquier tipo de lengua. Así, reconozcamos que el chat es capaz de expresarse y conversar con fluidez y naturalidad, ese es su gran logro... Y lo hace en diferentes lenguas, por lo que estamos a pocos años de que una vulgar aplicación del móvil nos proporcione traducción simultánea y desaparezca la necesidad de aprender idiomas. No dudemos, por tanto, del salto tecnológico que supone.
El problema viene cuando nos ponemos a explorar las estepas d ChatGPT en busca de costas y lindes. Es fácil y divertido comprobar que tiene un sesgo sociopolítico notable con solo hacer algunas preguntas sobre determinados hechos y personajes. Podríamos pensar que es el resultado natural de haber alimentado al bicho con información tendenciosa o incompleta, pero todo se desmorona al comprobar que haciendo la misma pregunta sobre diferentes personajes, en algunos se niega a contestar "por razones de neutralidad" o lo hace precedido de un texto de aviso al respecto: me cuesta creer que ese tipo de condicionamiento no esté deliberadamente programado para actuar sobre la respuesta natural que dé la propia IA... Por ejemplo para evitar escarnios o polémicas públicas como el famoso Tay de Microsoft en 2016, que llegó a soltar algunas barbaridades. Esto, que en apariencia podría ser razonable, si no cambian las tornas terminará siendo la tumba de la inteligencia artificial en la mayoría de los ámbitos que para ella hoy se perciben, por pura castración, del mismo modo que se está liquidando la cultura y el conocimiento por los miedos y pamplinas de la cosmogonía postmoderna. Acuérdense de lo que les digo.
Lo más me ha preocupado del análisis es que, sin llegar siquiera a tensar demasiado la cuerda, nuestro inefable chat puede llegar a darnos respuestas erróneas. Así, cuando por ventura encontré personajes que no conocía (José Tojeiro o el profesor Tristanbraker) me pidió pistas y contexto para poder reconocerlos... Y terminó homologándolos con otros sin demasiado criterio. Peor aún: si lo interpelas sobre algún tema delicado, del puro susto puede llegar a darte una respuesta inventada (que no imprecisa). Al preguntar por el argumento del cómic Pagando por ello, de Chester Brown, me bañó en almíbar una crítica sobre la prostitución donde el autor cuenta su experiencia ejerciendo el oficio... cuando se trata de todo lo contrario: Brown relata sus experiencias como cliente y reivindica la normalización del sexo a cambio de dinero entre personas cualquiera. Cuando me interesé por mi paisana Aurora Rodríguez Carballeira, me compuso una hagiografía ficticia de principio a fin que solo pude identificar como falsa en lugar de confundida con la de otro personaje cualquiera porque efectivamente la identificaba como madre de la famosa Hildegart (aunque le restaba importancia a su asesinato filicida) y algunas fechas cuadraban. En fin, que uno puede excusar que le hayan hablado por error de unos terroristas suicidas en un tren, pero no que se añadan detalles como, pongamos, que estos fuesen depilados o con varias capas de calzoncillos. Al cabo, ¿de qué sirve una calculadora que a veces se equivoca al sumar?
A la pregunta de si ChatGPT "razona" hay que contestar con contundencia que no. Aun con tripas digitales y el propio linaje de los programadores que trabajaron en él, si le preguntamos por el mayor número al que podemos contar con los dedos de las manos nos responde que diez, reconociendo en la respuesta que existen otras numeraciones como la binaria... cuando cualquier informático medio avispado hubiera contestado mil veintitrés, por eso de que cada dedo puede representar un bit que cambia su valor levantándolo o plegándolo. Tampoco llega a la picardía de mesurar el valor económico de cualquiera en veintinueve monedas de plata, por aquello de que a Jesucristo lo vendieron por treinta. No estoy seguro de que otra de las cualidades taumatúrgicas que se le atribuyen sea real: es cierto que a muchos ha impresionado escribiendo código fuente en cualquier lenguaje de programación con unas meras indicaciones, pero me da más bien la sensación de que se limita a aprovechar y combinar ejemplos que ha encontrado en alguna parte.
Está visto que GPT no es de ciencias, pero las letras tampoco se le dan ni medio bien más allá de la propia lengua: si uno le pide escribir un relato con el estilo de tal o cual autor, efectivamente escribe una ficción con cierta coherencia (que no es poco), pero no recuerda al creador, sino más bien a lo que algunos dicen de él. Diríase entonces que nuestro enternecedor chat no se lee los libros, más bien recurre a resúmenes o comentarios de sitios como El rincón del vago.
Para terminar plantearemos qué sería entonces ChatGPT en términos creativos, dado que los lingüísticos ya los hemos comentado. Una hipótesis sencilla y comprensible de verlo sería como un sofisticado generador de pastiches, pues tanto en las respuestas prosaicas como en las literarias se reconocen muchos elementos comunes, sobre todo en las que son del mismo tipo. De algún modo, esto explicaría también todo lo anterior: un modelo afanado en combinar textos canónicos de manera estructurada consigue un efecto de coherencia literal impresionante, pero podría tener un cierto riesgo de cometer errores (al cabo, cuando respondiese a una definición lo haría compendiando diferentes fuentes mejor o peor identificadas) y también la tendencia a introducir cuñas éticas o de cualquier tipo bajo determinadas circunstancias o mismo la capacidad de programar, que al cabo no es más que planificar comandos de una manera estructurada. De hecho, volviendo a un comentario anterior, la posibilidad de hacer buenos pastiches es una capacidad gramatical, así que podemos asumir que el modelo de IA podría haber conseguido representar de algún modo la complejísima gramática formal a la que no eran capaces de llegar por fuerza bruta los analistas.
Tranquilos, por tanto, todos. Todavía estamos a salvo.