Aunque todavía no se han desarrollado sistemas de IA que tengan reflexividad, emociones, consciencia de sí mismos y ni siquiera un conocimiento propiamente dicho de lo que aprenden, los nuevos modelos de lenguaje anticipan un horizonte inmediato en el que será difícil discernir si nuestro interlocutor es un humano o una máquina.
Recientemente saltó a los medios de comunicación de todo el mundo una noticia que se hacía eco del despido de un ingeniero de Google, por revelar el supuesto descubrimiento de la adquisición de «consciencia» en unos de los sistemas de Inteligencia Artificial en los que trabaja la compañía, concretamente en LaMDA, un modelo de lenguaje para diálogo de aplicaciones.
Pese a la espectacularidad de los titulares, en realidad el problema no era tanto que este generador de chatbots se calificase como humano, y manifestase emociones en las pruebas de testeo practicadas, como que fuese capaz de aducirlos y resultar lo suficientemente creíble ante un desarrollador de software especialista en IA.
¿Qué es LaMDA?
LaMDA es un modelo de lenguaje para aplicaciones de diálogo soportado en redes neuronales de aprendizaje profundo autosupervisado («self-supervised learning«), capaz de integrar también otros sistemas pre-entrenados previamente.
Es lo que se conoce como un Largue Language Model (LLM) o Transformer-Based Model (TBM), inteligencias artificiales que funcionan con redes neuronales de escala masiva, y que están preparadas para procesar ingentes cantidades de datos e identificar cuál es la estructura de nuestro lenguaje.
En el caso de LaMDA, hablamos de un sistema preparado para mantener un diálogo natural, coherente y fluido con nosotros, hasta el punto que por su elocuencia puede llegar a ser indistinguible de un interlocutor humano.
Las implicaciones que se derivan de esto fueron precisamente las que llevaron a la anterior co-responsable del equipo de Ética de Inteligencia Artificial de Google, Timmit Gebru, a escribir un artículo en el que alertaba del peligro que podían suponer estos modelos, lo que en su momento, 2020, se zanjó con un polémico despido de la compañía, que propició que por primera vez el proyecto estuviese bajo el foco por cuestiones negativas.
La cuestión de fondo que destacaba Gebru en otro estudio de 2021 firmado junto a Emily M. Bender, Angelina McMillan-Major y Shmargaret Shmitchell, es que estos modelos lingüísticos tan grandes pasasen de meros “loros estocásticos” que imitan el lenguaje, a ser demasiado inteligentes como para resultar identificables con claridad, y por tanto susceptibles de utilizarse con fines fraudulentos.
¿El peligro está en la tecnología o en el uso que se le da?
Según otros especialistas, se trataría de una problemática similar a la que implica el desarrollo de cualquier tecnología disruptiva, ya que la peligrosidad no estaría en ella misma, al no tratarse todavía de sistemas de IA capaces de tomar decisiones conscientes como la que implica un engaño, sino de la posible instrumentación de los mismos que se puedan realizar.
Esto sí podría dar lugar a un repertorio de utilizaciones indebidas bastante abundante, desde para hacer pasar a chatbots por falsos teleoperadores en estafas telefónicas, hasta para desarrollar avatares que cuando se crucen con los de otros usuarios en entornos virtuales, pretendan engañarlos para obtener sus datos, o inundarlos de información, por ejemplo, políticamente interesada.
PaLM, el Modelo de Lenguaje más potente que existe actualmente.
Además, LaMDA ni siquiera es el Largue Language Model (LLM) más grande de Google, ya que PaLM (Pathways Language Model) presentado en abril de este año, opera con hasta 540.000 millones de parámetros, frente a los 175.000 millones que procesaba GPT-3 (Generative Pre-trained Transformer 3), el sistema de OpenAI más potente hasta el momento.
PaLM ha sido capaz de lograr varios retos para estos sistemas de Inteligencia Artificial como explicar chistes, resolver de manera eficiente problemas matemáticos o descifrar películas a partir de emojis.
Sistemas que se sirven toda la producción textual que hay en internet.
Este tipo de modelos de lenguaje regresivos tales como PaLM o sus inmediatos precedentes como GPT-3 o Turing NLG de Microsoft, se basan en gigantescas redes neuronales para el procesamiento de lenguaje natural (NLP), que integran tanto sistemas «pre-entrenados» como «auto-entrenables», con lo que permiten prescindir de la supervisión humana o de un tedioso etiquetado de datos para conformar los dataset de entrenamiento de la Inteligencia Artificial.
Asimismo, en su aprendizaje son capaces de asimilar corpus de textos con cientos de millones de palabras en todos los idiomas. En el caso concreto de GPT-3, ya en 2020 eran tantas como toda la producción textual que existe en Internet, desde una enciclopedia online hasta cualquier tuit publicado en Twitter.
De hecho, las destrezas de escritura que se le atribuían a GPT-3 se emparentarían con las de la creación humana, si bien en muchos de los textos elaborados se han encontrado ciertos problemas de coherencia, achacables a un procesamiento sintáctico de frases que carece de comprensión semántica.
El problema práctico de este tipo de sistemas según especialistas en Inteligencia Artificial, es que de momento son capaces de ofrecer respuestas plausibles, aunque no necesariamente alineadas con la realidad, ya que estos modelos aprenden distribuciones de probabilidad, y con base a ellas responden.
Por ello, algunos críticos señalan esa naturaleza de loros estocásticos que comentábamos. Es decir, que se trataría de sistemas hábiles para concatenar palabras de acuerdo a lo que han aprendido en los data set, pero que carecen de una comprensión profunda de lo que están generando, algo que en términos pedagógicos se denominaría como incapacidad para la obtención de aprendizajes significativos.
Con todo, este mismo experto también se pregunta hasta qué punto una Inteligencia Artificial que evalúa una cantidad ingente de información tiene la posibilidad de crearse un modelo de la realidad con el que operar, y en último término una comprensión del mundo que le rodea, con todas las implicaciones de autoconsciencia que ello implicaría.