El pasado 8 de marzo, el acreditado lingüista y filósofo Noam Chomsky, en colaboración con Ian Roberts y Jeffrey Watumull, publicó un extenso artículo en el New York Times con el título ‘La falsa promesa de ChatGPT’, en el que se analizan las ventajas, los límites y los riesgos de este programa de inteligencia artificial (IA). Después de reconocer que esta tecnología constituye un avance que puede ser útil para la resolución de problemas en algunos campos específicos, los autores desinflan las expectativas generadas en torno a ella al señalar sus limitaciones y sus profundas diferencias con la inteligencia humana, mucho más completa y versátil.
La actual IA, argumentan, solo puede describir lo que ocurre o lo que ocurrió y predecir lo que probablemente ocurrirá, pero se muestra inhábil para distinguir entre lo que es posible y lo que es imposible, entre lo admisible y lo inadmisible. El pensamiento, propio de una verdadera inteligencia, se caracteriza por aportar explicaciones hipotéticas, que si resultan erróneas pueden ser suplidas o superadas por otras mejores. La actual IA solo recoge y maneja —eso sí a gran velocidad— una cantidad ingente de datos, que ordena y distribuye según patrones estandarizados en función de los algoritmos que la rigen.
El resultado es una presentación de contenidos aparentemente coherentes y ordenados, pero carentes de sentido crítico, en los que una teoría o ideología es equivalente a cualquier otra, y por lo tanto da la impresión de que en ella todas valen por igual. La IA, al menos en su versión actual, es equidistante y moralmente neutra, generando automáticamente todo tipo de informes exentos de opinión y valoración propias, mostrándose incluso ‘servil’ ante unos usuarios que pueden emplearla sin cortapisas para cualquier propósito por muy nocivo que éste sea.
En esta amoralidad o ausencia de criterios éticos ven Chomsky y sus colaboradores uno de los mayores peligros de esta tecnología, al fomentar una expansión de la ‘banalidad del mal’, en el sentido (procedente de Hannah Arendt) de mera obediencia irreflexiva y normalizada a órdenes o principios injustos.
El riesgo consiste en delegar en la IA, por comodidad o por conveniencia, actividades y decisiones que únicamente a nosotros nos competen
Además, este tipo de sistemas informáticos contribuyen a recortar la capacidad lingüística e intelectual de los humanos, que en su estado natural es mucho más amplia: si éstos producen —según demostró la gramática generativa del propio Chomsky— un número potencialmente infinito de expresiones a partir de una cantidad finita de elementos (palabras y reglas gramaticales). La IA, por el contrario, a pesar de disponer de una infinidad virtual de datos, realiza operaciones mucho más limitadas, pues como se ha dicho, describe y predice hechos pero no es capaz de formular por sí misma explicaciones ni valoraciones.
Personalmente añadiría que, por su propia naturaleza, la IA está basada en procedimientos matemáticos (algoritmos) complejos pero privados, no solo de pensamiento propio, sino también de empatía y emotividad. La nuestra, en cambio, es una «inteligencia sintiente», como la designó Xavier Zubiri, en la que razón y sentimiento se funden. La IA, por tanto, es un instrumento, aunque sofisticado, esencialmente mecánico, que no puede ponerse en nuestro lugar, es decir: ni comprendernos ni, mucho menos, sustituirnos. En realidad, la suya es una inteligencia superficial, incapaz de profundizar como lo hace la dimensión interior de la mente, donde anida la capacidad de pensar y de meditar.
El riesgo consiste en delegar en ella, por comodidad o por conveniencia, actividades y decisiones que únicamente a nosotros nos competen. Como toda tecnología, constituye un simple medio con el que realizar fines o proyectos sobre cuya validez solo a los seres humanos nos corresponde reflexionar.