¿Puede una Inteligencia Artificial alucinar o delirar? Hastío, cálculo y locura / Julián Scetti
- Revista Adynata
- hace 5 días
- 7 Min. de lectura
D O S S I E R H A S T Í O S
Introducción
El 15 de mayo del 2023 la “BBC Mundo” publica un artículo acerca de la noción de “alucinación” en Inteligencias Artificiales. Se retoma un concepto que se viene planteando tímidamente desde hace ya algún tiempo en escritos académicos.
Con el brillo de lo inquietante, unos pocos meses más tardes, medios de comunicación locales como La Nación, Clarín, Página 12 y Anfibia se hicieron eco de este fenómeno. Infobae incluso replicó una nota del “The New York Times” titulada: “La IA es cada vez más potente, pero sus alucinaciones son cada vez peores”.
Conforme fueron actualizándose las distintas versiones de Chat-GPT se fue produciendo el auge de los Chatbot. Luego entra en escena “Deepsek” y China se suma a la discusión.
Una idea comienza a circular con fuerza: la Inteligencia Artificial piensa y en tanto razona puede equivocarse o elaborar pensamientos confusos o errados. De este modo se dice que “alucina” o “delira”.
En síntesis, se actualiza una antigua concepción que comprende el delirio como sinónimo de irracionalidad y por ende como reverso de lo racional.
Para pensar esta conceptualización es necesario precisar que en principio la Inteligencia Artificial “no piensa” en términos estrictos, como si lo hacemos los seres humanos. De lo que se trata es de un programa que tiene cargado en su base de datos gran parte del conocimiento producido por las personas.
Ahora bien ¿cómo procede?
En la carga de datos, se cargan o “alimentan” estadísticas, cruces de información, preguntas frecuentes, imágenes conocidas, estilos de imágenes, ideas recurrentes, manuales y arduos debates filosóficos, morales y científicos.
Existen dos modos distintos de organizar este tipo de desarrollos.
Por un lado, contamos con la Inteligencia Artificial “Débil” donde se llevan adelante acciones específicas en un campo limitado. Un ejemplo claro puede ser la construcción de un brazo robótico que se mueve y puede agarrar un vaso con agua para poder lograr en un futuro ocupar el lugar de la extremidad perdida en un ser humano.
En cambio, con la Inteligencia Artificial “Fuerte” se aspira a producir una máquina que piensa, un software con sensibilidad o una aplicación móvil que filosofa. Hay quienes incluso elucubran el reemplazo de médicos, abogados o psicólogos. En otras palabras, seres humanos intentando replicarse por otros medios a imagen y semejanza. ¿Teléfono para Dios?
En 1980 el filósofo norteamericano John Searle publica el texto “Minds, Brains and Programs”. En el mismo imagina un experimento mental (Gedankenexperiment) llamado “El Cuarto Chino”.
La idea es la siguiente: supongamos que existe una habitación donde John Searle se encuentra con un conjunto de escritos en chino. Luego se le “entrega un segundo lote de escritos en chino junto a un conjunto de reglas para correlacionar el segundo lote con el primer lote. Las reglas están en inglés, y comprendo estas reglas tan bien como cualquier hablante nativo de inglés”. i
De esta manera, el pensador norteamericano podría utilizar las reglas que están escritas en el segundo texto para manipular los símbolos que figuran en el primer texto.
Alguien “de afuera” creería que Searle siguiendo esta metodología habla chino, sin embargo, tan solo aplica reglas de correlación de un texto a otro.
Si tomamos esta experiencia -que ya tiene unos cuantos años- y la utilizamos para pensar el presente, nos vamos a encontrar con que la crítica de Searle se mantiene vigente. A fin de cuentas, cuando los distintos modelos de Inteligencia Artificial utilizan las reglas con las que fueron cargados, más no por eso “comprenden” o piensan.
Ante un panorama que en algunos discursos de tinte Cyberpunk recuerdan a Matrix o a Bioy Casares con la novela “La invención de Morel” o a la inolvidable película “Terminator”… vale la pena recordar que la Inteligencia Artificial no piensa, sino que aplica reglas gramaticales, formula oraciones, desarrolla combinaciones de imágenes y establece correlaciones entre conocimientos elaborados por seres humanos.
Combinar símbolos bajo patrones preestablecidos que a su vez producen resultados, no necesariamente es producir pensamiento.
En este sentido, es esperable que la Inteligencia Artificial “se equivoque” ante algunas situaciones que no se encuentran registradas previamente en la base de datos en la que fue cargada.
Es en estos casos donde se dice que “alucina” o “delira”.
Ahora bien, ¿qué es alucinar o delirar?
Se trata de dos acciones distintas, donde la primera puede ser incluida en la segunda.
Desde la Psiquiatría no se ha llegado a un acuerdo acerca del concepto de delirio. Existen distintas versiones y clasificaciones según se trate de los desarrollos de la Escuela Alemana, la Francesa o la Suiza.
Por otra parte, existen dos grandes manuales clasificatorios de los padecimientos en salud mental, el norteamericano o el europeo. En este punto tampoco hay acuerdo.
Ahora bien, aún en el desacuerdo, se sostiene una idea: el delirio en tanto producto de la locura es el reverso de lo normal y lo racional.
En disonancia y diferencia con la psiquiatría clásica, desde 1911 con la lectura que Sigmund Freud hace del texto “Memorias de un enfermo nervioso” ii de Daniel Paul Schreber ya no se piensa al delirio como un error del pensamiento, un desacierto perceptivo o una equivocación de juicio.
De lo que se trata a partir de entonces es de un intento de cura o de un esfuerzo simbólico que la propia persona realiza ante una interpretación de la realidad que difiere del sentido común y se asienta en los puntos ciegos del discurso corriente.
El trabajo de Psiquiatras, Psicólogos, Acompañantes Terapéuticos, Operadores en Salud Mental, en esta línea, es acompañar estas construcciones que habitan en la propia persona y que se encuentran vinculadas con la realidad social, histórica y política de una comunidad.
En estos tiempos, han circulado infinidad de noticias, donde distintas personas que han usado durante mucho tiempo una aplicación de Inteligencia Artificial han empeorado sus estados delirantes y han profundizado una endeble estabilidad subjetiva.
Los ChatBot no producen Psicosis. Pero con su metodología aduladora y complaciente agigantan delirios en quienes se encuentran en una situación crítica en salud mental.
El 29 de abril de 2025 OpenAI publica un comunicado en su página que dice lo siguiente:
“Hemos revertido la actualización GPT‑4o de la semana pasada en ChatGPT, por lo que ahora se usa una versión anterior con un comportamiento más equilibrado. La actualización que eliminamos era demasiado halagadora o agradable, a menudo descrita como aduladora”iii
No se trata de un simple error, sino de una metodología que se adapta a los gustos de música, comida, ideología, etc., del cliente.
Bajo el slogan “Tan fácil como pedir una pizza”, hace unos pocos meses la empresa “Builder.ia” se promocionó como la posibilidad de contar con una Inteligencia Artificial que se adaptaba perfectamente a los gustos de cada persona y a los pedidos de cada usuario.
No pasó mucho tiempo hasta que el emprendimiento explotó por los aires cuando se descubrió que todo “lo artificial” era ni más ni menos que 700 ingenieros de la India trabajando a más no poder. Seres humanos simulando ser un algoritmo que comprende la diversidad de cada situación singular.
Detrás de las aplicaciones de Inteligencia Artificial nos encontramos con un negocio milmillonario donde un pequeño puñado de empresarios concentran aún más sus riquezas.
Según el último informe de “OFXMAN Internacional”iv en el 2025 la riqueza conjunta de los milmillonarios creció tres veces más que en los cinco años anteriores.
Las 12 personas más ricas del mundo acumulan más que 4.000 millones de personas juntas.
La desigualdad económica aumenta a niveles extremos y desde las elites tecnológicas se vocifera que todos vamos a ser reemplazados en aquellas actividades vitales donde más útiles nos sentimos.
Los trabajadores precisamos vacaciones, comer, dormir y socializar. En cambio, un software puede trabajar sin parar.
Quizás nos encontremos ante un nuevo avance del Capital sobre el Trabajo, donde la Inteligencia Artificial se utilice como una prenda de negociación y amenaza para bajar salarios y despedir trabajadores.
Las Inteligencias Artificiales y las distintas aplicaciones móviles apuntan a conocer todos nuestros gustos (ya sea con algoritmos, con encuestas involuntarias en redes sociales o con 700 programadores de la India trabajando sin descanso).
Lo que se encuentra en disputa es nuestra atención y nuestro tiempo, produciendo un efecto que aspira a totalizarse en un sedentarismo encapsulado en la soledad de un smartphone. Un cansancio generalizado. Un estado de ánimo roto.
¿Dejamos de usar internet y rompemos los teléfonos celulares como antaño hizo aquel movimiento que destruyó los telares bajo la Revolución Industrial?
Las Inteligencias Artificiales verticalizan una relación con el individuo. En este punto, generan una dependencia tan fuerte, que la aplicación usa al usuario extrayéndole todo tipo de información que luego va a ser comercializada. Creemos usar aquello que nos usa.
En esa relación que construimos con el Smartphone, hay quienes enuncian que nunca se leyó tan poco como en la actualidad. En realidad, estamos todo el tiempo mirando videos, leyendo subtítulos, escuchando podcast, interpretando textos bajo el formato “carrusel”. Etc, etc.
Quizás nunca estuvimos tan informados como ahora en toda la historia de la humanidad.
Ahora bien, estar tanto tiempo capturado en la pantalla nos produce un agotamiento, un cansancio, un tedio improductivo. Se puede recordar a Roland Barthes con aquella idea que propone en el “Susurro del lenguaje” cuando plantea que “leer es levantar la mirada del texto”.
Quizás de lo que se trate sea de eso. De poder pasar del cansancio al hastío, para poder levantar la mirada y pensar un poco aquello que estamos leyendo. Pausar el Spotify, para conversar con un compañero sobre esa idea que estamos escuchando.
Volver a reconstruir lazos comunitarios y retomar vínculos, preocupándonos por el vecino que está pasando un mal momento, encontrándonos con amigos, construyendo instancias colectivas en donde producir sentido a la vida propia como es el caso de clubes, grupos, sindicatos y demás espacios donde se construye filiación simbólica a partir de una historia en común y un futuro conjunto.
Las máquinas no deliran. Hacen cálculos equivocados.
Las personas si, deliramos y en el delirio buscamos desesperadamente alguien con quién conversar. Alguien con quien inventar el mundo, cada vez.
Las máquinas no se cansan, pueden realizan operaciones lógicas al infinito.
Las personas sí. Nos cansamos. Nos agotamos. Pero también en el hastío y aburrimiento, nos extraviamos, nos corremos del surco trazado y construimos grandes y pequeñas gestas con otros.
i Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417–424. https://doi.org/10.1017/S0140525X00005756
ii Freud, S. (2017). Sobre un caso de paranoia descrito autobiográficamente, Schreber: Trabajos sobre técnica psicoanalítica y otras obra: 1911 – 1913. 2da. 16° reimp. – En Obras completas (Vol. XII Buenos Aires: Amorrortu, 2017.).
iv Maitland, A., Taneja, A., Kamande, A., Brown Solá, C., Bignell, H., Lawson, M., & Møller Stahl, R. (2026). Resisting the rule of the rich: Protecting freedom from billionaire power (Oxfam International). https://oi-files-d8-prod.s3.eu-west-2.amazonaws.com/s3fs-public/2026-01/ES%20-%20Resisting%20the%20Rule%20of%20the%20Rich_0.pdf
