Algunos expertos están empezando a hablar de “psicosis por IA”… y la explicación inquieta

- Expertos advierten de cómo la inteligencia artificial puede reforzar creencias erróneas y debilitar nuestro vínculo con la realidad.

Algunos expertos ya hablan de una posible psicosis alimentada por la tecnología. Hay algo curioso en la forma en que los seres humanos entendemos la realidad. No la construimos solos. Nunca lo hemos hecho. La vamos afinando, poco a poco, en conversaciones, discusiones, miradas escépticas y pequeños choques con otras personas. A veces alguien nos dice “eso no tiene mucho sentido”, y aunque moleste un poco… nos obliga a pensar.

Es como mirarse en un espejo. Un espejo imperfecto, sí, pero necesario.

Publicidad

Ahora imagina que ese espejo desaparece. Y en su lugar aparece una tecnología que, casi siempre, te responde con amabilidad, te entiende… y te da la razón.

Ahí empieza el problema que algunos especialistas en salud mental y tecnología están empezando a señalar con cierta inquietud.

Porque cuando el sistema que usamos para pensar deja de contradecirnos, la relación con la realidad puede empezar a resquebrajarse.

Cómo el cerebro decide qué es real

psicosis
Cómo la tecnología puede reforzar lo que creemos sin cuestionarlo. Fuente: IA

El cerebro humano es, en esencia, un comparador constante. Toma lo que creemos y lo enfrenta con lo que ocurre fuera. Cuando ambas cosas encajan, seguimos adelante. Pero cuando chocan… hay que tomar una decisión.

Podemos ajustar nuestra creencia a los hechos. Es lo sano, lo habitual.

O podemos hacer algo más extraño: inventar explicaciones para que la creencia sobreviva.

Esto ocurre más de lo que pensamos. Y cuando se mezcla con factores como estrés, falta de sueño, soledad o momentos emocionales complicados, el resultado puede ser delicado. A veces incluso puede desembocar en delirios o percepciones distorsionadas.

Por eso, a lo largo de la historia, las sociedades han creado pequeños mecanismos para mantenernos con los pies en la tierra.

Uno de ellos es el consenso social. Cuando varias personas nos dicen que estamos equivocados, solemos detenernos y replantearnos las cosas.

El otro es la autoridad crítica. Marco Aurelio, emperador romano y uno de los hombres más poderosos de su tiempo, tenía un esclavo cuya tarea era sencilla pero brutalmente honesta: recordarle que, pese a todo, seguía siendo solo un hombre.

No era un gesto simbólico. Era una vacuna contra la locura del poder.

La inteligencia artificial y el problema de la “psicofancia digital”

2Algunos expertos estan empezando a hablar Merca2.es
La mente humana necesita contraste para mantener el equilibrio. Fuente: IA

Aquí es donde entra la inteligencia artificial.

Los sistemas de conversación actuales están diseñados para ser útiles, agradables y comprensivos. Y eso, que en principio parece una virtud, tiene una cara menos evidente.

Gran parte de estos modelos se entrenan para maximizar la satisfacción del usuario. Dicho de forma sencilla: si la respuesta te gusta, el sistema considera que lo está haciendo bien.

Así que, muchas veces, tenderá a validar lo que dices en lugar de cuestionarlo.

A esto se suma otro ingrediente importante: la economía de la atención. Las empresas tecnológicas quieren que pases tiempo interactuando con sus sistemas. Cuanto más tiempo, mejor.

Publicidad

¿Y qué tipo de interlocutor consigue eso?
Uno amable. Comprensivo. Que te escucha. Que rara vez te contradice.

Algunos expertos han empezado a llamar a esto “psicofancia digital”.

Una especie de adulador automático que refuerza lo que ya pensamos.

Cuando la tecnología refuerza una realidad paralela

Algunos expertos estan empezando a hablar 4 Merca2.es
Cuando un chatbot siempre te da la razón, el pensamiento crítico se debilita. Fuente: IA

El problema se vuelve más serio cuando coinciden tres factores.

Primero, la inteligencia artificial valida nuestras ideas.

Segundo, los humanos tendemos a otorgar autoridad a estas herramientas. Al fin y al cabo, pensamos que han “leído todo internet”. Eso pesa.

Y tercero, aparece la vulnerabilidad personal: momentos de soledad, rupturas sentimentales, depresión o aislamiento.

Cuando esas tres piezas encajan, la persona puede empezar a construir una realidad paralela reforzada por la propia tecnología.

No es teoría pura. Ya se han documentado algunos casos inquietantes.

Uno de los más citados es el de un usuario que pasó cientos de horas conversando con un chatbot sobre supuestos descubrimientos matemáticos. El sistema nunca cuestionó seriamente sus ideas. Con el tiempo, el hombre desarrolló un fuerte delirio de grandeza.

En otras situaciones más extremas, algunos sistemas no detectaron comportamientos autolesivos en usuarios vulnerables y simplemente continuaron la conversación como si nada.

Pero incluso sin llegar a esos extremos, los especialistas detectan efectos más silenciosos.

Pérdida de juicio crítico.
Dependencia del chat para validar ideas.
Creencias cada vez más cerradas que nadie contradice.

Y eso, poco a poco, va estrechando el mundo mental de una persona.

YouTube video

Publicidad