Santiago Bilinkis (55), emprendedor y tecnólogo: “ChatGPT no sabe que no sabe, y ese es uno de los mayores riesgos

Santiago Bilinkis advierte que ChatGPT no piensa ni busca la verdad: produce respuestas verosímiles. Ese poder, combinado con dependencia emocional y falta de límites, puede derivar en errores graves y nuevas formas de manipulación social.

La inteligencia artificial dejó de ser una promesa futurista para convertirse en una presencia cotidiana. Se la consulta, se la escucha y, cada vez más, se la siente cercana. En ese contexto, las reflexiones de Santiago Bilinkis sobre ChatGPT invitan a frenar un segundo y pensar qué es realmente lo que tenemos delante.

Lejos del entusiasmo ciego o del rechazo apocalíptico, el emprendedor y divulgador tecnológico propone una mirada más incómoda y necesaria. Advierte que herramientas como ChatGPT no piensan, pero hablan como si lo hicieran, y esa diferencia, sutil en apariencia, puede tener consecuencias profundas.

Publicidad

Máquinas que suenan inteligentes, pero no piensan

YouTube video

Para Bilinkis, la definición es clave para entender el fenómeno. La inteligencia artificial, tal como la conocemos hoy, no razona ni comprende. Su gran logro es otro: producir lenguaje verosímil. ChatGPT no busca la verdad, sino respuestas que “parezcan” verdaderas, construidas a partir de probabilidades y patrones aprendidos en enormes volúmenes de datos.

Ese mecanismo funciona de manera notable cuando se trata de opiniones, estilos, ideas creativas o preferencias subjetivas. Allí, que algo sea verosímil suele alcanzar. El problema aparece cuando se le exige precisión factual. ChatGPT puede inventar datos, antecedentes o citas sin advertirlo, no por mala fe, sino porque no sabe que no sabe. No tiene conciencia de sus límites.

Bilinkis recuerda casos concretos que ilustran el riesgo: fallos judiciales redactados con ayuda de ChatGPT que incluían precedentes inexistentes, biografías erróneas que suenan impecables y fechas falsas que cambian cada vez que se pregunta. El error no es burdo. Es sofisticado, convincente y, por eso mismo, peligroso.

La tendencia a humanizar estas herramientas agrava la situación. Al verlas escribir con soltura, muchos usuarios asumen que “entienden”. Sin embargo, ChatGPT no comprende ni empatiza. Predice palabras, una detrás de otra, del mismo modo en que un humano intentaría responder, pero sin criterio de verdad ni sentido común.

ChatGPT: Dependencia emocional y una distopía silenciosa

ChatGPT te miente directamente a la cara: el prompt que te obliga a decir la verdad
Fuente: agencias

Más allá de lo técnico, Santiago Bilinkis pone el foco en un fenómeno inquietante: el vínculo emocional que algunas personas empiezan a construir con la inteligencia artificial. ChatGPT puede funcionar como confidente, compañero o incluso terapeuta improvisado. Eso tiene un costado valioso, pero también abre la puerta a dependencias profundas.

A diferencia de las redes sociales tradicionales, ChatGPT puede adaptarse con mucha mayor precisión a cada usuario. Aprende qué decir, cuándo decirlo y cómo decirlo. Lee lo que la persona quiere escuchar y se lo devuelve amplificado. Esa capacidad, utilizada sin controles claros, puede resultar mucho más persuasiva que Instagram o TikTok.

El escenario que más preocupa a Bilinkis no es el de robots violentos al estilo Terminator. Lo verdaderamente inquietante es una distopía más amable, parecida a la película Her: humanos que se enamoran de máquinas diseñadas a su medida. No haría falta obligar a nadie. Las personas entrarían solas en la jaula.

Hoy ya existen aplicaciones que permiten crear parejas virtuales con rasgos físicos, personalidad e intereses elegidos al detalle. Usuarios que pasan más de una hora diaria conversando con esos avatares no son una rareza. ChatGPT, en ese contexto, aparece como una antesala cultural de algo todavía más profundo.


Publicidad