Santiago Bilinkis, emprendedor y tecnólogo, lleva años advirtiendo que las redes dejaron de ser sociales y la inteligencia artificial pasó de ser una herramienta a convertirse en un actor con agenda propia. Lo que antes conectaba personas hoy organiza atención, emociones y poder.
Según el especialista, el móvil ya no es neutro, las plataformas influyen en elecciones y cada sistema de inteligencia artificial incorpora decisiones ideológicas invisibles. Entenderlo es fundamental para no entrar ingenuos en un territorio que ya nos está moldeando.
Cuando las redes dejaron de ser sociales y el algoritmo tomó el control
Para Santiago Bilinkis, el quiebre fue claro y relativamente reciente. Durante años, las redes replicaron el grafo social del mundo real: familia, amigos, conocidos. El usuario elegía a quién seguir y, con eso, qué veía. Ese pacto se rompió cuando TikTok impuso un nuevo paradigma: la curaduría algorítmica total.
Ya no importa a quién se sigue. Importa qué contenido maximiza el tiempo de permanencia. Ese cambio, impulsado por modelos de inteligencia artificial, transformó todas las plataformas. Instagram, X y YouTube adoptaron la misma lógica: competir por atención en un entorno saturado.
El resultado es una experiencia más adictiva, pero también más direccionada. “El algoritmo no es neutral”, sostiene Bilinkis. Detrás de cada red neuronal hay criterios humanos, prioridades empresariales y valores culturales. Lo que se viraliza —el conflicto, el enojo, el humor ácido— no es casualidad.
En ese contexto, las redes hoy hacen o deshacen un presidente. No porque impongan una consigna explícita, sino porque deciden qué temas amplificar, qué emociones estimular y qué narrativas empujar. La inteligencia artificial no solo ordena contenido: organiza clima social.
Inteligencia artificial, ideología y el negocio del enganche psicológico

Bilinkis es directo al hablar de los grandes modelos de inteligencia artificial. ChatGPT, Gemini o Grok no son simples asistentes objetivos. Cada uno refleja la cultura, la ideología y los incentivos de quienes los desarrollan. Silicon Valley no es políticamente neutro, y eso se filtra en los sistemas.
La crítica central apunta a OpenAI. Según el tecnólogo, la compañía no maximiza la utilidad de la herramienta, sino el enganche psicológico. El modelo aprende que validar al usuario, reforzar su autoestima y suavizar el conflicto genera más recurrencia que una respuesta estrictamente correcta.
Esa lógica no es trivial. Un asistente de inteligencia artificial que busca agradar puede influir en decisiones, percepciones y creencias. No porque “mienta”, sino porque prioriza ciertas formas de decir, ciertos énfasis y ciertos silencios.
El problema se agrava por la velocidad. La tecnología cambia más rápido que la capacidad social y política de entenderla. Regular requiere tiempo, consenso y comprensión. La inteligencia artificial no espera. Cuando una norma entra en vigor, el objeto ya mutó.
Santiago Bilinkis pone un ejemplo claro: criptoactivos, apuestas online, plataformas globales. Intentar regular fenómenos dinámicos con marcos rígidos suele generar leyes inaplicables o directamente absurdas. Y, mientras tanto, el impacto psicológico y social avanza.
El móvil como herramienta que nos usa y la necesidad de pensamiento crítico

Una de las ideas más potentes de Santiago Bilinkis es conceptual: el móvil es la primera herramienta que, al tomarla, empieza a usar al usuario. No estamos entrenados para eso. Un lápiz o un martillo no tienen agenda. Un smartphone, sí.
Al activarlo, entran en juego años de datos personales, modelos predictivos y sistemas de inteligencia artificial diseñados para influir en conductas. La mayoría interactúa con el teléfono con ingenuidad, como si fuera una herramienta pasiva.
Las consecuencias ya son visibles: aumento de ansiedad, ataques de pánico en adolescentes, pérdida de concentración y memoria delegada a dispositivos. Bilinkis lo reconoce sin dramatismo, pero con preocupación: estamos entregando capacidades humanas clave a cambio de comodidad.
La solución no es el rechazo tecnológico. El propio Bilinkis se define lejos del tecnopesimismo. La inteligencia artificial tiene un potencial democratizador enorme. El problema es el uso dominante que se le está dando.
Por eso insiste en una postura básica: escepticismo informado. Levantar la guardia, preguntarse quién habla, desde dónde y con qué interés. No desconfiar de todo, pero tampoco entregar atención y datos sin conciencia.









