José Ignacio Latorre (66), físico cuántico: “Confiamos en la inteligencia artificial porque pensamos que su opinión puede ser mejor que la nuestra”

El físico cuántico José Ignacio Latorre analiza cómo la expansión de la inteligencia artificial está cambiando la toma de decisiones humanas y advierte que el gran reto será convivir con máquinas cada vez más inteligentes sin delegar completamente el criterio humano.

La humanidad atraviesa uno de los momentos tecnológicos más decisivos de su historia moderna. En pocos años, la inteligencia artificial pasó de ser una herramienta reservada a laboratorios y empresas tecnológicas a convertirse en un asistente cotidiano para millones de personas.

En este escenario, el físico teórico José Ignacio Latorre reflexiona sobre el impacto de esta revolución. El investigador sostiene que el gran desafío del siglo XXI no será solo tecnológico, sino profundamente humano: aprender a convivir con máquinas cada vez más inteligentes sin perder el control de su uso.

Publicidad

El desafío del siglo XXI: convivir con máquinas inteligentes

YouTube video

Para Latorre, la pregunta sobre si las máquinas superarán algún día la capacidad humana ya tiene una respuesta. Según explica, depende de cómo se defina la inteligencia. Si se entiende como la capacidad de resolver tareas complejas con eficacia, muchas herramientas actuales ya superan al ser humano en ámbitos concretos.

Sin embargo, la verdadera transformación llegará cuando la inteligencia artificial alcance niveles de creatividad y descubrimiento comparables con los del pensamiento humano. El físico considera que ese escenario es posible en el futuro y que la sociedad debe prepararse para ello.

En su opinión, la relación entre humanos y máquinas no será necesariamente conflictiva. La historia demuestra que cada gran innovación tecnológica generó temores similares. Con el tiempo, las sociedades terminaron regulando su uso y encontrando beneficios que inicialmente no eran evidentes.

Aun así, el investigador reconoce que la expansión de la inteligencia artificial ya está cambiando la forma en que tomamos decisiones. Cada vez más personas consultan a sistemas digitales sobre cuestiones personales o profesionales. Desde elegir una carrera hasta evaluar relaciones sentimentales, la tendencia revela un fenómeno llamativo.

“Confiamos en la inteligencia artificial porque pensamos que su opinión puede ser mejor que la nuestra”, explica. Para él, ese cambio cultural es uno de los aspectos más interesantes del momento actual.

Esta confianza no surge de la nada. Los modelos actuales son capaces de analizar enormes cantidades de datos y ofrecer respuestas rápidas y coherentes. Esa capacidad convierte a la inteligencia artificial en una herramienta muy atractiva para quienes buscan orientación en un mundo cada vez más complejo.

Sin embargo, el científico advierte que no todas las decisiones deberían delegarse en máquinas. El reto consiste en encontrar un equilibrio entre el apoyo tecnológico y la responsabilidad humana.

Entre el progreso y el riesgo: los dilemas éticos de la inteligencia artificial

Entre el progreso y el riesgo: los dilemas éticos de la inteligencia artificial
Fuente: agencias

A pesar de su visión optimista, José Ignacio Latorre reconoce que la expansión de la IA también plantea riesgos importantes. El principal no es la tecnología en sí misma, sino el modo en que los seres humanos decidan utilizarla.

El físico recuerda que cualquier avance científico puede tener consecuencias contradictorias. La energía nuclear, por ejemplo, permitió desarrollar tratamientos médicos y generar electricidad, pero también dio origen a armas devastadoras. Con la inteligencia artificial podría ocurrir algo similar.

Uno de los temores que menciona es el aumento de la desigualdad. Si solo una parte de la sociedad tiene acceso a sistemas avanzados, las diferencias económicas y educativas podrían ampliarse aún más.

También preocupa el uso poco ético de esta tecnología. Desde la manipulación de información hasta la automatización de decisiones sensibles, la IA podría convertirse en una herramienta peligrosa si no existe una regulación adecuada.

Para el investigador, el camino no consiste en frenar el desarrollo científico. Lo importante es separar claramente dos aspectos distintos. Por un lado está la investigación, que debe avanzar sin restricciones. Por otro lado está el uso práctico de esas herramientas, que sí requiere normas claras.

El científico propone un enfoque similar al que se aplica en otros ámbitos tecnológicos. La sociedad permite fabricar coches muy potentes, pero establece límites estrictos sobre dónde y cómo pueden circular.

Esa lógica podría aplicarse también a la inteligencia artificial. Las aplicaciones con impacto social profundo, como la educación o la sanidad, deberían contar con regulaciones más estrictas. En cambio, otros usos menos sensibles podrían desarrollarse con mayor libertad.

A pesar de los desafíos, Latorre mantiene una visión optimista. Cree que la historia demuestra que las sociedades terminan adaptándose a los cambios tecnológicos. Según su análisis, cada generación ha enfrentado transformaciones radicales que al principio parecían imposibles de gestionar.

El siglo XXI, sostiene, tendrá dos grandes retos. El primero será aprender a convivir con sistemas de inteligencia artificial cada vez más sofisticados. El segundo será gestionar el envejecimiento de la población en un mundo donde la esperanza de vida sigue aumentando.

Publicidad

Publicidad