OpenAI ha anunciado una serie de cambios profundos en ChatGPT, su modelo de inteligencia artificial conversacional, con el objetivo de reforzar la protección de los usuarios en situaciones de crisis emocional y mental. La compañía quiere que su herramienta no solo sea un espacio de diálogo, sino también un apoyo responsable que pueda identificar riesgos de autolesión, violencia o angustia grave con mayor eficacia.
Estas mejoras llegan en un momento delicado, marcado por tragedias recientes y demandas judiciales que han puesto en el centro del debate la relación entre adolescentes y ChatGPT. El reto no es menor: garantizar que la tecnología acompañe, pero sin convertirse en un factor de riesgo cuando la vulnerabilidad emocional se cruza con la dependencia digital.
5Un desafío ético y tecnológico en construcción

La incorporación de estas medidas marca un paso importante en la evolución de la inteligencia artificial hacia un uso más seguro y responsable. Sin embargo, también plantea interrogantes éticos y prácticos. ¿Hasta qué punto debe un chatbot involucrarse en la vida emocional de un usuario? ¿Qué ocurre si un sistema automatizado malinterpreta una señal y activa recursos de emergencia innecesarios?
Los expertos en salud mental coinciden en que ningún sistema digital puede sustituir el acompañamiento humano, pero destacan que estas herramientas pueden ser útiles como un primer puente hacia la ayuda profesional. En ese sentido, el compromiso de OpenAI de reforzar las salvaguardas en ChatGPT es un avance, aunque todavía queda camino por recorrer para garantizar que la tecnología esté realmente al servicio de las personas.