OpenAI ha anunciado una serie de cambios profundos en ChatGPT, su modelo de inteligencia artificial conversacional, con el objetivo de reforzar la protección de los usuarios en situaciones de crisis emocional y mental. La compañía quiere que su herramienta no solo sea un espacio de diálogo, sino también un apoyo responsable que pueda identificar riesgos de autolesión, violencia o angustia grave con mayor eficacia.
Estas mejoras llegan en un momento delicado, marcado por tragedias recientes y demandas judiciales que han puesto en el centro del debate la relación entre adolescentes y ChatGPT. El reto no es menor: garantizar que la tecnología acompañe, pero sin convertirse en un factor de riesgo cuando la vulnerabilidad emocional se cruza con la dependencia digital.
4El futuro: una red de apoyo desde ChatGPT

Una de las propuestas más innovadoras es la creación de una red de contactos de emergencia que puedan ser activados desde ChatGPT. La compañía planea integrar funciones que permitan al usuario comunicarse directamente con familiares, amigos o profesionales de salud mental. Esto podría incluir mensajes preconfigurados o llamadas rápidas, diseñadas para que iniciar la conversación resulte menos intimidante.
Para los adolescentes, se añadirán controles parentales más sofisticados. Estos no solo permitirán a los padres supervisar el uso de la aplicación, sino que también darán la opción a los jóvenes de elegir un contacto de confianza que pueda ser alertado en caso de crisis. La idea es equilibrar el derecho a la privacidad con la necesidad de protección en situaciones extremas.