La CNMV ha puesto el foco en un nuevo frente digital: los chatbots de inversión que, armados con inteligencia artificial generativa, empiezan a poblar foros, aplicaciones y asesores virtuales. Según el último análisis interno del supervisor, estos modelos de lenguaje cometen alucinaciones —inventan datos, tergiversan cotizaciones o asignan recomendaciones de compra a valores equivocados— con una frecuencia que preocupa, sobre todo en consultas no estructuradas.
El estudio, adelantado por Expansión, revela que la CNMV ha detectado patrones de error recurrentes al someter a varios sistemas de IA a preguntas sobre renta variable. Cuando el usuario formula una petición libre («¿qué valores tecnológicos me recomiendas para este trimestre?»), la tasa de respuestas inexactas se dispara. Si la consulta viene más acotada, con formato de pregunta cerrada y contexto suficiente, la fiabilidad mejora, pero no desaparece del todo.
Alucinaciones en las recomendaciones bursátiles
Los modelos de lenguaje no distinguen entre una recomendación real y una secuencia plausible de palabras. Por eso, un chatbot puede afirmar que «BBVA presenta un potencial alcista del 12% para el próximo trimestre, según el consenso de analistas» cuando, en realidad, ningún informe recoge ese dato concreto. Esa cifra la ha generado el propio sistema a partir de correlaciones lingüísticas, no de un hecho verificado.
En las pruebas internas, los supervisores simularon consultas de inversores minoristas sobre empresas del Ibex 35 y valores internacionales. El resultado fue heterogéneo: algunos chatbots acertaban el sentido general de la recomendación, pero fallaban en el precio objetivo, la fecha del informe o la entidad que lo emitía. Otros, directamente, recomendaban comprar títulos que en realidad estaban bajo presión vendedora, con pérdidas potenciales significativas.
El factor humano detrás del riesgo
La CNMV no demoniza la tecnología, pero señala que el principal peligro reside en la confianza ciega de quien pregunta. «El usuario no siempre contrasta, y la respuesta del chatbot suena muy convincente», indican fuentes cercanas al análisis. Esa falsa sensación de seguridad es lo que convierte una errata digital en un posible daño patrimonial.
El enfoque del supervisor se centra ahora en la educación del inversor. Mientras no haya un marco regulatorio europeo específico para esta clase de asistentes —la normativa actual se apoya en MiCA y en la directiva de mercados financieros, pero sin un articulado claro para los modelos generativos—, la prevención queda en manos del sentido común y de la transparencia de los proveedores.
Un vacío normativo que invita a la cautela
Creo que el informe acierta al no pedir una prohibición inmediata, sino al reclamar que las entidades que integren estos asistentes expliquen con claridad sus limitaciones. De hecho, ya hay brókeres y neobancos que utilizan versiones controladas de GPT o de modelos propios para atender dudas frecuentes; la diferencia entre una herramienta útil y un riesgo sistémico está en los filtros que se apliquen y en si el usuario sabe a qué atenerse.
Sin embargo, la experiencia con otros fenómenos tecnológicos enseña que el regulador suele llegar tarde. Cuando los deepfakes empezaron a circular, no había protocolos; hoy los hay, pero imperfectos. Con los chatbots sucede algo parecido: la adopción va más rápida que la supervisión. Por eso, la CNMV insiste en que las consultas libres son las más peligrosas, porque dejan toda la interpretación al modelo, sin anclajes.
He visto ya algunos hilos en redes donde un inversor novato tomaba por buena la sugerencia de una IA y agradecía la «ayuda». El problema no es puntual; es estructural. Si el 5% de las recomendaciones generadas contuviera errores graves, el impacto agregado podría mover volúmenes de negociación basados en espejismos. Eso no es alarmismo: es un cálculo que cualquier gestor de riesgos haría.
Lo sensato ahora es que los inversores traten estos asistentes como lo que son: fuentes de información no contrastada. Que pregunten dos veces, que exijan fuentes y que recuerden que la IA no tiene un duro invertido en lo que recomienda. La Comisión, mientras, trabaja en una guía de buenas prácticas que podría ver la luz antes de final de año, aunque sin carácter vinculante.
El reto de regular sin frenar la innovación es complejo. Pero si la alternativa es que una alucinación bursátil cueste los ahorros de alguien, la balanza se inclina del lado de la prudencia. Y eso es lo que, a mi juicio, debería primar.




