Millones de personas ya le piden a ChatGPT, Gemini o Claude que les digan qué hacer con sus ahorros. Una encuesta de Lloyds Bank reveló que más de la mitad de los encuestados ya usan IA para obtener asesoramiento financiero. En el Reino Unido, el 40% de la población ha consultado un chatbot sobre decisiones de dinero. Y mientras el fenómeno crece a velocidad notable, la Autoridad de Conducta Financiera británica (FCA) acaba de lanzar una advertencia formal sobre las alucinaciones de estos sistemas en contextos financieros.
El debate ya no es si la gente usa IA para finanzas personales: es si debería hacerlo, y bajo qué condiciones.
¿Por qué la gente le pregunta a la IA sobre su dinero?
La respuesta más honesta es la más obvia: los asesores financieros certificados son caros. En el Reino Unido, una consulta puede costar desde £150 la hora. En LATAM, la situación es peor: la oferta de asesoría financiera independiente es escasa, concentrada en segmentos de alto patrimonio, y plagada de conflictos de interés. Para alguien que quiere saber si debería meter más plata en su fondo de pensiones o cómo diversificar sus ahorros de emergencia, un chatbot disponible 24/7 y gratis tiene una propuesta de valor concreta.
Un caso documentado por el Financial Times: un ingeniero de software de 41 años le pidió a ChatGPT que restructurara su portafolio de US$200.000. El modelo le recomendó diversificar su exposición al riesgo: 80% en un índice accionario amplio de mercado y 20% en un ETF de bonos. El usuario reconoció que hablar con el chatbot lo ayudó a “comprometerse y realmente ejecutar” su plan. Clásico caso de usar la IA como interlocutor de pensamiento y fuente de estructura, no como oráculo infalible.
Los límites son reales: 55-71% en pruebas independientes
Pero la brecha entre “útil como punto de partida” y “confiable para tomar decisiones” sigue siendo enorme. Which?, la organización de consumidores del Reino Unido, realizó en noviembre de 2025 pruebas directas sobre ChatGPT, Gemini, Perplexity y Meta AI en escenarios de asesoría financiera. Los resultados:
- Puntajes generales de apenas 55 a 71% de precisión en respuestas correctas.
- Microsoft Copilot y ChatGPT recomendaron superar los límites de inversión en ISAs (cuentas de ahorro exentas de impuestos en UK), algo que va contra las reglas de HMRC.
- ChatGPT afirmó incorrectamente que es obligatorio tener seguro de viaje para visitar la mayoría de países de la UE.
- Meta AI dio información incorrecta sobre cómo reclamar compensación por vuelos demorados.
- Gemini aconsejó retener pagos a un contratista en una disputa, lo que técnicamente constituiría incumplimiento de contrato.
El problema de fondo es la combinación de confianza aparente y errores no obvios. Un chatbot que te da información incorrecta sobre ISAs no agrega un aviso de “puede ser incorrecto” al final: responde con la misma fluidez y seguridad que cuando tiene razón.
El riesgo más profundo: los sesgos de comportamiento
El estratega de JPMorgan John Bilton identificó el riesgo más sutil: “Si los usuarios tratan a la IA como herramienta de inversión en lugar de herramienta de datos, corre el riesgo de hacer los sesgos de comportamiento subyacentes —como la tendencia a mantener demasiado efectivo o tradear demasiado— más fuertes.”
Esto es contraintuitivo. La idea común es que la IA aporta racionalidad a las decisiones emocionales. Pero si el modelo confirma lo que el usuario ya quería hacer —o peor, si sus respuestas refuerzan una narrativa sesgada que el usuario expresó en el prompt— el resultado puede ser la amplificación de errores, no su corrección.
En descubre.ai ya cobrimos cómo la IA está reconfigurando la cognición humana, incluyendo el pensamiento crítico y la dependencia en sistemas automatizados para tomar decisiones que antes requerían esfuerzo cognitivo propio. El dinero es exactamente el dominio donde ese efecto puede ser más costoso de forma literal.
La industria financiera empieza a moverse
Lo interesante es que la presión del mercado está empujando a la industria a adaptarse en lugar de resistir. Proveedores de pensiones como Scottish Widows están desarrollando sus propias herramientas de IA para guiar a los usuarios en sus decisiones de jubilación. La lógica: si de todas formas van a usar ChatGPT para esto, más vale ofrecerles algo entrenado en datos reales de la empresa con las restricciones regulatorias correctas.
En el frente regulatorio, la FCA en el Reino Unido tiene planes de reforma que buscarían cerrar el vacío legal actual: hoy, si un chatbot genérico te da asesoría financiera incorrecta y pierdes dinero, no tienes protección regulatoria de ningún tipo. No hay equivalente a los esquemas de compensación que aplican cuando te asesora un asesor licenciado.
Por qué importa
La adopción masiva de IA para asesoría financiera no es sorpresa: era predecible desde el momento en que los LLMs se hicieron accesibles al público general. Lo que todavía no se ha resuelto es la arquitectura de responsabilidad: ¿quién responde cuando la IA da consejo financiero incorrecto con consecuencias reales?
Para el ecosistema fintech latinoamericano —donde la educación financiera es baja, la bancarización incompleta y el acceso a asesoría profesional limitado— el fenómeno va a llegar con más fuerza y menos infraestructura regulatoria para contenerlo. Startups que construyan productos de IA financiera con controles reales, datos verificados y límites claros sobre lo que el sistema puede y no puede recomendar, tienen una ventana real de diferenciación frente a la alternativa gratuita pero imprecisa de usar ChatGPT genérico.
La IA puede ser una herramienta poderosa para democratizar el acceso a conocimiento financiero. Pero entre “ayuda a entender conceptos” y “toma decisiones por mí con mi dinero”, hay una brecha que los modelos actuales todavía no cruzan de forma confiable.
Fuentes
- The Decoder — Millions already use AI chatbots for financial advice, but experts warn of clear limits
- The Guardian — UK consumers warned over AI chatbots giving inaccurate financial advice
- Resultsense — 40% of Britons Use AI Chatbots for Financial Advice
- New York Times — Feeling ‘Amateur’ at Retirement Planning, They Asked A.I. for Help

