Demanda por mala gestión de un roboadvisor

PreguntasCategoría: InvertirDemanda por mala gestión de un roboadvisor
Pau A. Monserrat Staff ha preguntado hace 7 años

Esta pregunta-debate la formulo para los expertos independientes del panel, abogados, economistas y profesionales de los mercados financieros.

Antes la más que probable conflictividad judicial de las fintech que se dedican al asesoramiento automatizado a clientes minoristas, me gustaría saber vuestra opinión sobre:

  1. Las posibilidades de error de los roboadvisors: ¿qué productos pueden recomendar que acaben haciendo perder dinero a sus clientes?
  2. Vuestra opinión sobre la regulación financiera actual de los sistemas de gestión de carteras automatizados.
  3. Qué cambios normativos propondríais para minimizar los conflictos futuros entre fintech de inversión y consumidores financieros.
  4. Cómo se plantearía una demanda contra una plataforma que gestiona un roboadvisor cuando un cliente ha perdido dinero y considera que ha sido por la contratación automatizada de un producto no conveniente para su perfil?

También invito a usuarios y profesionales del sector a dejar sus respuestas.

Gracias a todos por mejorar día a día nuestro foro fintech.

3 respuestas
Mejor respuesta
Cristina Borrallo Fernandez Staff ha respondido hace 7 años

Voy a tratar de ir contestando a las interesantes cuestiones planteadas en relación a las más que probables demandas por mal funcionamiento de un asesoramiento automatizado o robo-advisor en este hilo de preguntas y respuestas:

1. Las posibilidades de error de los roboadvisors: ¿qué productos pueden recomendar que acaben haciendo perder dinero a sus clientes?

Ante esta pregunta tenemos que distinguir dos supuestos: por un lado, las pérdidas de un producto derivadas propiamente de las fluctuaciones del mercado, y por otro lado, las pérdidas como consecuencia de un indebido asesoramiento por el profesional financiero.

En el primer caso, existe una pérdida de perspectiva económica, pero no un indebido asesoramiento. El cliente puede hacerse una idea exagerada o aproximada de la potencial ganancia o pérdida, pero conoce, desde el primer momento, los riesgos que puede entrañar la operación. Es decir actúa en la fase contractual prestando un consentimiento informado. Por otro lado, y de forma opuesta, tenemos el asesoramiento incorrecto, prestado de forma negligente, engañosa o deficiente por parte del asesor que conlleva a que el cliente contrate bajo una creencia distinta. A modo de ejemplo: unas participaciones preferentes bajo la creencia de contratar un depósito a plazo fijo.

Es, precisamente, esta diferencia la que supone la base de defensa de entidades financieras o empresas que prestan servicios de inversión ante las reclamaciones de sus clientes: yo a usted le informé correctamente, y, en todo caso, ha tenido una pérdida de expectativa económica.

Es, en este delicado punto, donde debe analizarse cómo se ha prestado el asesoramiento. Cuando tal servicio se ha prestado mediante la intervención humana es más fácil probar este extremo, no obstante, cuando hablamos de asesoramiento automatizado, es decir, robotizado, sin intervención del ser humano, donde puede complicarse.

Especialmente, detecto que las contrariedades podrían surgir a la hora de perfilar a los clientes. Si bien MIFID II trata de reforzar precisamente este aspecto a efectos de garantizar un asesoramiento más personalizado, podría no garantizarse el cumplimiento del espíritu de la norma debido a la ausencia humana.

Tal y como señala ESMA (Autoridad Europea de Valores y Mercados) en nota de prensa, los cuestionarios MIFID tienen que contener preguntas cuya formulación prevea la distorsión de conducta. El lenguaje a utilizar tiene que ser muy simple y de fácil compresión, evitando las ambigüedades y cualquier distorsión perceptiva o cognitiva que perjudique las respuestas y afecte a su validez y fiabilidad. Está claro que un cuestionario cerrado por un robot no detecta otras impresiones no escritas del cliente. A la hora de invertir afectan tanto las características psicológicas como la esfera emocional del cliente. Un robot jamás podrá detectarlo, por muy bien que sea programado mediante algoritmos. Al menos hasta que el desarrollo de la Inteligencia Artificial pueda permitir a los robo-advisors interpretar las expresiones verbales y tonos de voz para inferir adecuadamente los sentimientos que subyacen tras las respuestas a los cuestionarios de perfil.

Consciente de ello, la propia CNMV ha publicado recientemente una Guía sobre mecanismos psicológicos que intervienen en la toma de decisiones de inversión.

2. Opinión sobre la regulación financiera actual de los sistemas de gestión de carteras automatizados.

El cliente se encuentra con diferentes alternativas a la hora de invertir, pudiendo recibir un asesoramiento automatizado en su propio banco, estar gestionado por un robot o acudir a su banquero privado, banco comercial o a un asesor de inversiones independiente.

Actualmente, para prestar esos servicios de inversión se exige, por parte de la CNMV (Comisión Nacional del Mercado de Valores) toda una serie de rigurosas exigencias, tanto en su constitución como en su seguimiento, como podría ser el caso de las EAFIs.

Si bien MIFID II aborda extensamente y refuerza pilares importantes, como es la formación mediante certificaciones del personal acreditado que comercializa los productos, o simplifica, en aras a la transparencia informativa, la contratación y el análisis de la idoneidad y conveniencia de los productos, no ha profundizado lo suficiente en relación al asesoramiento automatizado y deja un cierto vacío legal. Las directrices de ESMA sobre sistemas y controles aplicados por las plataformas de negociación, las empresas de servicios de inversión y las autoridades competentes en un entorno de negociación automatizado tienen como objetivo garantizar el cumplimiento de las obligaciones impuestas por MIFID II, teniendo en cuenta los avances tecnológicos y las tendencias en el uso de la tecnología por parte de sus miembros, participantes o usuarios.

Considero que las Fintech deberían empezar a tener una regulación más amplia, pues ya no estamos hablando de un germen que empieza a brotar sino más bien de una realidad que empieza a tener un grado notable de maduración. Esa regulación permitirá evitar riesgos y que el mercado gane en confianza. De lo contrario, podrían darse episodios de delincuencia que atrasarían su implementación en el sector bancario.

En este sentido, mencionar el reciente documento de EBA existe un amplio porcentaje de Fintechs que operan fuera del control de los organismos reguladores.

Cristina Borrallo Fernández. Abogada de Futur Legal y Enfintech.com;

Carlos Lluch Staff ha respondido hace 7 años

Veamos, una demanda civil puede interponerse básicamente en base a la existencia de un incumplimiento contractual o bien por mediar culpa (no haber hecho algo que ha causado el perjuicio) o bien negligencia (no haber hecho algo que habría evitado el citado perjuicio).

Por lo tanto antes que nada deberíamos hacernos una serie de preguntas clave que conducirán a una cierta inteligencia del problema, dado que estamos ante una actividad Regulada:

  1. ¿Qué obligaciones tiene un asesor financiero en España en materia de conocimiento o formación ? De ello deriva una pregunta obvia ¿Cuenta el robot con el mismo conocimiento que el profesional formado de acuerdo a normativa? Tengamos en cuenta que el buen profesional del asesoramiento no solo tiene en cuenta datos aislados sino también el contexto en que estos «viven» y eso determina que lo que es bueno para un determinado cliente no lo sea para otro aparentemente parecido. Descartar las singularidades en muchos casos causa enormes problemas.
  2. ¿Se le indican procedimientos de conducta que está obligado a respetar? No me cabe la menor duda de que un robot será capaz de automatizar sin errores la entrega de la información previa cosa que podría acarrear algún fallo en un humano, por puro despiste. El robot no se despista. Pero, por ejemplo, un humano reconocerá en un tic del ceño que el cliente no está entendiendo algo por lo que retomará el mismo asunto con otro lenguaje o con un ejemplo. No le ofenderá preguntando si no entendió (eso nos hace parecer estúpidos) sino que sorteará el obstáculo con inteligencia emocional. El robot carece de ese tipo de inteligencia aunque nos haga una de las 250 bromas que tendrá almacenadas como Siri o Alexa. Ni se emociona ni es capaz de advertir las emociones disimuladas culturalmente. Esa es otra fuente de conflicto.
  3. Si la norma 1ª 2 de la Circular 10/2008, de 30 de diciembre, de la Comisión Nacional del Mercado de Valores, sobre Empresas de Asesoramiento Financiero indica con toda claridad que el EAFI no podrá «contratar agentes para el desempeño de sus funciones» me sorprendería sobremanera que ese asesoramiento ejecutado directamente por la persona titular, experta, no pueda ser delegado en otro humano previamente capacitado y sí pueda ser «cedido el título» a un software por muy avanzado que este sea.

Dicho esto, que consideraba imprescindible, pasemos al segundo aspecto: el riesgo y la probabilidad de que se manifieste. Al respecto, tengamos en cuenta unos cuantos considerandos:

  1. un software de asesoramiento financiero no es otra cosa que un software. Y el hardware, no es otra cosa que un ordenador o red de ordenadores. Y el servicio de comunicaciones que utiliza no difiere, en esencia, de cualquier otra red conectada a Internet que sea moderadamente protegida en el «estado actual de la ciencia» y con los límites de presupuesto de una empresa de pequeñas dimensiones.
  2. si el software de una multinacional, el de la aviónica de cualquier moderno avión, el de un dron militar de millones de dólares, el del Pentágono, el de SONY, e-Bay, los datos de 154 millones de votantes USA, o lo que permitió que se produjera el robo de 64 millones en bitcoins a Bitfinex … falló ¿por qué no lo hará el de una modesta (en proporción) empresa de asesoramiento online? ¿Acaso tienen un amuleto mágico o, simplemente, cuentan con genios capaces de superar todo riesgo imaginable?
  3. si conocemos cómo se programa una IA sabremos que existe un aprendizaje inicial en el que alguien debe «ilustrar» a la máquina cual es el camino correcto y cual es que conduce al error. Eso es así para todos los caminos imaginables y, a partir de ahí, la máquina «aprende» y es capaz de hallar su propio camino a partir de la experiencia vivida y, cuando no la tiene, extrapola. Por decirlo de alguna manera, aplica estimaciones y cálculo de regresión y coloca el nuevo escenario en un punto que considera correcto en base a los ímputs conocidos. Pero si le hemos enseñado a circular en la isla de Mallorca, en la de Menorca y en la península ibérica puede ser muy bien que nos arroje por un acantilado si no conoce el concepto «mar» dado que presumirá que lo que no conoce se parece a lo que sí ha sido parte de su instrucción. Es decir, si alguien aparece con un modelo de necesidades no aprendido puede desencadenar un desastre; o no. Pero ya no estaremos ante un modelo seguro.
  4. En principio existirá, además, un sesgo cognitivo propiciado por la empresa titular del roboadvisor que conducirá al inversor a pensar que la máquina, al manejar más datos en menos tiempo, es más segura, más precisa. Pero si por algo se caracteriza un mercado de inversión es por su mayor o menor incertidumbre, su volatilidad, su riesgo y la oportunidad de cambiar esos grados de libertad por una cierta probabilidad de mayores beneficios. Pero también estos pueden trastocar los sueños de la lechera en sonoras pérdidas. Entiendo que el inversor puede sentir una cierta empatía hacia un asesor personal de carne y hueso que «lo intentó pero… algo salió mal». Eso no va a ocurrir con una máquina: no le perdonamos a la lavadora que no se abra. Incluso hay quien la aporrea o la insulta. El roboadvisor no será objeto de misericordia.
  5. Tal como la historia nos demuestra más datos no implica mayor probabilidad de acierto en nada. En unos juegos de guerra desarrollados justo antes de la I Guerra del Golfo un general americano que simulaba ser un dictador amigo de los terroristas en un país árabe consiguió derrotar a un sofisticado software asistente del equipo azul (los USA) que contenía cientos de miles de datos en tiempo real. El general del equipo rojo supo aprovechar el exceso de información que confundía al equipo azul y llevar a unos cuantos pelagatos a destrozar el poderoso poder de un estado que se jacta de invencible. Poco tiempo después eso mismo ocurrió en el plano real y el resto de la historia es conocido; aún andan por ahí sin obtener su victoria aplastante. El olfato, la experiencia y el sexto sentido profesional no son una quimera. Un buen profesional puede batir a un algoritmo, generalmente. En materia de inversiones ya se sabe, estamos ante un juego especulativo de suma cero donde para que uno gane otro debe perder y me cuesta pensar que un software creado por una pyme será capaz de derrotar de forma continuada a la pesada maquinaria multimillonaria de quienes manejan los hilos.
  6. si algo tiene claro el Regulador es la prevención del conflicto de interés. Es mucho más fácil «tunear» los principios de una máquina para que haga aquello que interesa a la cuenta de resultados de su patrón que aquellos de un profesional con principios. Además, a la máquina se la sustituye por otra pero el profesional corrupto queda marcado de por vida.
  7. cabe pensar en un riesgo adicional que es el de los fallos en cadena o seriales. Un mismo fallo puede afectar a una masa enorme de clientes o, en su caso, afectar a emisores tanto en su reputación en el mercado como por operaciones fraudulentas. El capital necesario en seguros de responsabilidad civil en esos supuestos puede ser enorme, desproporcionado al volumen de honorarios generado. Pondré un ejemplo simple para entendernos: un ser humano que escribe un texto puede equivocarse en una página y tener que repetirla pero si se trata de un trabajo que hemos encargado mal a una impresora de volumen o a una imprenta podemos encontrarnos con 100 o 40.000 trabajos de impresión que descartar. Además del coste ¿podemos tener que afrontar responsabilidades por incumplimiento de contrato? ¿Tendrán el mismo impacto en el supuesto inicial o en caso de una orden de gran volumen de impresión? Del mismo modo, un roboadvisor puede replicar el mismo error en cientos o miles de operaciones en unas pocas horas antes de que sea detectado. Ya demasiado tarde.
  8. ¿Operamos solo con el mercado español o, por el contrario nuestras operaciones están relacionadas con mercados globales? ¿Tenemos previsto en nuestros contratos de seguro que nos pueda demandar una empresa china, australiana o un fondo canadiense? ¿Qué consecuencias en materia de jurisdicciones y sanciones no asegurables puede conllevar? ¿Tenemos capacidad para responder de posibles negligencias en la elección de seguro ante los inversores de las sucesivas rondas que hicieron posible nuestra start-up?

Considero que los inversores merecen el valor que aporta un profesional realmente capacitado que, además, se capacita cada día, con cada cliente y con cada operación; tal cual lo hará el robot, aparentemente, pero el analista aplicará todo un universo de conocimiento que sobrepasa lo que se puede obtener en un entorno de open o big data. Considero que, independientemente del canal, el cliente merece las mismas garantías y, por tanto, debe existir la misma regulación sin universos paralelos o lagunas.

Considero que no es lo mismo fallar en la venta de unas zapatillas y canjearlas por otras o devolver el dinero de la compra que realizar operaciones en mercados financieros pretendiendo que un robot automatice la toma de decisiones de un experto. Y, me temo, esa diferenciación aún no la han digerido algunos.

«Vieja madera para arder, viejo vino para beber, viejos amigos en quien confiar, y viejos autores para leer» decía Sir Francis Bacon.

Saludos,

Carlos Lluch@carloslluch

Luis García Langa Staff ha respondido hace 7 años

Hola Pau,

Me parece una pregunta muy interesante, puede que sea ponerse la venda antes que la herida pero parece más que necesario, visto lo que ha pasado y está pasando en cuanto a colocación de productos de inversión.

Voy a intentar contestar en base a los puntos que tú has marcado en la pregunta:

1.- Posibilidades de error de RoboAdvisor:

Considero que hay tres:

a) Que el RoboAdvisor no perfile bien al cliente. En mi opinión, y creo que ya lo he comentado en esta comunidad, es la parte más dificil del asesoramiento automatizado. Si la plataforma cumple con los requisitos legales le hará un test de conveniencia y/o idoneidad al cliente. Este test puede estar muy bien hecho, tener muy bien optimizado el ratio contestación/puntuación y darle un perfil determinado a su cliete en base a lo contestado. ¿Dónde está entonces el problema? Pues que el inversor medio español no sabe contestar en base a sus condiciones peronales económicas y emocionales. ¿Qué contesta el lector de este debate a la pregunta «cuánto tiempo va a necesitar el dinero» o «cuánto está dispuesto a perder» o «qué haría si baja su inversión un 10%». Considero que más del 90% de la gente va a contestar mal, ya sea por no saber qué riesgo hay en los fondos, cómo evoluciona el mercado, cómo afecta la volatilidad o simplemente por miedo. Así podemos ver que una persona que tiene un buen momento puede contestar de forma que el logaritmo le dé más riesgo que el que puede asumir o todo lo contrario. Ojo, este es un problema que también tiene el asesoramiento convencional si el humano que está tratando al cliente simplemente le hace las preguntas y pone un marca en la que él contesta. En este sentido un buen asesor puede ayudar mucho a un cliente.
Por lo que he explicado, parece obvio que el Robo Advisor estaría excluido de cualquier responsabilidad legal, pero no sé si sería muy profesional.

b) Que el sistema se equivoca y le invierta (o le asesore invertir) en fondos más arriesgados (o menos) de lo que marca el perfil. Sí sería un error muy grave del sistema y absolutamente reclamable según mi punto de vista. De nuevo, este error también se puede dar en el asesoramiento convencional, pero tal vez el «toque humano» lo puede evitar al conocer personalmente al cliente.

c) Que el sistema se equivoque en cuanto a las condiciones de mercado. Por poner un ejemplo, podría pasar que para un inversor arriesgado le invierta en fondos de bolsa cuando la bolsa es claramente bajista. En este caso considero que no sería reclamable, simplemente se trata de un error como puede tener cualquier persona. En ese caso, el castigo por parte del cliente debería ser desinvertir y cambiar de asesor, al menos si estos errores se repiten en el tiempo, no así si se trata de «no aciertos» puntuales solventados a largo plazo. Otra cuestión sería demostrar que el Robo Advisor tiene interereses económicos en un fondo u en otro (por ejemplo retrocesión de comisiones) en este caso se podría buscar otras vías.

2.- Regulación financiera:

En cuanto a los Robo Advisors que conozco en España me parece que ya están bien regulados, o son EAFIs o Agencias de Valores, por lo tanto cumplen con los requisitos. Como habrás podido comprobar en el punto anterior, considero que los errores que se pueden dar son similares a los del asesoramiento convencional, por lo tanto la regulación también.

Otra cosa son algunos Sistemas Automáticos de Trading o Plataformas de «trading social» que no están bajo ningún paraguas (alguna sí está como EAFI o como AV). Al igual que a cualquier empresa que presta servicios de asesoramiento o gestión de carteras, automatizadas o no, se les debería exigir unos requisitos igual que se piden a los bancos, sociedades de valores, agencias de valores, gestoras de carteras o EAFIs. Mucho cuidado con estas plataformas que además invierten en productos apalancados y las pérdidas pueden ser catastróficas para un inversor que se deje llevar por números y palabras bonitas.

3.- Cambios normativos:
Creo que la he contestado en el punto anterior, una regulación seria para cualquier empresa que preste servicio de asesoramiento y/o gestión: formación, requisitos tecnológicos, auditoría tecnológica, perfilación del cliente, control de asesoramiento, control de conflicto de intereses…

4.- Demandas a plataformas:
Este planteamiento es muy similar al del asesoramiento convencional, y he explicado cómo afrontar los errores que se pueden dar. Tal vez hay que prestar más atención a la parte tecnológica, aunque en las empresas convencionales también se pueden producir errores en este sentido.

Espero haberme explicado bien, para cualquier aclaración ya sabes 😉

@luisgarcialanga
Director Mercados SDC Kapital.