jueves, 14 de diciembre de 2017

¿Puede el pasado anticipar el futuro?

¿Pueden los retornos pasados anticipar los resultados futuros?

Mucha gente piensa que la visión cuantitativa es la única forma de acercarse de forma estable a unos retornos constantes y sostenidos en el trading o la inversión. Yo entre ellos.

Otros opinan que rigidizar tanto las reglas no puede ser bueno para un sistema, que los backtests fallan y que la aproximación cuantitativa no tiene razón de ser porque ignora factores que hay que tener en cuenta y que no se pueden “medir”.

Otros simplemente no tienen interés en que ganes o pierdas dinero, y te incluyen un disclaimer porque la regulación les obliga. ¿Os suenan? Dicen algo como “El cliente siempre debe tener en cuenta que el rendimiento obtenido en el pasado no es ninguna garantía de resultados futuros”.

Pero la pregunta es: ¿Pueden los retornos pasados predecir los resultados futuros?

Escuchando la genial entrevista que le hizo Ferrán a Juan Ramón (escúchala aquí), terminé con la sensación de que Juan Ramón sostenía que había mucha aleatoriedad en los mercados, y que incluso algo que parece realmente sostenible, es fruto de la casualidad, y no garantía de nada. Entonces, ¿no existen ineficiencias explotables?

Ya os adelanto que Juan Ramón vendrá por Zona Quant Podcast a discutir sobre ineficiencias del mercado y todos podremos aprender aún más del tema.
Mi opinión (y creo que la de Juan Ramón también) es que sí, pero hay que tener mucho cuidado con cuales son, y porqué se generan.

Partamos desde el principio. ¿Pueden los retornos pasados anticipar los resultados futuros?


Si. Y No.


Estoy casi seguro (porque tiendo a dudar de todo) de qué no es posible, en base a unos resultados pasados en los mercados financieros, hacer una previsión o anticipación de que va a ocurrir en el futuro con una del confianza del 100%.
¿Por qué? Porque las condiciones de contorno cambian. Ningún movimiento del precio es exactamente igual a uno pasado.

Pero también estoy casi seguro, de que existen ventajas e ineficiencias explotables en el mercado, que tienen una razón de ser. Es decir, ocurren por algo tangible y puedo saber si sigue ocurriendo. Estas ineficiencias se pueden aprovechar, y aunque no se vayan a repetir exactamente igual que en el pasado, si puedes hacer modelos de aproximación bastante acertados.

La cuestión es: ¿cómo de sólida es mi ventaja?

Has podido encontrar la ventaja de muchas formas. Tenías una hipótesis que eres capaz de validar, o por métodos de análisis e ingeniería inversa has encontrado un patrón que parece repetirse con cierta ventaja estadística pero que no sabrías explicar. O un punto intermedio.

Para mí es bastante distinto el proceso de validación dependiendo de cómo has encontrado la ventaja. Puesto que para una hipótesis lo que buscas es la confirmación, y para una ventaja hallada con un Genex, lo que necesitas es una explicación de porqué ocurre. Si no la tienes, puede que simplemente estés sobre optimizando o que sea fruto de la aleatoriedad.

Aquí es donde entran los tests de robustez para medir coómo de sólida y permanente es esa ventaja, como los walkforward. Estos últimos, mal empleados, son la mejor forma de hacerse trampas al solitario.

Aún así, y aunque la ventaja haya estado en los mercados desde tiempos inmemorables, cuando hablamos de procesos aleatorios, no se puede predecir el futuro. Se puede aproximar, valorar, tomar decisiones para optimizar los resultados conforme a lo que esperas. Pero no se puede predecir.


Ejemplo:

Imaginemos que jugamos a una ruleta de 100 casillas de las que 90 son rojas y 10 blancas. Y tú tienes esa información. Estás jugando con una ventaja.
Sin embargo, nada impide que los próximos 100 lanzamientos salgan blancos. Improbable. Pero posible.

Si en estas circunstancias, que tienes toda la información, no se puede predecir el futuro, ¿cómo lo vas a hacer si la información que tienes es variable? Por ejemplo, supongamos que la ruleta tiene entre 80 y 90 casillas rojas y entre 20 y 10 casillas blancas. Sigue habiendo una ventaja, pero cada vez tienes menos información. En base a unos resultados pasados, puedes estimar y cuantificar con más exactitud cuántas casillas rojas y blancas hay, pero los resultados pasados no van a garantizar nada en el futuro tampoco.

Aquí entran conceptos como la significación estadística. Está claro que, no es lo mismo probar/demostrar que una ventaja existe si conoces lo que la produce (como los patrones estacionales de @rupertacho que podeis ver aquí en el forode x-trader) que demostrar una ventaja que has encontrado “por casualidad”, pero que no entiendes bien que lleva a que se produzca esa ineficiencia.

En el ejemplo de la ruleta se podría entender mejor. Si yo ya sé cuántas casillas de cada color tiene, necesito una serie de tiradas para comprobarlo. Es cierto que, como no se puede garantizar el futuro, pueden salirme resultados que sean acordes con una ruleta 90/10, aunque sea 50/50. Y viceversa, pueden salirme resultados acordes a una ruleta 50/50 aunque sepa que es 90/10. Pero con suficientes tiradas, aumenta mi intervalo de confianza.

Es decir, con 2 tiradas de una ruleta 90/10, que salga una roja y una blanca es más probable que en 100 tiradas salgan 50 rojas y 50 blancas. Y que en mil tiradas salgan 500 rojas y 500 blancas. Puede ocurrir, pero…

Sin embargo, si no conozco el número de casillas de cada color que hay XX/YY, necesito muchísimas más tiradas. Tendría que hacer las suficientes para plantear una hipótesis inicial de cuantas tiene y después comprobarlo. Esto se puede demostrar matemáticamente, pero si no os importa, me lo voy a ahorrar. ;)

Otra cosa además es que, tu pasado no contemple hechos muy improbables que puedan ocurrir. Véase Cisnes Negros. Si no entiendes el motivo o la razón detrás de tu ventaja, estás ciego en ese ámbito y puedes encontrarte situaciones realmente imprevistas.

Que existan motivos para que un evento futuro sea más favorable, no garantiza que vaya a ocurrir. Además, ocurre a menudo que ni siquiera añadiendo más información sobre los eventos pasados, se mejoran las predicciones.

Por ejemplo, en el campo de las previsiones de ventas de aviones (que es a lo que me dedico actualmente)  puedes modelizar de muchas formas. Pero no te garantiza que la venta vaya a ocurrir. Que un país tenga la necesidad de renovar su flota, que necesite realizar ciertas misiones y que además tenga el presupuesto no va a hacer que la compra se materialice. Porque entran factores que tienen un comportamiento aleatorio (o casi).

Es importante conocer los motivos que llevan a que los hechos sean más favorables en una dirección u otra. Pero nunca podemos olvidar que eso no garantiza que vaya a ocurrir en el futuro.

Quiero enseñaros una reflexión que hacen Tobias Carlisle y Weslay Gray en su libro “Quantitative Value: A Practitioner's Guide to Automating Intelligent Investment and Eliminating Behavioral Errors”.


“Researchers Claire Tsai, Joshua Klayman, and Reid Hastie conducted a study in 2008. They wanted to examine how we make decisions about the outcome of uncertain future events as we are presented with additional information about the events. Specifically, they wanted to understand how the acquisition of additional information affects both the accuracy of our decisions, and our confidence about the accuracy of those decisions. 

We would expect to find that, as we are given more decision-relevant information, our accuracy improves, and our confidence increases accordingly. But is this the case?

Tsai, Klayman, and Hastie were aware of several preexisting studies that examined the relationship between increasing the information available to a decision maker and changes in their confidence and accuracy. In an unpublished study from 1973, researchers had provided horse-racing handicappers with 40 different statistical data points about the performance of horses in the races. From hat set, the handicappers selected which specific data points they wanted to see in consecutive blocks of 5, 5, 15, and 15 data points each.

As we would expect, the handicappers' confidence increased with each block of additional information, however, the handicappers' accuracy did not. Other studies had found a similar phenomenon with clinical psychologists and observers predicting the performances of baseball teams. 

In these studies, accuracy did slightly increase with the acquisition of more information, but confidence increased more than accuracy did. All these studies suggest an interesting general tendency for more information to lead to greater confidence, and overconfidence, but not to increased accuracy.

To conduct their study, Tsai, Klayman, and Hastie used students at the University of Chicago who had already demonstrated through a written test that they were “highly knowledgeable” about college football. Those “highly knowledgeable” students were then provided with statistical information about NCAA college football teams and asked to predict the winner and the point spread of 15 NCAA college football games without knowing the names of the teams. 

For each game, the researchers divided 30 data points into five blocks of six data points each such that each block contained new data points that the students were likely to regard as useful. After each block, the students made predictions about the game and assessed their confidence in their predictions. 

The researchers found that as the students were exposed to each new block of data, the accuracy of their predictions did not improve, but their confidence rose steadily. They concluded that the amount of available information affects our confidence more than it does our accuracy. More information simply leads to more overconfidence.

There are several factors at play here. The first is confirmation bias. This causes us to unconsciously collect information that agrees with our original decision and disregard information that disagrees with that decision. The researchers found that the students, when presented with new data, tended not to change their mind when the additional data warranted doing so. 

Another factor is Taleb's narrative fallacy. We weight the additional information on the degree to which we perceive it as coherent in the narrative we have constructed. If it fits into the story, it's included. If it doesn't, it's disregarded.

The new evidence included in the existing story tends to corroborate the story, so we get increasingly confident that the story is accurate.

The implications for investors are obvious. The decision to purchase a stock or not is a decision about an uncertain future event. Collecting more and more information about a stock will not improve the accuracy of our decision to buy or not as much as it will increase our confidence about the decision. Hoarding additional data points in our intellectual attic makes us feel good, but it does nothing to improve our investment results.

The better approach is to keep the strategy austere. Clean out the attic, and keep an eye on only the most important data. This is harder than it looks. As investors, we should favor simplicity over complexity, but as humans we seem behaviorally destined to prefer complexity.

Claire I. Tsai, Joshua Klayman, and Reid Hastie, “Effects of Amount of Information on Judgment Accuracy and Confidence.”  Organizational Behavior and Human Decision Processes 107 (2008): 97–105. Available at http://ssrn.com/abstract=1297347.”

Las dos ideas principales que hay que extraer es:

  • ·    No por tener más información vamos a poder predecir mejor el futuro. A partir de cierto punto solamente aumenta nuestra confianza en el modelo.

  • ·       Sencillez mejor que complejidad.


En conclusión, encuentra una ventaja cuantificable. Encuentra por qué se produce esa ventaja. Opera un sistema sencillo.

 Y desconfía.

Porque rendimientos pasados no garantizan resultados futuros.

¿Cuál es vuestra opinión al respecto?





2 comentarios:

  1. Estoy de acuerdo contigo: Keep It Simple, como decía Michael O'Higgins. Un sistema debe ser imperfecto para poder funcionar.

    ResponderEliminar
  2. Gracias Carlos!
    Un placer tenerte por aquí!

    ResponderEliminar

Última Entrada Publicada

Un Modelo Multifactor: Analizando los Resultados

Un Modelo Multifactor: Analizando los Resultados Continuando con el artículo anterior: Un Modelo de Inversión Multifactor para Batir al ...