jueves, 28 de diciembre de 2017

El orden de los factores SI altera el producto.


En inversión con factores me refiero. No estoy amenazando todas vuestras creencias matemáticas. Pero no dejes de leer este artículo para descubrir como afecta el orden cuando se hace una inversión basada en factores.






Introducción. Combinación factores

Hacer backtests de resultados pasados no es fácil. Más aún si estamos incluyendo parámetros no derivados del precio, como medias e indicadores, sino resultados empresariales.

Hay que tener en cuenta qué empresas estaban en el índice (sesgo de supervivencia) y que en determinado momento tuviéramos unos datos públicos o no que pudiéramos usar (sesgo de visión a futuro). En definitiva, no es fácil.

Estudiar factores en profundidad tiene bastante trabajo. Hay que demostrar que no dependen del momento en el que compres, que la ventaja es robusta, hay que analizar la linealidad, hay que construirse un benchmark apropiado con el que comparar y demostrar que es un factor que realmente bate de forma consistente al mercado.

Sólo con una ventaja real y recurrente... se gana dinero en los mercados.

Y cuando ya has analizado un factor… quieres combinarlo con otros factores para crear un sistema de selección mejor.

Pues en toda esta tormenta de ideas fue cuando decidí usar la plataforma de backtesting que nos ofrecen nuestros amigos de zonavalue.com para probar que tal se comportaban unos factores cuando se combinaban con otros según órdenes prioritarios.

Si no sabéis aún que son los órdenes prioritarios lo explico en este artículo, pero básicamente consiste en ordenar las acciones del universo según un factor, coger un percentil y reordenar ese percentil según otro factor.

De esa forma, digamos que un factor se aplica antes que otro, que es a lo que me refiero con que un factor es prioritario.

Para comparar los resultados, utilizaremos los factores de la Fórmula Mágica de Greenblatt (averigua más aquí). Además de utilizar el EBIT/EV miraremos el FCF/EV como factor de valoración, que ha cogido mucho peso en recientes estudios.

Greenblatt ponderaba ambos factores con el mismo peso. Pero ¿hay algún factor que importe más que el otro? Veamos.


Factores


Los factores son: EBIT/EV, FCF/EV, y ROIC (Greenblatt).

- EBIT: Earnings before Interests Taxes
- EV: Enterprise Value
- FCF: Free Cash Flow
- ROIC: Return on Invested Capital

Los tres factores están normalizados, es decir, dan valores independientes del tamaño de la empresa.

Son tres factores muy usados en la inversión value y aparecen recurrentemente en los estudios académicos. Los factores EBIT/EV y FCF/EV suelen ser de los primeros datos en ser analizados de las compañías para medir si su precio es acorde (si están bien valoradas o por el contrario están sobre o infra valoradas). El factor ROIC es una medida de calidad de las empresas.

Nota: El ROIC es un factor que depende de lo que se ha considerado como retorno, y de lo que se ha considerado como capital empleado. Hay que tener cuidado porque los resultados de un mismo backtest usando ROICs construidos diferentes, darán, obviamente, resultados diferentes.


Backtests


El backtest de zonavalue.com tiene las siguientes características:

1. Ordena las acciones según el Orden 1. Selecciona un quintil (primer 20% del universo) y reordena el quintil según el Orden 2. Selecciona las primeras 20 acciones.

2. Una vez tiene esas acciones seleccionadas, espera hasta los siguientes años fiscales de cada compañía para comprarlas y mantenerlas durante todo el año fiscal.

3. Nosotros escogemos el mercado EEUU y un Market Cap > 50.

No es un backtest estricto, puesto que no son resultados replicables, pero nos permite detectar donde hay una ventaja que sea pueda explotar.

Nota: Para realizar un estudio mucho más adaptado a la realidad, habría que añadir las comisiones, ver los resultados año a año y además, buscar capitalizaciones mucho mayores. Esto nos garantizaría el escoger compañías que podemos encontrar en el mercado. Sin embargo, aquí estamos buscando analizar la importancia de ordenar primero por un factor u otro y sólo tiene valor académico.

Nota: los backtests van sólo hasta 2015 por una razón. Al comprar durante los años fiscales, puede darse el siguiente caso. El 1 de enero de 2016, con todos los datos de 2015, hago un backtest y me toca comprar una empresa XYZ. Esta empresa tiene un año fiscal que va de noviembre a noviembre. Por tanto, el algoritmo espera hasta noviembre de 2016 para incluirla en la cartera. Para poder ver los resultados de esa operación, tendría que esperar hasta noviembre de 2017. Como a día de hoy (diciembre 2017) no tenemos todos los resultados de todas las operaciones posibles de 2016, el backtest sólo llega hasta 2015.


Resultados:








Parece claro que elegir el ROIC como factor prioritario tiene mayores retornos que elegirlo como factor secundario.

En otras palabras, haciéndolo simple, la conclusión de este backtest podría ser: “Es mejor elegir las empresas más baratas de entre las mejores empresas, que las mejores empresas de entre las más baratas.”

Además, también parece que el EV/EBIT da mejores resultados que el EV/FCF.


¿Pero…Tiene sentido usar dos factores?

Mientras desarrollaba este artículo, probé la potencia que tendría el ROIC por sí sólo. Me di cuenta de que el ROIC por sí solo tiene unas estadísticas más que respetables.



No tiene sentido añadir ningún factor que no sume al sistema: o añadiendo rentabilidad, o reduciendo volatilidad.

Pensé que, al elegir un Market Cap tan bajo (50M) estaba comprando empresas con una capacidad de crecimiento muy elevada, que añadido al sesgo de tamaño (las empresas pequeñas tienden a superar a las grandes, ya que tienen más capacidad de crecimiento) producía estos resultados. Sin embargo, repliqué el backtest con market cap > 4000M y los resultados siguen siendo muy potentes.


Me llevé una sorpresa, pero consultando con José Iván (de Zonavalue.com), me dijo que tenía sentido.

Pueden ser varias opciones como:

- Por la compra por años fiscales. Que exista una ventaja en esos periodos.

- Por los parámetros considerados al calcular el ROIC de Greenblatt

Seguiré investigando el ROIC y compartiré los resultados.

Para seguir con la idea del orden combinando factores, voy a proponer dos nuevos factores:

Factores:

En el ejemplo anterior, comparábamos factores que daban información sobre la calidad, y sobre si estaban caras o baratas. En este caso usaremos un factor diferente de calidad, que es el F-Score de Piotroski, y en vez de medir si son caras o baratas, mediremos la fuerza de la tendencia usando el Price Index.

- F-Score: ratio de Piotroski. Leer más

- Price Index 12m %: De los últimos 12 meses. Este valor mide la tendencia y se usa para evaluar el momentum de los activos.

Además en este caso escogeremos empresas con market cap > 4000 millones. Esto nos asegura que sean empresas invertibles siempre.



Resultados:






Como podemos ver, son dos buenos ratios por sí solos. Aunque el Price Index da una mayor rentabilidad, también da una mayor volatilidad. 

Por otro lado, el Ratio F-Score se centra en en la selección de empresas de calidad, lo que hace que disminuya la volatilidad aportando una rentabilidad bastante buena.

Vamos a ver los resultados combinando los dos factores con los diferentes órdenes.





La combinación de ambos ratios, mejoran al Price Index en volatilidad, y al F-Score en rentabilidad. Además, podemos ver que la aplicación con mejores resultados es ordenar primero por Price Index y luego por F-score.

De nuevo, haciéndolo simple, la conclusión de este backtest podría ser: “Es mejor elegir las empresas de mayor calidad de entre las empresas con mejor tendencia, que las empresas con mayor tendencia de entre las más de más calidad.”

De momento si tenéis cualquier idea para ayudarme me gustaría que me lo dejarais en los comentarios. ¡Muchas gracias y hasta el próximo post!







Los resultados mostrados son producto de un backtest y no representan rendimientos reales obtenidos por ningún inversor. No son ideas de inversión replicables. Tienen un objetivo meramente didáctico y teórico. 


jueves, 14 de diciembre de 2017

¿Pueden los retornos pasados anticipar los resultados futuros?

Mucha gente piensa que la visión cuantitativa es la única forma de acercarse de forma estable a unos retornos constantes y sostenidos en el trading o la inversión. Yo entre ellos.

Otros opinan que rigidizar tanto las reglas no puede ser bueno para un sistema, que los backtests fallan y que la aproximación cuantitativa no tiene razón de ser porque ignora factores que hay que tener en cuenta y que no se pueden “medir”.

Otros simplemente no tienen interés en que ganes o pierdas dinero, y te incluyen un disclaimer porque la regulación les obliga. ¿Os suenan? Dicen algo como “El cliente siempre debe tener en cuenta que el rendimiento obtenido en el pasado no es ninguna garantía de resultados futuros”.

Pero la pregunta es: ¿Pueden los retornos pasados predecir los resultados futuros?

Escuchando la genial entrevista que le hizo Ferrán a Juan Ramón (escúchala aquí), terminé con la sensación de que Juan Ramón sostenía que había mucha aleatoriedad en los mercados, y que incluso algo que parece realmente sostenible, es fruto de la casualidad, y no garantía de nada. Entonces, ¿no existen ineficiencias explotables?

Ya os adelanto que Juan Ramón vendrá por Zona Quant Podcast a discutir sobre ineficiencias del mercado y todos podremos aprender aún más del tema.
Mi opinión (y creo que la de Juan Ramón también) es que sí, pero hay que tener mucho cuidado con cuales son, y porqué se generan.

Partamos desde el principio. ¿Pueden los retornos pasados anticipar los resultados futuros?


Si. Y No.


Estoy casi seguro (porque tiendo a dudar de todo) de qué no es posible, en base a unos resultados pasados en los mercados financieros, hacer una previsión o anticipación de que va a ocurrir en el futuro con una del confianza del 100%.
¿Por qué? Porque las condiciones de contorno cambian. Ningún movimiento del precio es exactamente igual a uno pasado.

Pero también estoy casi seguro, de que existen ventajas e ineficiencias explotables en el mercado, que tienen una razón de ser. Es decir, ocurren por algo tangible y puedo saber si sigue ocurriendo. Estas ineficiencias se pueden aprovechar, y aunque no se vayan a repetir exactamente igual que en el pasado, si puedes hacer modelos de aproximación bastante acertados.

La cuestión es: ¿cómo de sólida es mi ventaja?

Has podido encontrar la ventaja de muchas formas. Tenías una hipótesis que eres capaz de validar, o por métodos de análisis e ingeniería inversa has encontrado un patrón que parece repetirse con cierta ventaja estadística pero que no sabrías explicar. O un punto intermedio.

Para mí es bastante distinto el proceso de validación dependiendo de cómo has encontrado la ventaja. Puesto que para una hipótesis lo que buscas es la confirmación, y para una ventaja hallada con un Genex, lo que necesitas es una explicación de porqué ocurre. Si no la tienes, puede que simplemente estés sobre optimizando o que sea fruto de la aleatoriedad.

Aquí es donde entran los tests de robustez para medir coómo de sólida y permanente es esa ventaja, como los walkforward. Estos últimos, mal empleados, son la mejor forma de hacerse trampas al solitario.

Aún así, y aunque la ventaja haya estado en los mercados desde tiempos inmemorables, cuando hablamos de procesos aleatorios, no se puede predecir el futuro. Se puede aproximar, valorar, tomar decisiones para optimizar los resultados conforme a lo que esperas. Pero no se puede predecir.


Ejemplo:

Imaginemos que jugamos a una ruleta de 100 casillas de las que 90 son rojas y 10 blancas. Y tú tienes esa información. Estás jugando con una ventaja.
Sin embargo, nada impide que los próximos 100 lanzamientos salgan blancos. Improbable. Pero posible.

Si en estas circunstancias, que tienes toda la información, no se puede predecir el futuro, ¿cómo lo vas a hacer si la información que tienes es variable? Por ejemplo, supongamos que la ruleta tiene entre 80 y 90 casillas rojas y entre 20 y 10 casillas blancas. Sigue habiendo una ventaja, pero cada vez tienes menos información. En base a unos resultados pasados, puedes estimar y cuantificar con más exactitud cuántas casillas rojas y blancas hay, pero los resultados pasados no van a garantizar nada en el futuro tampoco.

Aquí entran conceptos como la significación estadística. Está claro que, no es lo mismo probar/demostrar que una ventaja existe si conoces lo que la produce (como los patrones estacionales de @rupertacho que podeis ver aquí en el forode x-trader) que demostrar una ventaja que has encontrado “por casualidad”, pero que no entiendes bien que lleva a que se produzca esa ineficiencia.

En el ejemplo de la ruleta se podría entender mejor. Si yo ya sé cuántas casillas de cada color tiene, necesito una serie de tiradas para comprobarlo. Es cierto que, como no se puede garantizar el futuro, pueden salirme resultados que sean acordes con una ruleta 90/10, aunque sea 50/50. Y viceversa, pueden salirme resultados acordes a una ruleta 50/50 aunque sepa que es 90/10. Pero con suficientes tiradas, aumenta mi intervalo de confianza.

Es decir, con 2 tiradas de una ruleta 90/10, que salga una roja y una blanca es más probable que en 100 tiradas salgan 50 rojas y 50 blancas. Y que en mil tiradas salgan 500 rojas y 500 blancas. Puede ocurrir, pero…

Sin embargo, si no conozco el número de casillas de cada color que hay XX/YY, necesito muchísimas más tiradas. Tendría que hacer las suficientes para plantear una hipótesis inicial de cuantas tiene y después comprobarlo. Esto se puede demostrar matemáticamente, pero si no os importa, me lo voy a ahorrar. ;)

Otra cosa además es que, tu pasado no contemple hechos muy improbables que puedan ocurrir. Véase Cisnes Negros. Si no entiendes el motivo o la razón detrás de tu ventaja, estás ciego en ese ámbito y puedes encontrarte situaciones realmente imprevistas.

Que existan motivos para que un evento futuro sea más favorable, no garantiza que vaya a ocurrir. Además, ocurre a menudo que ni siquiera añadiendo más información sobre los eventos pasados, se mejoran las predicciones.

Por ejemplo, en el campo de las previsiones de ventas de aviones (que es a lo que me dedico actualmente)  puedes modelizar de muchas formas. Pero no te garantiza que la venta vaya a ocurrir. Que un país tenga la necesidad de renovar su flota, que necesite realizar ciertas misiones y que además tenga el presupuesto no va a hacer que la compra se materialice. Porque entran factores que tienen un comportamiento aleatorio (o casi).

Es importante conocer los motivos que llevan a que los hechos sean más favorables en una dirección u otra. Pero nunca podemos olvidar que eso no garantiza que vaya a ocurrir en el futuro.

Quiero enseñaros una reflexión que hacen Tobias Carlisle y Weslay Gray en su libro “Quantitative Value: A Practitioner's Guide to Automating Intelligent Investment and Eliminating Behavioral Errors”.


“Researchers Claire Tsai, Joshua Klayman, and Reid Hastie conducted a study in 2008. They wanted to examine how we make decisions about the outcome of uncertain future events as we are presented with additional information about the events. Specifically, they wanted to understand how the acquisition of additional information affects both the accuracy of our decisions, and our confidence about the accuracy of those decisions. 

We would expect to find that, as we are given more decision-relevant information, our accuracy improves, and our confidence increases accordingly. But is this the case?

Tsai, Klayman, and Hastie were aware of several preexisting studies that examined the relationship between increasing the information available to a decision maker and changes in their confidence and accuracy. In an unpublished study from 1973, researchers had provided horse-racing handicappers with 40 different statistical data points about the performance of horses in the races. From hat set, the handicappers selected which specific data points they wanted to see in consecutive blocks of 5, 5, 15, and 15 data points each.

As we would expect, the handicappers' confidence increased with each block of additional information, however, the handicappers' accuracy did not. Other studies had found a similar phenomenon with clinical psychologists and observers predicting the performances of baseball teams. 

In these studies, accuracy did slightly increase with the acquisition of more information, but confidence increased more than accuracy did. All these studies suggest an interesting general tendency for more information to lead to greater confidence, and overconfidence, but not to increased accuracy.

To conduct their study, Tsai, Klayman, and Hastie used students at the University of Chicago who had already demonstrated through a written test that they were “highly knowledgeable” about college football. Those “highly knowledgeable” students were then provided with statistical information about NCAA college football teams and asked to predict the winner and the point spread of 15 NCAA college football games without knowing the names of the teams. 

For each game, the researchers divided 30 data points into five blocks of six data points each such that each block contained new data points that the students were likely to regard as useful. After each block, the students made predictions about the game and assessed their confidence in their predictions. 

The researchers found that as the students were exposed to each new block of data, the accuracy of their predictions did not improve, but their confidence rose steadily. They concluded that the amount of available information affects our confidence more than it does our accuracy. More information simply leads to more overconfidence.

There are several factors at play here. The first is confirmation bias. This causes us to unconsciously collect information that agrees with our original decision and disregard information that disagrees with that decision. The researchers found that the students, when presented with new data, tended not to change their mind when the additional data warranted doing so. 

Another factor is Taleb's narrative fallacy. We weight the additional information on the degree to which we perceive it as coherent in the narrative we have constructed. If it fits into the story, it's included. If it doesn't, it's disregarded.

The new evidence included in the existing story tends to corroborate the story, so we get increasingly confident that the story is accurate.

The implications for investors are obvious. The decision to purchase a stock or not is a decision about an uncertain future event. Collecting more and more information about a stock will not improve the accuracy of our decision to buy or not as much as it will increase our confidence about the decision. Hoarding additional data points in our intellectual attic makes us feel good, but it does nothing to improve our investment results.

The better approach is to keep the strategy austere. Clean out the attic, and keep an eye on only the most important data. This is harder than it looks. As investors, we should favor simplicity over complexity, but as humans we seem behaviorally destined to prefer complexity.

Claire I. Tsai, Joshua Klayman, and Reid Hastie, “Effects of Amount of Information on Judgment Accuracy and Confidence.”  Organizational Behavior and Human Decision Processes 107 (2008): 97–105. Available at http://ssrn.com/abstract=1297347.”

Las dos ideas principales que hay que extraer es:

  • ·    No por tener más información vamos a poder predecir mejor el futuro. A partir de cierto punto solamente aumenta nuestra confianza en el modelo.

  • ·       Sencillez mejor que complejidad.


En conclusión, encuentra una ventaja cuantificable. Encuentra por qué se produce esa ventaja. Opera un sistema sencillo.

 Y desconfía.

Porque rendimientos pasados no garantizan resultados futuros.

¿Cuál es vuestra opinión al respecto?





sábado, 9 de diciembre de 2017

Combinando factores.




Cuando estudiamos factores y su comportamiento para incluirlos en nuestros sistemas, una de las características más importante son los rankings.

Los rankings consisten en ordenar todas las acciones de forma que queden distribuidas en un orden que podamos valorar. Por ejemplo, si quiero estudiar el factor Earnings Yield, ordenaría todas las acciones de mayor a menor Earnings Yield.


¿Qué conseguimos con esto?


Ver cómo se comportan los factores de forma aislada.

Ahora podríamos hacer un sistema que sólo comprara las acciones de mayor EY y  por tanto ver si es un factor relevante.

Por ejemplo, si cogemos el conjunto de acciones ordenados por Earnings Yield y los dividimos en 10 cestas, y las compramos y las mantenemos un año, y repetimos el proceso, obtenemos una primera aproximación de la potencia de este factor.



Fuente: Portfolio123, Ranking Earnings yield, Holding Period 52 weeks, Universe Prusell 3000. 

Quiere decir que, comprar las acciones con mayor Earnings Yield y mantenerlas durante un año tiene una ventaja clara, y además es un factor lineal. Es decir, a medida que las cestas tienen peor Earnings Yield, también obtienen peor resultados.

El estudio de los factores en detalle tiene mucha miga, y habrá varios artículos al respecto.

Lo que quería enseñar ahora es que, una vez tenemos varios factores que queremos combinar, hay al menos 2 formas diferentes de hacerlo, que traen resultados distintos.


Por adición.


Este es un método muy común, y tiene la ventaja que permite analizar los factores combinados como uno solo. Es decir, permite ver si hay linealidad, y compararlo respecto al benchmark de forma consistente.

Consiste en, simplemente, ordenar el universo por cada uno de los factores de forma separada y hacer una suma de los rankings.

De esta forma, tenemos un nuevo ranking de todas las acciones.



Este sería el resultado, y como se puede ver, habría un orden claro, y se podría trabajar como si fuera un único factor.


Por Orden prioritarios/secuencial.


Cuando ya tenemos identificados los factores, podemos establecer factores prioritarios o la secuencia. Esto consistiría en ordenar según el primer factor, que ya sabes que da una ventaja. Escoges un percentil y trabajas con este percentil.

Ahora este percentil lo ordenas según el nuevo factor. De nuevo coges un percentil y vuelves a ordenar por un nuevo factor.

La realidad es que, para hacer un sistema, puede tener sentido, y sobre todo cuando trabajas con universos de miles de acciones y seleccionas quintiles, puedes quedarte con buenos conjuntos de unas pocas decenas de acciones.

En este ejemplo he cogido percentiles del 50% para ver como funcionaría el proceso. Tras el primer orden cogemos la primera mitad (verde claro).

Acto seguido se ordena según el factor 2, y nos quedamos con el 50%. (azul claro). Finalmente ordenamos según el factor 3 y nos quedamos con las acciones finales. (rojo)





Sin embargo, al estar reordenando por cada factor que incluyes, impides poder hacer un estudio en profundidad del conjunto de los factores.

Y me diréis... ¿Si es un método que no permite estudiar bien todo el conjunto y su comportamiento... por qué nos lo cuentas?

Bueno, porque en zona value, el backtester de KAU markets es la metodología que se usa, y es un tipo de información que puede aportarnos valor. 

¿Importa el orden? ¿Si sumo dos factores obtengo peores resultados o mejores que si uso un orden prioritario?

Pues todo eso y más en el futuros artículos. 

Dejadnos un comentario si tenéis alguna duda o queréis que escriba sobre algo concreto.


Última Entrada Publicada

Un Modelo Multifactor: Analizando los Resultados

Un Modelo Multifactor: Analizando los Resultados Continuando con el artículo anterior: Un Modelo de Inversión Multifactor para Batir al ...