¿Son eficientes los mercados financieros?

¿Son eficientes los mercados financieros?

Spread the love

El concepto de mercados eficientes, así como la teoría de formación de precios, surge como necesidad de dar una respuesta adecuada al comportamiento de los precios de las acciones que cotizan en Bolsa. Antes de pasar a analizar los test que se han utilizado con objeto de probar el grado de eficiencia de los mercados financieros, convendrá señalar tres factores que hacen que el debate entre los teóricos de las inversiones financieras y los prácticos de las mismas, sobre si los mercados son o no eficientes, no tenga final.

El primer factor tiene que ver con la magnitud de las carteras gestionadas por directivos profesionales. Si los precios de las acciones se encuentran cercanos a su valor intrínseco, sólo aquéllos que gestionen grandes carteras pueden obtener beneficios que, aunque en términos relativos sean muy pequeños, en términos absolutos compensan de sobra sus propios sueldos. Por ejemplo, si la cartera tiene un valor de 50.000 millones de dolares y se consigue un beneficio del 0,1% superior al promedio del mercado ello implicará 50 millones de dolares. Si, por el contrario, usted gestionando una cartera de 10 millones de dolares consigue un rendimiento superior al promedio del 0,1% querrá decir que ha invertido su tiempo en conseguir 10.000 dolares por encima del promedio. Según esta idea son las acciones de los inversores inteligentes las que impulsan a los precios de mercado a aproximarse a sus valores intrínsecos. Tal vez deberíamos preguntarnos ¿cuán eficientes son los mercados? más que si son o no eficientes.

El segundo factor es el sesgo en la selección de la cartera. Si usted es capaz de descubrir una estrategia de gestión de carteras que logre un rendimiento acorde a su riesgo mayor que el promedio del mercado, se guardará mucho de proclamar su descubrimiento so pena de que otros gestores le copien y desaparezca su ventaja. Sin embargo, los gestores que no pueden generar rendimientos anormalmente ganadores no perderán nada con confesarlo abiertamente. Por ello, los oponentes a la teoría del mercado eficiente siempre podrán decir que se publican las evidencias de que el mercado es eficiente pero no así las que demuestran que no lo es, puesto que los resultados que se pueden observar han sido preseleccionados en favor de los intentos fallidos de mostrar la ineficiencia de aquél. Por esta razón, no podemos evaluar claramente la verdadera posibilidad de los gestores de carteras para generar estrategias ganadoras.

El tercer factor es la suerte. Casi cada mes es posible leer en algún periódico financiero que un fondo de inversiones determinado, o un inversor específico, ha conseguido unos resultados extraordinarios. Esto parece ir en contra de la eficiencia del mercado, pero no es así. Veamos un ejemplo, imagine 10.000 personas tirando una moneda al aire 50 veces consecutivas. Es probable, la ley de probabilidades así lo dice, que unas dos personas logren más del 75% de caras, pero esto no les hace ser los mejores tiradores de monedas, simplemente son los que han tenido más suerte ese día. Lo mismo ocurre en los mercados financieros eficientes, un gestor de carteras puede situarse como el mayor ganador de todo el mercado en un mes determinado, lo difícil es mantener el puesto el resto de los meses; además, y esto es lo más curioso, lo mismo que unos gestores ganan mucho más que el promedio por pura buena suerte, otros perderán bastante más que el promedio por mala suerte pero de éstos últimos no se suele oír hablar. Concluyendo, lo importante es saber si la estrategia ganadora durante un período determinado va a seguir siendo ganadora durante el siguiente período.

Un mercado de capitales ideal será aquel en el que las empresas se hallan en condiciones de adoptar decisiones de producción e inversión, y los inversores pueden elegir entre los títulos que representan la propiedad sobre las actividades de las empresas, bajo el supuesto de que los precios de dichos títulos en cualquier momento reflejan totalmente toda la información disponible.

Cuando el mercado fija los precios de los activos en un momento t, lo realizará a partir de la información que tenga disponible hasta justo ese momento; en función de esa información, se creará sus expectativas sobre la distribución conjunta de esos precios en el futuro, para, finalmente, a la vista de sus previsiones, y de acuerdo con un determinado modelo de equilibrio, establecer los precios actuales de equilibrio.

Dentro de este proceso de fijación de precios, se dice que un mercado es eficiente cuando la información que utiliza es toda la información relevante (no omite ninguna información importante) y además lo hace de forma adecuada (conoce exactamente la repercusión de esa información en la evolución futura del precio del activo).

La contrastación empírica de esta proposición consistirá en comprobar que las expectativas del mercado coincidían con los valores posteriores que realmente tomaron los activos. Ahora bien, mientras que los valores reales que tomaron los precios en t+1 son perfectamente observables «a posteriori», las expectativas que tenía el mercado respecto de esos valores en el momento t no lo son. Lo que sí es también observable «ex-post», son los precios que fijó el mercado en t en función de sus expectativas y de un determinado modelo de equilibrio. Para poder subsanar este punto, se acepta que los precios actuales se establecen mediante algún tipo de modelo de equilibrio de mercado.

Uno de los problemas principales con este tipo de pruebas se refiere a que la mayoría de ellas requiere ajustar los resultados de la cartera a su riesgo y la mayoría de las contrastaciones utiliza el CAPM para realizar dicho ajuste. Sabemos que, aunque la ßeta parece ser un descriptor relevante del riesgo del título, empíricamente los rendimientos esperados calculados en función de la ßeta como indicador del riesgo a través del CAPM difieren de los rendimientos esperados obtenidos en el mercado. Si, por tanto, utilizamos el CAPM para ajustar los rendimientos de la carteras a su riesgo, podemos encontrarnos con que varias estrategias puedan generar rendimientos superiores cuando de hecho lo que ha fallado es el procedimiento de ajuste, es decir, el modelo de equilibrio utilizado.

La implicación directa de lo anterior, es que cualquier contrastación que se pretenda llevar a cabo, lo será simultáneamente de eficiencia y de un determinado modelo de equilibrio de ajuste del riesgo. Significa, por tanto, que cualquier resultado positivo supondrá aceptar la eficiencia del mercado objeto de análisis así como de las características que se hayan supuesto con respecto al modelo de formación de precios de equilibrio. En cambio, si del análisis se desprende un resultado negativo, supondrá tener que decidir si de ello se puede inferir la ineficiencia del mercado o si, por el contrario, refleja la inadecuación a la realidad de los supuestos asumidos sobre el equilibrio del mercado. La contrastación empírica de la teoría del mercado eficiente se ha realizado tradicionalmente en los mercados bursátiles mediante el análisis de las tres hipótesis de eficiencia, enunciadas por Harry Roberts, utilizando diversos modelos de equilibrio. Debido a la gran cantidad de estudios de este tipo que se han llevado a cabo, destacaremos algunos de los que, quizás, sean más representativos.

Los primeros trabajos de eficiencia se centraron especialmente en la hipótesis débil; el conjunto de información considerado se reduce a la serie histórica de los precios. De las diversas técnicas empleadas para este análisis quizá la más frecuente sea el estudio de la autocorrelación serial de los precios o rendimientos de las acciones, utilizando como modelo de equilibrio la fijación de los precios de tal forma que los rendimientos esperados sean constantes.

Entre los autores que realizan esta clase de contrastación cabe destacar algunos previamente citados como son Kendall (1953), Moore (1962) y Fama (1965) que analizan las diferencias primeras logarítmicas de los precios diarios de las treinta acciones del Dow- Jones Industrial. En los tres casos coinciden en su conclusión de que no observan correlación serial significativa como para apoyar la existencia de dependencia lineal sustancial entre los cambios sucesivos de los precios de los títulos analizados. Aragonés (1986) obtiene, en general, coeficientes relativamente pequeños, sin embargo, en nueve casos son superiores en más de dos veces los errores estándar computados para un retardo de una unidad; el resultado parece indicar cierto grado de dependencia.

Otro tipo de prueba que parte de un modelo de equilibrio en el que los precios se determinan de forma que los rendimientos esperados sean positivos, es la denominada regla de los filtros. El test consiste en comparar el beneficio obtenido durante el periodo de análisis mediante la aplicación de la técnica de los filtros con la alternativa de comprar el título al principio del período y venderlo al final. Alexander (1961 y 1964) considera distintos filtros que oscilan entre un 1% y un 50%, mientras que Fama y Blume (1966)  abarcan desde un 0,5% hasta un 50%. Los resultados iniciales reflejaron la posibilidad de «batir» al mercado mediante el empleo sistemático de ésta técnica para filtros pequeños (1,0 para Alexander y 0,5; 1,0 y 1,5 Fama y Blume). Sin embargo, estos dos autores demuestran que debido al gran número de operaciones que acarrea la utilización de filtros pequeños, al considerar los costes de transacción, los beneficios quedarían totalmente absorbidos.

La independencia de los cambios sucesivos en los precios también se puede comprobar a través del test de las direcciones. Se entiende por una dirección una secuencia de cotizaciones que tienen el mismo signo (aumento «+» o disminución «-«); en el supuesto de independencia en el número de direcciones observado en nuestra serie no debería diferir  significativamente del de una serie de números aleatorios. Fama (1965) no observa indicios de dependencia, mientras que Aragonés (1986) obtiene ligeras muestras de dependencia.

Una de las formas más populares de combinar información pasada en los precios de los títulos con objeto de seleccionarlos es el índice de fuerza relativa. Un ejemplo de éste fue sugerido por Levy (1967); así pues definamos por P el precio medio de un título determinado durante las últimas 27 semanas (incluido el día de hoy) y por Pt el precio actual de dicho título, entonces la fuerza relativa del mismo será Pt/P. De acuerdo con Levy, los títulos que se seleccionarán son el X% con el índice más alto en los que deberemos invertir la misma cantidad de dinero. En los siguientes períodos si el índice de fuerza relativa de un título cayese por debajo del K% de los títulos, deberemos venderlo e invertir el dinero recibido en los X% de mayor índice. Para Levy X = 5% y K = 70%. Jensen y Bennington (1970) probaron diversos índices de fuerza relativa, incluido el de Levy, y encontraron que el rendimiento después de detraer los costes de transacción no superaba al rendimiento del mercado; más aún, después de ajustar el riesgo el rendimiento era incluso inferior.

Estudios sobre la hipótesis intermedia

A partir de los resultados obtenidos, que aparentemente confirmaban la hipótesis del mercado eficiente, se planteó la necesidad de examinar la reacción de los precios con respecto a otro tipo de información de disponibilidad pública. Ante esta nueva situación, fue necesario utilizar unos modelos de equilibrio más desarrollados; uno de ellos es el modelo de mercado, es decir:

Ri = ai + ßi RM + ei

donde Ri es el rendimiento del título i, RM es el rendimiento del índice de mercado, ai y ßi son las dos constantes del modelo de regresión (respectivamente, indican el rendimiento del título cuando el rendimiento del índice es nulo y el coeficiente de volatilidad del título con respecto al rendimiento del índice), por último, ei es la perturbación aleatoria.

La técnica consiste en calcular el rendimiento extraordinario (tomando como rendimiento esperado el del modelo de mercado, Ri) y calcular su valor acumulado desde un período anterior hasta otro posterior al anuncio público de determinado tipo de información.

Ball y Brown (1968) examinan el comportamiento del mercado ante el anuncio de los beneficios anuales de 261 empresas importantes, en EE.UU., entre 1946 y 1966; Fama, Fisher, Jensen y Roll (1968), estudian la reacción ante el anuncio de un desdoblamiento de acciones o split para 622 empresas que realizaron 940 splits a lo largo del periodo de consideración y Scholes (1972) analiza la evolución de las cotizaciones bursátiles ante el anuncio de la venta de un total de 345 grandes paquetes accionariales. En todos los casos los resultados llevan a los autores conclusiones favorables a la definición intermedia de eficiencia, aunque del estudio de Scholes, además, se desprende la posibilidad de que el modelo no sea adecuado en cuanto a la hipótesis fuerte.

Los estudios de eficiencia se impulsaron vigorosamente a partir del desarrollo del modelo de dos parámetros (CAPM), que ha sido sin lugar a duda el más empleado en este tipo de análisis en los últimos veinticinco años. Recordemos, este modelo se expresa de la siguiente forma:

Ei = Rf + (EM – Rf) ßi

donde Ei indica el rendimiento esperado del título, EM es el rendimiento esperado del índice del mercado, Rf es el rendimiento del activo sin riesgo a lo largo del período considerado, y ßi es el coeficiente de volatilidad del título analizado.

De la gran cantidad de trabajos que examinan la hipótesis conjunta de eficiencia y el modelo de dos parámetros reseñaremos las conclusiones de algunos de los que nos parecen más interesantes. Ball (1972), examina la reacción del mercado ante 267 cambios en las prácticas contables entre 1947 y 1960; mientras que Ibbotson (1975) analiza su comportamiento ante nuevas ofertas públicas seleccionando una al azar cada mes para el periodo 1960-1969: ambos son favorables a la eficiencia intermedia.

Ball (1978) realiza una revisión de veinte estudios sobre la publicación de los beneficios del ejercicio y concluye que los resultados no son globalmente compatibles con el modelo de dos parámetros: estos beneficios estarían representando a otras variables omitidas en el modelo. Watts (1978), en un análisis similar a los comentados por Ball, se inclina por la ineficiencia del mercado. Banz (1981), en su estudio examina el comportamiento del mercado ante el distinto tamaño de las empresas. Incluye los rendimientos mensuales de todos los títulos cotizados en la NYSE por un mínimo de cinco años en el periodo comprendido entre 1926 y 1975; a pesar de que la información sobre el tamaño de la empresa está disponible, las de menor tamaño parecen obtener una mayor rentabilidad una vez ajustado para el riesgo: estos resultados negativos, los atribuyen a la mala definición del modelo. Otros autores como Charest (1978) que observa la reacción del mercado ante el anuncio de dividendos para un total de 1720 cambios en el dividendo entre 1947 y 1968, llegando a la conclusión que cuando se produce un aumento en el dividendo después de un período de estabilidad (dos años), existen beneficios extraordinarios desde un año antes hasta dos después del anuncio o Thompson (1978) en su estudio de 23 fondos de inversión en el periodo 1940-1975, comprueba que cuando se venden con descuento superan la rentabilidad esperada (infravalorados) y cuando se venden con prima ocurre lo contrario. En ninguno de estos dos casos se pronuncian ni por la eficiencia del mercado, ni por la inadecuación del modelo como posible explicación a los resultados observados, aunque este último tiende a achacarlo al modelo utilizado. Basu (1977) agrupa las más de 500 empresas industriales de su muestra entre 1956 y 1971, en cinco carteras en función de su PER y observa que las de menor PER obtenían una mayor rentabilidad una vez ajustado el riesgo: se inclina por la ineficiencia del mercado aunque, como es lógico, no de forma categórica: otros autores podrían interpretar sus resultados de diferente modo.

Estudios sobre la hipótesis fuerte

En cuanto a los estudios sobre la hipótesis fuerte de eficiencia, se suelen centrar en la existencia de información no hecha pública, que poseen exclusivamente determinados agentes que intervienen en el mercado, permitiéndoles obtener rendimientos superiores a los que les corresponden en función del riesgo que asumen. Este tipo de análisis, conjuntamente con el modelo de equilibrio de dos parámetros es el que lleva a cabo Jensen (1969) cuando analiza 115 fondos de inversión para el período 1955-1964 y observa que hay un rendimiento medio superior en un 8,9% al esperado; al incluir gastos de gestión y comisiones esa diferencia se ve reducida a prácticamente cero con lo que el autor se muestra  favorables a la hipótesis conjunta. Jaffe (1974) analiza la compra y venta por parte de los directivos y grandes accionista que títulos de renta variable de sus propias empresas y concluye que hay personas con acceso a información privilegiada, que todavía no ha sido divulgada y que les asegura beneficios excepcionales, hecho claramente contrario a la hipótesis fuerte de eficiencia, en donde los precios deben reflejar toda la información existente; el resultado tampoco favorece la hipótesis intermedia, porque esos posibles beneficios extraordinarios se prolongaban aún más allá de la fecha en la que esa información se hacía pública.

Dimson y Marsh (1984) analizaron 4.000 previsiones de rendimientos de las acciones de 200 de las principales empresas británicas, realizadas por 35 analistas diferentes. Los datos fueron reunidos en un gran fondo y se pidió a los intermediarios financieros que previeran el exceso de rendimiento del mismo sobre el mercado (al de éste se le dio un valor nulo). Los dos autores correlacionaron el rendimiento actual con el previsto encontrando un coeficiente de correlación medio del 0,08. A pesar de la pequeña cantidad de información contenida en las previsiones, los resultados del fondo superaron en un 2,2% al rendimiento del mercado. Los tests mostraron que más de la mitad de la información contenida en las previsiones era incorporada en el precio de las acciones en el primer mes siguiente a las mismas. De esta manera era necesaria una rápida reacción a las previsiones de los analistas.

Elton, Gruber y Grossman (1986) emplearon una base de datos del Bankers Trust que jerarquizaba los títulos en cinco categorías: mejores compras, compras, mantener, y dos clases de ventas. Los datos contenían 10.000 clasificaciones mensuales preparadas por 720 analistas de 34 empresas de intermediación financiera. Un análisis de las previsiones preparadas en la forma de clasificaciones discretas es interesante debido a que esta es la manera en la que los directivos de la comunidad financiera reciben la información. Los autores encontraron que tanto un cambio en la clasificación como la clasificación en sí misma contenían información. Un rendimiento superior se podía conseguir comprando los títulos mejor clasificados y vendiendo los peor situados.

Los rendimientos superiores se encontraron no sólo en el mes de la previsión sino también en los dos siguientes. Actuando sobre los cambios en la clasificación se podía conseguir un mayor rendimiento que actuando sobre las recomendaciones en sí mismas. Es decir, era mejor seguir el consejo del promedio que el de unos pocos analistas por muy buenos que estos fuesen sobre un período determinado. En resumen, estos dos estudios últimos que hemos visto no parecen encontrar información adicional en el consejo de un intermediario financiero individual, pero sí parece encontrarse si agregamos los consejos de una gran parte de dichos intermediarios, al menos durante cortos períodos de tiempo dicha información existe.

Bogle (1991) muestra como el rendimiento conseguido por el índice Standard &  Poor 500 durante los años setenta y ochenta fue del 11,5% anual mientras que la media de los fondos de inversión alcanzó el 9,4%. La diferencia puede ser atribuida a los costes de transacción y a los costes de gestión de los fondos. También en el mercado de renta fija los gerentes de las carteras se ven incapaces de mejorar al índice elegido para el estudio (el Salomon Brothers Broad Investment Grade  BIG-).

Sobre el autor

admin administrator