Revista Opinión

¿Son las matemáticas financieras culpables de la crisis?

Publicado el 20 mayo 2012 por Jaque Al Neoliberalismo
Juan José Calaza y Guillermo de la Dehesa, Faro de Vigo
La crisis financiera llamada de las "subprime" (Guillermo de la Dehesa: "La primera gran crisis financiera del siglo XXI") ha suscitado comprensibles interrogaciones respecto al papel de las matemáticas en la elaboración de los productos financieros. Este papel no debe cuestionarse aunque hay que conocer sus límites, entre los cuales la sub-evaluación del riesgo. En última instancia, la contribución de las matemáticas a la finanzas se limita a una ayuda a la decisión y no podrá substituir las preferencias de la sociedad.
El origen de la crisis actual se enraíza en el estallido de la burbuja especulativa en EE.UU. en el 2007. Lejos de tratarse de un fenómeno sin precedentes, como a veces se ha dicho, la crisis actual repite un esquema familiar para los economistas al compartir rasgos con otras que se produjeron antes de la aparición de los modelos matemáticos y de cualquier "producto financiero derivado".
Conviene dejar claro, por otra parte, que si la historia de la especulación puede explicarse sin los productos financieros derivados cada innovación en este campo estimula nuevas ambiciones especulativas: puede haber especulación sin productos derivados pero no hay innovación en productos financieros que antes o después no lleve a la especulación. Toda innovación en este terreno estimula nuevas estrategias especulativas que pueden provocar a la postre una crisis financiera.
En su descargo diremos también que, aunque imperfectamente, los modelos matemáticos sirven para cuantificar el riesgo que corren los inversores y prestamistas: son instrumentos de ayuda a la decisión. Sin embargo, salvo raras excepciones ningún banco ni fondo de inversión fundamenta una decisión mayor en una fórmula matemática. La decisión de los bancos estadounidenses de invertir masivamente en créditos arriesgados (subprimes) no fue dictada por ningún modelo matemático sino por la búsqueda de rentabilidades crecientes.
No obstante, incluso si los modelos matemáticos no provocaron la crisis esta ha puesto de relieve fallos en la gestión y el modelado de riesgos en bancos, agencias de notación, sistemas de regulación e instituciones financieras ¿Se trata de un fallo de los métodos cuantitativos, de una incorrecta utilización de dichos métodos o de la subutilización de los métodos disponibles?
Habida cuenta de la complejidad creciente de demandas de coberturas de riesgo la finanza matemática resulta insoslayable. Actualmente, casi todas las facultades de matemáticas de las mejores universidades del mundo albergan un departamento de finanzas o como mínimo dispensan formaciones aplicadas a la finanzas. Esta nueva especialidad se desarrolló a partir de los avances en análisis probabilístico/estocástico que permitieron combinar el análisis matemático clásico y la teoría moderna de probabilidades surgida de la genial mente de Kolmogorov hace ochenta años. No obstante, la sofisticación y tecnicismo de esta disciplina –comparable al de la física- no debe hacernos perder de vista que los problemas suscitados por la gestión del riesgo distan de estar resueltos.
Los productos financieros derivados empezaron a proliferar al calor del modelo Black-Scholes, aunque en justicia habría que añadir a Merton. La opacidad técnica de estos productos mete miedo al común de los mortales ya que serían, según algunos políticos, las palancas esenciales de una economía de casino en manos de especuladores. No obstante, debemos recordar, que no hay producto financiero que pueda desarrollar su uso si no es ante todo un instrumento de cobertura del riesgo; en consecuencia, por sofisticado e inextricable que sea el cálculo matemático que los evalúa, son instrumentos financieros útiles. En definitiva, no se trata tanto de uso excesivo de las matemáticas como de su pertinencia.

Los modelos de la moderna teoría financiera


La teoría financiera de los últimos sesenta años se ha levanto sobre tres pilares: a) maximización de la esperanza de utilidad de los agentes que intervienen en los mercados financieros; b) hipótesis de ausencia de arbitraje; c) eficiencia de los mercados financieros. Simplificando, sobre esas bases se desarrolló el siguiente corpus teórico: Teoría de diversificación de cartera (Markowitz, 1952); Modelo de equilibrio de los activos financieros (Sharpe, 1964); Modelo de evaluación de opciones (Black y Scholes, 1973; Merton, 1973).
El precursor fue Louis Bachelier que sentó los cimientos en su doctorado de matemáticas -"Théorie de la spéculation" (1900)- al modelizar las variaciones de los precios en Bolsa como variaciones aleatorias independientes. Bachelier consideró en su modelo que las variaciones del precio de una acción en intervalos de tiempo sucesivos –por ejemplo, desde que se abre hasta que se cierra la Bolsa cada día- son variables independientes que siguen una ley normal (la gráfica de la función de densidad de una distribución normal tiene forma acampanada y es simétrica respecto a un determinado parámetro; además, las "colas" o extremos decrecen exponencialmente a ambos lados de la media). Quiere decirse, los valores de los precios entre dos instantes sucesivos obedecen a probabilidades que pueden describirse por una ley normal caracterizada por una desviación estándar –coeficiente de dispersión respecto a la media o valor central del precio de la acción- que mide la amplitud de las fluctuaciones.

El modelo de Bachelier implica que el precio de una acción o un índice sigue un proceso browniano análogo al movimiento errático de las partículas microscópicas que sufren los choques aleatorios de las moléculas del entorno en el agua, por ejemplo, o en una habitación cerrada. Este modelo abrió la puerta en los años setenta del pasado siglo a la posibilidad de considerar contratos de seguros contra las fluctuaciones del mercado –seguros que se conocen como productos derivados u opciones- y de valorarlos en cierta medida a la manera como los actuarios calculan las primas en los seguros.

Entre los avances en análisis estocástico sobre los que se levantó el complejo edificio de la teoría financiera hay que citar los trabajos de Norbert Wiener (1894-1964) que elaboró una formalización rigurosa del movimiento browniano (bautizado después proceso de Wiener si bien en un principio algunos probabilistas, como Feller, lo denominaban de Bachelier-Wiener). Paul Levy (1886-1971) exploró sus características y dejó su nombre a procesos estocásticos más generales susceptibles de presentar discontinuidades o saltos. Más tarde, el cálculo estocástico se desarrolló gracias a la teoría de la integral estocástica del japonés Ito (1915-2008) Finalmente, Joseph Leo Doob (1910-2004) alumbró el concepto de martingala abundantemente utilizado en finanzas. De consuno, Doob estableció con el matemático francés Paul-André Meyer (1934-2003) los fundamentos de la teoría moderna de las semi-martingalas una de cuyas aplicaciones es el modelado de procesos que representan la evolución de los precios de activos financieros.
Pertrechados de estos instrumentos técnicos, economistas, físicos y matemáticos pudieron atacar las cuestiones financieras a partir de la década de los setenta del pasado siglo coincidiendo con la apertura en Chicago del primer mercado de opciones que tenían como subyacentes materias primas. Así, los susodichos Black, Scholes y Merton se hicieron celebres –que en EE.UU equivale a hacerse ricos- gracias a su Option Pricing Formula destinada a evaluar los precios de las opciones y calcular una cobertura dinámica del riesgo. El así llamado modelo de Black-Scholes da una respuesta válida respecto a lo que es el "justo precio" de una opción siempre y cuando el precio del activo subyacente pueda representarse por un movimiento browniano geométrico como el que expuso Bachelier.

El toque de atención de Mandelbrot


Uno de los primeros desacuerdos con los fundamentos de esos modelos surgió de las investigaciones de Mandelbrot. En el frío invierno de 1962, en Pittsburgh, Benoît Mandelbrot (1924-2010), por entonces oscuro matemático francés, de origen polaco, presentó en el congreso anual de econometría los resultados obtenidos después de haber estudiado las variaciones de la cotización del algodón de una serie de sesenta años. Los resultados cayeron como una bomba entre los especialistas de la finanzas: los cursos no se distribuían siguiendo una ley normal/Gauss. Por el contrario, en completa oposición a lo que propugnaba la teoría, las cotizaciones del algodón seguían una ley de potencia (en relación con estas leyes estadísticas puede verse Calaza y De la Dehesa: "¿Por qué crecen las ciudades?", Faro de Vigo, 27/10/2010) en las que los valores extremos son mucho más frecuentes que en la ley normal/Gauss.

Con las leyes de potencia, las situaciones de equilibrio son la excepción, la inestabilidad es la norma y los valores extremos son frecuentes. Mandelbrot calificó este comportamiento de "azar perverso/brutal" (hasard sauvage) por oposición al comportamiento aleatorio pero continuo y bastante benigno del movimiento browniano ("azar benigno"/hasard sage). Sugirió entonces reemplazar el movimiento browniano por una clase de procesos aleatorios que reflejasen ese carácter perverso, salvaje: los procesos de Levy. Estos procesos, estudiados treinta años antes por Paul Levy, que había sido profesor de Mandelbrot, engendran una evolución discontinua de precios, puntuada de saltos. A esos valores extremos y discontinuidades se les conoce actualmente en finanzas como, expresión de moda, "cisne negro".
Las reservas manifestadas por Mandelbrot respecto a ley normal fueron acogidas con escepticismo y sin embargo hoy día figuran en todos los manuales de econometría financiera. He aquí un ejemplo que muestra que lo que falla no es la ausencia de instrumentos cuantitativos sino su utilización atinada.
A partir de 1970, Mandelbrot empezaría a imponerse en el panorama matemático mundial como padre de los fractales pero sus trabajos respecto a los mercados financieros encontrarían poquísimo eco en la comunidad académica a pesar de que los profesionales sabían que en la práctica las cosas no eran tan sencillas como predecían los economistas y matemáticos académicos proponentes de la ley normal. De ahí que al ignorar o subestimar la verdadera naturaleza del riesgo inherente a la diversificación de cartera de valores mobiliarios y a los productos financieros de reciente factura, la finanza teórica –es decir, matemática- abocase a la crisis de las subprime. Esto es, instrumentos creados en principio para cubrir riesgos financieros o económicos individuales acabaron generando una crisis sistémica que desbordó perversamente a la esfera real con desestabilizadores efectos de retroacción entre ambos niveles.
No es de extrañar, por tanto, que a partir del 15/09/2008, quiebra de Lehman Brothers, los trabajos de Mandelbrot hayan aflorado con inusitado prestigio popularizados por el best-seller "The Black Swan" (El cisne negro) de la autoría de su discípulo Nassim Nicholas Taleb.

El peligro de la subestimación del riesgo


La curva de Gauss se aplica a numerosas situaciones –siempre y cuando los fenómenos o acontecimientos sean independientes unos de otros- tanto en las ciencias de la naturaleza como en la física, juegos de azar y loterías o en las ciencias sociales y, según la teoría de la eficiencia de mercados, a los cursos en Bolsa. No todas las formas de riesgo se reducen empero a la curva de Gauss. Es el caso, por ejemplo, cuando aparecen "efectos de memoria" y "efectos de interacción". En esas circunstancias, se sale del universo gaussiano, bien segmentado, reagrupado en torno a una media, para entrar en el de los extremos. En este caso, la media, aunque pueda calcularse, carece de significado habida cuenta de la importancia de la dispersión de datos (la desviación estándar es infinita, en la jerga de los estadísticos).
Las leyes de potencia se encuentran en toda la economía y especialmente en los mercados financieros. En su artículo sobre los cursos históricos del algodón (1963), Mandelbrot las sacó a la luz por primera vez en finanzas. Paul Cootner, su editor, declaró: "Si Mandelbrot tiene razón, la casi totalidad de nuestros instrumentos estadísticos están obsoletos". Es especialmente cierto de la sacrosanta eficiencia de los mercados, es decir de la idea que los precios reflejan a cada instante toda la información disponible: en el mundo de las leyes de potencia los intervinientes no tienen un acceso igual a la información. Además, los fenómenos de memoria generan una dinámica intrínseca a los mercados financieros (los aumentos siguen a los aumentos, las bajadas a las bajadas) que no es reductible a la llegada o no de nuevas informaciones exteriores al mercado. Y, por supuesto, las interacciones entre los diferentes actores crean tendencias autónomas de mimetismo, que acarrean las burbujas.
A la presencia de discontinuidades (distribución de Levy por oposición a la normal/Gauss) que corresponden a una caída brutal de las cotizaciones, Mandelbrot la denominó "síndrome de Noé" (por referencia a la catástrofe del diluvio). A la situación de persistencia o dependencia temporal, Mandelbrot la llamó "síndrome de José" (siete años de abundancia, siete de vacas flacas).
La teoría moderna de las finanzas procederá durante su desarrollo a distintos lavados de cara pero sin renunciar a las distribuciones normales. Se ampliará a la base la curva de Gauss para tomar en cuenta los desvíos importantes y los nuevos modelos integrarán los efectos de memoria. Pero todo ello dentro del marco gaussiano como prueban los productos financieros desarrollados bajo la inspiración de David X. Li -matemático de J.P. Morgan, estrella de las finanzas en los años fastos- que han servido para elaborar las subprimes y que se desintegraron en cuanto el precio del inmobiliario bajó fuertemente de manera inesperada.
Un ejemplo muy sencillo muestra hasta que punto los modelos son engañosos en cuanto a la sub-evaluación del riesgo. Si suponemos que los rendimientos diarios siguen una ley normal, la probabilidad que un rendimiento observado se desvíe cuatro desviaciones estándar de su media es de 0,01 por ciento, es decir, un evento que se produce cada 63 años. Por el contrario, si se reemplaza la distribución normal por una distribución de Student de parámetro 3, de la misma desviación estándar, la misma probabilidad pasa a 0,62 por ciento, es decir, un evento que se observa ¡dos veces al año¡ Constatamos que las hipótesis respecto a la distribución de rendimientos tienen consecuencias importantes para la toma de conciencia ante el riesgo.
¿Cómo se comparan estas cifras con el comportamiento del mercado? La serie bianual de los rendimientos diarios del índice Dow Jones (2007 y 2008) contienen 16 observaciones cuya amplitud sobrepasa cuatro desviaciones estándar , lo cual da una proporción del 0,78 por ciento, es decir un poco más que la ley de Student y 100 veces más que la ley normal. Esto quiere decir que con la ley normal sub-evaluamos el riesgo, con la de Student nos aproximamos y con una distribución con colas "espesas", como la de Levy, estamos cerca de la realidad. Por tanto, con otras leyes estadísticas los inversores hubiesen perdido menos dinero toda vez que no hubieran subestimado tanto los riesgos. Dicho esto, el modelo gaussiano funciona bien cuando no hay crisis, cuando hay estabilidad.

Mercados financieros incompletos


Sabiendo que el riesgo es mayor de lo que podría deducirse del modelo gaussiano son tres los factores que conducen al "cisne negro": 1) el mercado no es eficiente; 2) la propia estrategia de los agentes; 3) la interconexión de los actores propaga y multiplica los efectos.
El éxito del habitualmente conocido como modelo de Black-Scholes se debió en gran parte a que los precios calculados teóricamente con la fórmula eran coherentes con los que hasta entonces se habían calculado empíricamente basándose en la experiencia de varios años en el oficio. No obstante, a pesar de su aceptación las hipótesis de base del modelo Black-Scholes son demasiado fuertes y generalmente alejadas de la realidad. Por ejemplo, el modelo supone la existencia de un mercado financiero ideal, con una liquidez fluida y sin racionamiento Y sin costes de transacción (compras o ventas). A un mercado de estas características se le considera "completo" en teoría financiera, concepto que traducido al lenguaje corriente significa que los bancos que venden los contratos que dan derecho a las opciones pueden poner en pie una estrategia de cobertura perfecta del riesgo.
Antes bien, el mercado real es típicamente incompleto: el cálculo de la cobertura dinámica del riesgo es con frecuencia un problema abierto. El caso de los productos derivados que tienen como subyacentes créditos, tales las "subprime" americanas, constituyen un ejemplo paradigmático de crisis a la que puede abocar la ausencia de cobertura desde el momento que se encuentra adosada a una complejidad técnica creciente, en aras de satisfacer montajes financieros arborescentes, y sobre todo a una deriva especulativa perpetua.

Riesgo individual mejor gestionado, riesgo sistémico exacerbado


Los mercados financieros ocupan una plaza creciente en los sistemas financieros. Su utilidad proviene de que permite compartir y diversificar los riesgos así como transferirlos a quienes están más dispuestos o son más capaces de asumirlos y soportarlos. Por otra parte, permite movilizar el ahorro hacia las asignaciones más rentables y productivas manteniendo la liquidez del conjunto. Estas funciones conllevan transacciones voluminosas. La cuestión es saber si la industria financiera que asegura estas funciones lo hace de forma eficaz.
La diversificación sistemática de las carteras, que minimizan los riesgos individuales, acrecienta el riesgo sistémico creando nuevas interdependencias entre los mercados al generar factores de desestabilización colectiva que arrastran a una espiral perversa a los bancos, que se contaminan unos a otros, y provocan un racionamiento o peor aun una sequia del crédito a particulares y Estados con el correspondiente impacto letal en la economía real.
Para concluir, señalemos el misterioso crash del 6 de mayo 2010: el índice Dow Jones perdió el 10% en pocos minutos antes de normalizarse de nuevo. Es este otro ejemplo de las interdependencias perversas que surgen en las finanzas modernas por la actuación de superordenadores que se enfrentan en cada instante siguiendo las órdenes de algoritmos secretos (High Frequency Trading) que intercambian infinidad de órdenes de compra y de venta inmediatamente anuladas en un gigantesco combate colectivo que muy pocos dominan y que escapan a los reguladores, al no disponer de tales medios, incapaces de vigilarlos.
___________
Ver también: El CAPM, un Modelo de Valoración de Activos Financieros
- El impacto de lo altamente improbable
- Las confesiones de Tetsuya Ishikawa, el hombre que causó la crisis financiera
- La cópula gaussiana que mató a Wall Street
- Benoit Mandelbrot, el hombre que puso orden al caos, muere a los 85 añosUna mirada no convencional al neoliberalismo y la globalización

Volver a la Portada de Logo Paperblog