¿La corrupción mata? Un comentario sobre corrupción y víctimas de terremotos.

04/03/2013

Por Enrique Kawamura

Durante el pasado 22 de febrero hemos tenido el dolor de recordar la tragedia que ocurrió en la Terminal de Once del ex Ferrocarril Sarmiento. Varios periodistas repitieron expresiones como las que aparecen en el título de este post: “la corrupción mata”. De hecho, introduciendo esta expresión entrecomillada en Google aparecen unas 120.000 entradas, todas haciendo referencia al mismo tema.

Ahora bien, ¿qué es lo que la academia ha podido producir para, en parte, corroborar algo de esta frase? El comentario de este post no se basa en un artículo sobre corrupción y accidentes ferroviarios pero sí en otro sobre corrupción gubernamental y efectos de los terremotos. Se trata del paper de Escaleras, Anbarci y Register (2007), que estudia la relación entre el número de víctimas fatales y el indicador de “corrupción” del International Country Risk Guide, que es una calificación que recibe cada país basado en encuestas.

Esto significa que el indicador de corrupción, en rigor, mide la percepción del grado de corrupción reinante en cada país a lo largo de distintos años. Claramente se podrá discutir el nivel de exactitud de hasta qué punto esa percepción se fundamenta en hechos objetivos de corrupción, o incluso, hasta qué punto percepciones de baja corrupción se corresponden con un nivel efectivamente bajo del mismo problema. De todos modos, la intuición general es que, con posibles excepciones, en promedio al menos, las percepciones estarían correlacionadas con el nivel objetivo de corrupción. Al menos, esta es la postura que toman los autores al realizar este ejercicio.

Este paper utiliza datos de víctimas fatales de terremotos de grado 6 o mayores según la escala de Richter, ocurridos ellos entre 1975 y 2003 en 42 países, totalizando unos 344 terremotos. Utilizar víctimas de terremotos garantiza que el evento que causa la fatalidad es realmente exógeno. Obviamente, las consecuencias del mismo no son exógenas. Y justamente es en este sentido que el ejercicio propuesto en este artículo intenta relacionar parte de esta endogeneidad con el indicador de corrupción descrito previamente.

Dado que el nivel de corrupción seguramente es endógeno a las instituciones establecidas en cada país, el ejercicio econométrico se realiza utilizando un método de mínimos cuadrados en dos etapas, instrumentando el indicador de corrupción a través de la estimación realizada en una primer regresión que intenta explicar el indicador de corrupción a través de la consideración de variables como “democracia”, “conflictividad”, etc.

El resultado principal que obtienen es el siguiente: cuando se toma a un país con un índice de corrupción que es un desvío standard más bajo que la media, entonces el nivel de fatalidad luego de un terremoto es 50% mayor que el promedio de víctimas en toda la muestra. Es realmente un número muy importante, como se podrá apreciar. El principal mecanismo que los autores proponen para explicar semejante magnitud es el hecho de que la corrupción reduce el standard de calidad de las construcciones que hacen más propensas a éstas a destruirse luego de un terremoto, provocando mayor cantidad de muertos. Este mecanismo, en rigor, es solamente mostrado a través de un simple modelo teórico para motivar el ejercicio empírico, principal contribución de este paper.

Este tipo de ejercicios podría animar a más de un lector de este blog (sobre todo, aquellos que tienen mayor afición por trabajos empíricos y econométricos) a embarcarse en la posible investigación de cómo es posible que “la corrupción mate”, no en un sentido absoluto pero sí relativo: a mayor corrupción, mayor cantidad de víctimas fatales, ya no aplicados a terremotos sino a accidentes, por ejemplo. Por supuesto, este tipo de extensiones puede no ser tan sencillo de implementar técnicamente, pero probablemente sean necesarios para poder realmente mostrar hasta qué punto la corrupción mata en nuestro país.

 


Una explicación adicional para la alta inflación: rigideces fiscales y polarización política.

05/12/2012

Por Enrique Kawamura

Hace poco tuve la oportunidad de dirigir una tesis de maestría de Santiago Pérez Vincent, titulado “Polarización Política, Rigideces Presupuestarias e Inflación”, el cual también fue presentado en la reunión anual de la Asociación Argentina de Economía Política de este año 2012 en Trelew. Si bien su aplicabilidad al caso argentino no está del todo clara por algunos supuestos que el modelo teórico asume, al menos en el mensaje este trabajo parece poner una luz de alerta para tener en cuenta un canal político específico que hace más probable una tendencia a mantener “alta” la tasa de inflación, más allá de que pueden existir otras explicaciones fiscalistas tan plausibles como éstas.

El trabajo construye un modelo en el que existen dos partidos políticos que se alternan en el poder (éste es un supuesto del modelo, no un resultado) y dos bienes (o tipos de bienes). Cada partido posee un sesgo a favor de uno de los dos bienes, y un primer supuesto crucial es que cada partido posee un sesgo a favor de un bien distinto al del otro partido. El grado de intensidad de ese sesgo es lo que el modelo interpreta como “polarización política”, la cual también podría interpretarse como un grado de “polarización ideológica”, aunque claramente ésta no es la única interpretación posible de este supuesto.

El otro supuesto importante (repito, es un supuesto, no un resultado a explicar) es la existencia de rigideces nominales en el gasto público. Esto significa que el partido que asume en segunda instancia toma como dado el monto nominal del gasto realizado en cada bien por parte de su antecesor. Este supuesto, que parece un tanto artificial frente a muchos otros que pueden plantearse, es tomado de la evidencia empírica que se observa en varios países latinoamericanos (entre ellos, Argentina) documentado en Cetrángolo, Jiménez y Ruiz del Castillo (2010).

Con estos supuestos, el primer resultado que obtiene el trabajo (cuya versión más simple del modelo supone sólo dos períodos) es que sólo existen dos tipos de equilibrio, dependiendo del grado de polarización política. Cuando ésta es suficientemente baja, la mera alternancia de los dos partidos no genera ineficiencias en la composición del gasto público, generando a su vez una “baja” tasa de inflación. Cuando la polarización es suficientemente alta, entonces la inflación alta se torna una herramienta clave para licuar la el gasto público de su antecesor, para vencer las rigideces nominales, pero de modo tal de introducir ineficiencias en la composición de gasto público, inducidas en buena parte por la misma inflación alta. En una versión dinámica del modelo, también la volatilidad de la tasa se ve positivamente afectada por la polarización.

En este sentido estos resultados parecen concordar con la evidencia internacional acerca de la relación entre medidas de polarización política e inflación en papers tales como Ozler y Roubini (1996) y Aisen y Veiga (2008). En este sentido, esta teoría no parece ser incoherente con la interpretación de que shocks inflacionarios suelen ser herramientas de licuación de gasto público. Lo importante de este tipo de teorías (incluyo también la referencia clásica de Cukierman, Edwards y Tabellini, 1992) es comprender que apelar a estos shocks inflacionarios podrían obedecer a esta mayor polarización (o diferenciación) en las preferencias de los distintos partidos. Por otra parte, es importante aclarar que no es objetivo de ninguno de estos trabajos teóricos plantear como posible “medida de política” el reducir tal polarización, ya que la misma, además de ser tomada siempre como un supuesto exógeno, forma parte inherente a preferencias cuya endogeneidad dista mucho de poder ser estudiada. Sin embargo, al menos para quienes nos interesa el estudio del fenómeno de la alta inflación, su volatilidad y persistencia, este tipo de teorías nos permite incluir este tipo de variables puramente políticas a las tradicionales en la literatura de economía monetaria y de inflación estructural.


Economía e instituciones políticas. Un sobrevuelo a una literatura esencial para entender la economía argentina.

05/11/2012

Por Enrique Kawamura

En este post homenaje por el aniversario del blog, quisiera reflexionar sobre el modo de analizar la evolución de variables macroeconómicas, o también aquellas de importancia estratégica para la economía, como lo puede ser el sector energético y recursos no renovables (e.g., petróleo). La visión más “tradicional”, aquella que se acuñó a partir de los aportes de gente como Lucas, Prescott y otros en macroeconomía (ciertamente con una visión desde EEUU) y, en el campo de los recursos no renovables, de autores como Lund (proveniente de Escandinavia) tendían a poner el énfasis en cuestiones como la eficiencia de la asignación de (equilibrio de) mercado, o, en su defecto, cuán ineficiente sería la asignación lograda en un mercado que enfrenta imperfecciones exógenas y cuánto podría ser ese costo de eficiencia. En el campo de los recursos no renovables, la discusión más tradicional era cuán distorsiva era una política tributaria respecto de las decisiones de extracción del recurso.

En el contexto de Latinoamérica, esta manera de construir modelos para su verificación empírica necesitaba una modificación sustancial dada no sólo la inestabilidad de las principales variables económicas de interés (producción y precios, sobre todo) sino especialmente las variables de política, las cuales difícilmente serían meras correcciones de ineficiencias de mercados, sino que reflejaban (y siguen reflejando) procesos decisorios (como le gusta decir a Juan Carlos de Pablo) de los hacedores de política mucho más complejos, pero con alto impacto en las variables de interés. En este sentido, la literatura denominada “Nueva Economía Institucional” (como parte de lo que se conoce como “economía política”) vino a contribuir con modos de construcción de modelos y trabajos empíricos que no solamente “enriquecen” los esquemas modelísticos tradicionales con modelaciones acerca de las causas de las decisiones de política. En verdad, no es del todo correcto hablar de una “literatura” de nueva economía instituciojnal. Más preciso es hablar de un “campo de conocimiento” que engloba varias literaturas (o sub-literaturas, dependiendo de qué statis se le dé) debido a la variedad de modelos, trabajos econométricos y otros trabajos.

No sería razonable intentar resumir en una entrada el alcance de este campo. Me interesa solamente destacar aquella literatura más cercanas a temas macroeconómicos y también un comentario acerca de estos temas en discusiones sobre recursos no renovables. Existe, en efecto, una literatura a esta altura bastante extendida de discusiones de “economía política” en temas de política fiscal y, en menor medida, monetaria. Comenzando por las propias contribuciones de nuestro querido Martín en trabajos que utiliza esquemas de votación probabilística a temas de política fiscal y de seguridad social,  construyendo así un concepto de “equilibrio político-económico” (el cual me recuerda también el concepto de “equilibrio social” concebido años atrás por Olivera), también encontramos varios otros papers que enfatizan distintos aspectos de esta relación.

En la reunión de la Latin American and Caribbean Economic Association y la Latin American Chapter de la Econometric Society (LACEA-LAMES), que se realizó en Lima entre el 1 y el 3 de noviembre últimos, podemos encontrar dos ejemplos recientes de esta literatura. Un primer paper es el de Levon Barseghyan y Marco Battaglini (2012), de Princeton, denominado “Growth and Fiscal Policy: A Positive Theory”. En este trabajo Barseghyan y Battaglini construye un modelo de equilibrio general dinámico con regiones y con una legislatura que debe votar la provisión de bienes públicos de cada región, junto con el monto de inversión pública en infraestructura que afecta la productividad total de los factores. El modelo introduce un tipo de votación en la legislatura tal que una propuesta de combinación de “gasto público” se aprueba si obtiene un cierto monto mínimo de votos. Este tipo de votación induce a un tipo de “coalición” entre legisladores, lo cual constituye, en el modelo, una distorsión. Esta distorsión consiste en una tasa de crecimiento de largo plazo por debajo del valor que se obtiene en la solución Pareto-eficiente. Sin embargo, en una versión calibrada de este modelo, el mismo predice tasas de crecimiento de largo plazo consistentes con la de EEUU de la Posguerra. Un segundo paper de la misma sesión es de Lawrence Ales, Pricila Maziero y Pierre Yared (2012).  Este modelo explicita directamente un hacedor de política no benevolente, rentístico, que enfrenta la amenaza de ser removido via elecciones, pero que posee una ventaja informativa. En oposición a otros modelos del mismo estilo pero sin información asimétrica, este modelo predice una probabilidad positiva de que el hacedor de política pueda ser removido en algún nodo, aunque tal remoción implica una distorsión en la producción, distorsión que permanece en el largo plazo. Este tipo de teorías puede permitirnos entender hasta qué punto la presencia de “ineficiencias” no se debe únicamente a “fricciones exógenas” en los mercados en modelos de equilibrio general, sino que su potencial causa puede ser mucho más profunda, a encontrarse en el tipo de instituciones que inducen una determinada manera de generar política fiscal.

El último punto se refiere más bien a un tema más específico, pero que me involucra algo más de cerca. Como he puesto en una entrada anterior, estuve trabajando en un artículo sobre petróleo, gas y minería en Argentina, cuya versión actual tuve oportunidad de presentar en una de las sesiones de la LACEA-LAMES. En la misma semn presentaron otros dos trabajos del mismo proyecto financiado por el BID, uno sobre minería en Perú, el otro sobre minería en Chile. Los otros dos trabajos de algún modo obedecen a la visión más tradicional, acerca del impacto de una dada política tributaria sobre la eficiencia de extracción. El trabajo en el que todavía me encuentro trabajando intenta construir un modelo que endogeneiza las decisiones gubernamentales de impuestos y regulaciones, adaptando la literatura de economía política en temas macroeconómicos. Lo que me pareció más interesante fue el comentario que Guillermo Perry (ex Banco Mundial, actualmente en la Universidad de los Andes, Colombia) realizó a los tres trabajos. De algún modo la crítica estuvo más bien dirigida a la ausencia de discusiones de “riesgo político” en los trabajos de Perú y Chile, aunque enfatizando que el caso de Argentina es “muy especial” (lo pueden ver en el video siguiendo el link de la sesión). Lo que Perry trató de enfatizar, en mi modo de entender su comentario, es que aún en países como Chile y Perú el supuesto de “compromiso perfecto” no parece ser tan razonable, ya que con baja (pero no nula) frecuencia se registran cambios en regímenes fiscales. Por lo tanto, Perry enfatizó la necesidad de introducir consideraciones de riesgo político en el análisis de impuestos de recursos no renovables, pensando justamente en el comportamiento rentístico (al menos potencialmente hablando) que distintos gobiernos pueden tener. Creo que esto es un botón de muestra acerca de hasta qué punto se hace necesario introducir consideraciones políticas para comprender aquellas variables de política que la literatura tradicional tendía a tomar como exógenas.


Siguiendo con el Stiglitz “secreto” (aunque no tanto)

12/10/2012

Por Enrique Kawamura

En mi entrada del mes pasado había mencionado mi impresión sobre el “Stiglitz puertas adentro” en una mesa redonda académica y el “Stiglitz puertas afuera” que aparece en los medios de comunicación (especialmente el que se refiere al que aparece en Argentina). Aprovechando la posibilidad de haber podido participar de esa mesa redonda (cuyo tema principal fue la cuestión de las crisis y sobre todo de crisis de deuda soberana), en esta ocasión quisiera comentar brevemente sobre la intervención de Stiglitz “puertas adentro”.

Stiglitz tituló su presentación “Crisis: principios y políticas.” Suena a “principista”, y en un sentido lo es. A lo largo de las 31 diapositivas, Stiglitz desliza sus opiniones fuertemente opuestas a medidas de “austeridad” en casos como la crisis actualmente observada en países de Europa, dado que las mismas se inclinan hacia medidas que se concentren en una reactivación de la economía real. Sin embargo, destaco algo más profundo que es el modo de analizar las cirsis. De hecho, en su presentación oral, el comienzo de su alocución pareció concentrarse en las falencias de la teoría económica actual en explicar las crisis (y en consecuencia, de las falencias que la teoría tendría para analizar políticas de manejo de crisis macroeconómicas).

Sin ser tan preciso, Stiglitz pareció “arremeter” contra explicaciones basadas en “equilibrios múltiples” en economías con agentes con expectativas racionales. Dice en una parte de la presentación que un ejemplo de estos modelos son aquellos que predicen que “para valores moderados de endeudamiento soberano, podrían co-existir dos equilibrios, uno con bajas tasas de interés y baja probablidad de default, y otro con alta tasa de interés y alta probabilidad de default”. En lo personal, este ejemplo me recuerda un paper bastante conocido en la literatura de default soberano de los ’90, el modelo de Cole y Kehoe (2000). En ese modelo, efectivamente el default del gobierno se produce como consecuencia de una variable mancha solar que “dispara” el mal equilibrio. Sus autores intentaron argumentar, por caso, que el “Tequila” (el problema de deuda soberana que tuvo el gobierno de México a fiones de 1994 y que produjo un “contagio” en 1995-6 en Argentina) podría explicarse a través de un argumento de equilibrios múltiples.

Sin embargo, lo que Stiglitz (a mi entender) intenta señalar es que esos modelos no tienen una capacidad de predicción tan importante para explicar crisis como la de EEUU en 2007-2009 o la europea actual. La razón es que en un modelo de equilibrios múltiples con expectativas racionales (como Cole y Kehoe) la variable que dispara el default es completamente extraña a la economía (una mancha solar) pero que, de algún modo, es introducida “por la ventana”, crítica que, a propósito, no es nada novedosa (a quien se lo escuché decir miles de veces antes de que Stiglitz lo sugiriese es al mísmísimo Daniel Heymann en distintos foros y clases). En otras palabras, la aparición de la crisis (default)n no parece provenir de la misma lógica del modelo, sino de afuera. Pero entonces la parte fundamental del modelo no necesariamente predice crisis. Es cierto que la literatura de “juegos globales” propuesta por Morris y Shin en distintos papers intenta subsanar este problema. Sin embargo, el problema que tal vez tengan los modelos con juegos globales es que la aparición de una crisis depende de unas señales privadas cuyo contenido empírico tampoco es muy obvio cómo encontrarlo.

Por supuesto también hay que señalar que en los últimos años hay una andanada de otros papers que intentan explicar dinámicas que se asemejan a lo que ocurre en crisis financieras utilizando supuestos de expectativas que no se condicen con el supuesto de expectativas racionales. En particular, es sabido que algunos modelos de “comportamiento de manada” (comportamiento que Stiglitz destacó como potencialmente relevante para caracterizar parte de la dinámica de una crisis) pueden explicar movimientos bruscos de precios de activos. Sin embargo, esos modelos normalmente introducen otros supuestos de comportamiento que no siempre son satisfactorios a los ojos de académicos deseosos de desarrollar “teorías más generales” de explicación de crisis.

Quisiera destacar que cuando Stiglitz presentaba estas ideas, nunca pareció despreciar completamente lo que la investigación en macroeconomía supo concebir en los últimos 30 años. Más bien expresó la preocupación de que es necesario re-impulsar un análisis más profundo de las causas de las crisis, de que hace falta más y mejor teoría para explicar estos fenómenos. En ese sentido, Stiglitz siempre pareció tener una actitud positiva de construir más que destruir lo pre-existente. Nunca su tono fue el de afirmar al inutilidad completa de lo que sabemos hasta ahora, pero sí de la necesidad de seguir construyendo.

No es mi intención “reivindicar” la imagen de nadie, de hecho Stiglitz en un sentido no creo que lo necesite. Sí quería puntualizar la seriedad con que una figura como Stiglitz (a veces controvertida en nuestra profesión en Argentina especialmente) tiene a la hora de afirmar que es necesario un avance científico más profundo para entender estos fenómenos. Nobleza obliga, reitero una vez más, más de unos de estos mensajes yo ya los había escuchado de boca de un tal Daniel Heymann…

 


El ojo y el desarrollo económico

13/09/2012

Hace unos días Lucas Llach publicó un post sobre el carácter evolutivo del ojo humano. Voy a tomarlo como excusa para comentar un trabajo académico que usa la variación en la incidencia de enfermedades oculares para explicar el desarrollo económico. 

El documento de trabajo en cuestión es “Eye disease and Development” de Thomas Andersen, Carl-Johan Dalgaard y Pablo Selaya. Este es el abstract:

This research advances the hypothesis that cross-country variation in the historical incidence of eye disease has influenced the current global distribution of per capita income. The theory is that pervasive eye disease diminished the incentive to accumulate skills, thereby delaying the fertility transition and the take-off to sustained economic growth. In order to estimate the influence from eye disease incidence empirically, we draw on an important fact from the field of epidemiology: Exposure to solar ultraviolet B radiation (UVB-R) is an underlying determinant of several forms of eye disease; the most important being cataract, which is currently the leading cause of blindness worldwide. Using a satellite-based measure of UVB-R, we document that societies more exposed to UVB-R are poorer and underwent the fertility transition with a significant delay compared to the forerunners. These findings are robust to the inclusion of an extensive set of climate and geography controls. Moreover, using a global data set on economic activity for all terrestrial grid cells we show that the link between UVB-R and economic development survives the inclusion of country fixed effect.

Los autores parten de la hipótesis que enfermedades oculares ocasionadas por radiación ultravioleta, como las cataratas, afectan la productividad laboral. Que es un problema serio se ve en la incidencia de cataratas en India y China. Mientras en el primer país casi el 15% de la población de más de treinta años está afectada, en China la incidencia es del 20% de lo adultos de más de 40 años. Que se afecte la productividad laboral en principio no impactaría sobre el desarrollo, sino que resultaría en un menor nivel de producto por habitante (es decir un efecto de nivel, pero no de pendiente). 

El canal de transmisión para que se afecte el desarrollo económico es suponer que la mayor probabilidad de sufrir una enfermedad ocular reduce los incentivos de los jóvenes a educarse (por el menor retorno esperado a esta inversión). Esto retrasa la transición demográfica que sustituye calidad por cantidad de hijos, y genera una diferencia de ingresos entre países con baja y alta incidencia de enfermedades oculares al postergarse la transición al crecimiento sostenido. 

Para estimar la incidencia histórica de enfermedades oculares, para la cual no hay datos, los autores emplean datos satelitales de radiación ultravioleta (que además de aumentar la incidencia de cataratas tiene un efecto sobre la degeneración macular). Realizando un análisis econométrico encuentran que las sociedades que han tenido mayor exposición a radiación ultravioleta son más pobres y tuvieron una transición demográfica más tardía.  Usando datos a nivel regional encuentran que la relación entre este factor geográfico y el desarrollo económico está presente en una regresión más estricta que controla por efectos fijos a nivel país. 

Esta es una contribución más a favor de los factores geográficos en la batalla sobre los determinantes del desarrollo económico entre la “escuela” de las instituciones, representada este año por el libro “Why Nations Fail” de Daron Acemoglu y Jim Robinson, y la de la geografía, representada por el libro “Germs, Guns and Steel” de Jared Diamond. Recuerdo al lector dos post escritos este año al respecto (uno y dos). 


Deuda de bancos en EEUU y Europa

21/08/2012

En una edición reciente de The Economist hay una nota sobre las lecciones que la depresión japonesa tiene para la crisis global.

Falling asset prices meant that many banks and firms had debts that outweighed their assets. The Japanese experience showed that the next job was to deal with these broken balance-sheets. There are three main options: renegotiate debt, raise equity or go bankrupt.

In the efforts to reinvigorate balance-sheets, debt investors have reigned supreme. Debts have been honoured. Indeed, a recent report from Deutsche Bank shows that even investors in risky high-yield debt have had five great years. Bank bonds in America have returned 31%; in Europe, 25%.

As asset values fell, debt maintained its fixed value. This meant that equity, the balance-sheet shock-absorber, had to fall in value. So although debt caused the problem, equity took the pain. A Dow Jones index of bank equity is down by more than 60% since 2007, according to Deutsche Bank. Some banks’ share prices are down by more than 95%.

¿Por qué razón los acreedores no aceptaron renegociar la deuda a un nivel que hiciera más solvente al banco (y más probable cobrar la deuda)? Por dos motivos. En primer lugar la crisis bancaria fue un pánico generalizado que llevó a los gobiernos y bancos centrales a tomar una serie de medidas para apuntalar a los bancos. Los acreedores interpretaron estas intervenciones como un salvataje generalizado, eximiéndolos de hacer un esfuerzo propio. Notemos como con el caso de la crisis griega la ayuda de la Unión Europea implico una contraprestación de los acreedores privados. Probablemente la diferencia está en que esta segunda crisis de desarrolla en cámara lenta, y las decisiones no se toman tan apresuradamente que en 2008.

La segunda razón para no ver renegociacion de las deudas de los bancos está dada por la naturaleza opaca del negocio de intermediación financiera. Un banco en funcionamiento tiene información privilegiada sobre la calidad de sus clientes que no tiene el mismo valor para terceros (pues el banco no puede “vender” esta información de a trozos). Los acreedores saben esto, i.e. que básicamente para un banquero quebrar para luego abrir un nuevo banco tiene un alto costo. Dado este alto costo un banco está dispuesto a hacer grandes sacrificios para poder honrar sus obligaciones y evitar al quiebra. Por supuesto que estos “sacrificios” implican la reducción de la escala de funcionamiento, en particular achicar los créditos otorgados con efectos negativos sobre el nivel de actividad.

Recordando este gráfico de The Economist:

Se puede ver que los bancos norteamericanos hicieron el “ajuste” y que ya están en condiciones de trabajar normalmente. Por el contrario los bancos europeos están en el medio de este ajuste que comprime sus beneficios y afecta su capacidad prestable. A menos que se tomen medidas excepcionales para aliviar la carga de deuda de los bancos europeos (lo cual es difícil dado que gran parte de esa deuda está en manos de otros bancos), la incipiente recesión en el viejo continente no será un fenómeno pasajero.


Siguiendo con el “ciclo de política económica del deja-vu”: la literatura sobre mercados cambiarios paralelos y su uso potencial en la coyuntura de Argentina 2012.

06/08/2012

Por Enrique Kawamura

Hace pocos días en la Universidad de San Andrés me confirmaron mi regreso al dictado de un curso que hacía más de cinco años que no enseñaba: Economía Internacional Monetaria. En principio, no es un mero curso de “macroeconomías abiertas”, sino que la idea es concentrarse sobre todo en discusiones relacionadas con el tipo nominal de cambio, variable que, ciertamente, amerita mucho más que un curso de licenciatura.

Ahora bien, dado el tiempo que transcurrió desde el último mes de dictado hasta el presente, decidí pensar en la actualización (¿o desactualización?) del programa que usé hasta 2006. Y reflexionando sobre nuestra coyuntura actual, no pude evitar decidir revisar e incluir una parte de una literatura académica que, para muchos macroeconomistas de Latinoamérica hoy, ha quedado desfasado por su falta de relevancia actual, pero que para Argentina su vigencia quedó revitalizada ante los controles ejercidos en el mercado de contado de moneda extranjera.

Se trata de una literatura comúnmente conocida como “mercados cambiarios duales”, o “mercados de cambio en negro”. La misma tuvo sus años de apogeo en publicaciones entre fines de la década de 1970 y mediados de los ’80. Ante la liberalización de los mismos[1] en la década de los ’90 (liberalización que sigue vigente hoy en varios países de Latinoamérica, excepto al menos Argentina y Venezuela) esta literatura, como dije, cayó en desuso, pero para nosotros parecería volver a ser un cuerpo de conocimiento relevante.

Leer el resto de esta entrada »


Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 104 seguidores

A %d blogueros les gusta esto: