FUNDAMENTOS METODOLÓGICOS EN ECONOMÍA NEOCLÁSICA Y ECONOMÍA POLÍTICA

Nota de clase para Desarrollo Económico, Facultad de Ciencias Económicas, UBA.

 

 

Tal vez una de las cuestiones más importantes que se discuten en este curso de desarrollo económico tiene que ver con las perspectivas metodológicas de la economía. El tema no sólo está en el centro de las diferencias entre la economía neoclásica (o corriente principal) y las perspectivas heterodoxas y críticas, sino también está en la base de las dificultades que enfrenta la teoría neoclásica en relación al desarrollo. Este último problema fue expresado con claridad por Paul Krugman, cuando explicó, en dos artículos, por qué la teoría neoclásica –la única que, en su opinión, merece el título de “ciencia”– no ha podido sentar los fundamentos de una teoría sobre el desarrollo. En el primer trabajo –Krugman (1994)–, sostiene que el problema estuvo en las dificultades que tuvo la teoría tradicional del desarrollo de Hirschman, Lewis y otros, para formalizar sus planteos. En el segundo escrito –Krugman (1996)– plantea que los economistas no han logrado derivar una teoría general del desarrollo de los “primeros principios”, los comportamientos individuales; y que ésta es la razón por la cual las explicaciones del desarrollo no adquirieron el status de ciencia.

Es claro que ambas problemáticas están en el centro de las preocupaciones de la mayoría de los alumnos que han sido entrenados en la economía neoclásica: el afán por formalizar matemáticamente, y por derivar lo macro de los comportamientos micro, individuales. Incluso es posible que muchos estudiantes encuentren este curso de desarrollo “poco científico”, dado que no sigue los senderos de lo que habitualmente se piensa que es “la ciencia de la economía”.  

El objetivo de esta nota de clase, entonces, es introducir esta discusión. Para eso, en primer lugar, sintetizamos el planteo de Krugman (1994); demostramos la amplitud que ha alcanzado el formalismo matemático en la economía; y analizamos críticamente esta perspectiva metodológica, señalando sus limitaciones. En segundo término, presentamos el individualismo metodológico, en Krugman (1996); mostramos la generalidad que alcanzó este principio, y lo analizamos críticamente.

Debido a que tanto la exigencia de formalizar matemáticamente, como de derivar de primeros principios, se relacionan con la idea de que el paradigma de la economía está proporcionado por la física, y las matemáticas, haremos varias referencias a estas ciencias.

En tercer lugar, presentamos algunas consideraciones sobre el rol de la formalización matemática, las concepciones sobre totalidad, y sacamos conclusiones.

 

 

I.         Formalización matemática y economía neoclásica

 

 

La explicación de Krugman (1994)

 

En este texto Krugman intenta responder por qué la teoría del desarrollo “ortodoxa” se estancó y entró en decadencia, a pesar de que trabajos como los de Hirschman o Lewis tenían ideas profundas y ricas. Para eso Krugman parte de la idea de que la economía es ciencia desde el momento en que logró formalizarse. Según Krugman, la formalización matemática permitió desarrollar científicamente la teoría del equilibrio general, la macroeconomía y otras ramas de la economía.

Sin embargo, continúa Krugman, los escritos más importantes del desarrollo se basaron en las economías crecientes a escala, y esto no se podía formalizar. Por esta razón los teóricos del desarrollo expresaron sus ideas verbalmente, sin traducirlas a fórmulas matemáticas. Y en consecuencia permanecieron desatendidas por el mainstream. Los economistas neoclásicos, siempre según Krugman, trabajaron lo que podían expresar matemáticamente. Así, la extensión que adquirió el equilibrio general se debió simplemente a que se podía formalizar fácilmente. Krugman defiende este curso de la investigación, argumentando que los modelos formales permiten aproximarnos a la comprensión de la realidad, y de una forma rigurosa. En este respecto, la teoría del equilibrio general, si bien es un modelo ideal, permitiría entender cómo funciona la economía real. Por eso, concluye Krugman, era válido desarrollar el equilibrio general; y descuidar la teoría del desarrollo, ya que ésta no se podía expresar matemáticamente. Plantea entonces que en tanto la teoría del desarrollo se exprese matemáticamente, adquirirá el carácter de ciencia. La economía del desarrollo, en principio, se debe poder formular matemáticamente; y sólo esto garantizará la rigurosidad y coherencia de la teoría. Krugman plantea también que debería ser relativamente sencillo, dados los avances de las matemáticas, realizar esta tarea con las viejas proposiciones de la teoría clásica del desarrollo. 

 

La generalidad del uso de las matemáticas

 

La idea anterior, de que la economía es ciencia porque logra formular matemáticamente sus ideas, está muy extendida en nuestro mundo académico. En esto han confluido dos vertientes.

Por un lado, está la idea, que viene de los orígenes de la Economía Política, de matematizar el funcionamiento de la economía (y la sociedad) siguiendo el ejemplo de la física newtoniana. Ya Kant pensaba que se necesitaba un Newton o un Kepler para identificar las leyes de la sociedad.[1] Y autores franceses como Quesnay, Turgot, Dupont de Nemours, Condorcet, Archylle-Nicolas Isnard, Canard, Depuit, Cournot fueron precursores en esta corriente, que desemboca en el trabajo de Walras. Este ideal perdura hasta el día de hoy, como puede verse en los trabajos de Krugman, entre otros.

La segunda vertiente que impulsó la matematización de la economía provino del desarrollo de las matemáticas como un fin en sí mismo, a partir de los trabajos de Hilbert. Esto es, en las matemáticas hubo un énfasis creciente en la construcción de sistemas –formados por conjuntos de axiomas y sus deducciones– que ya no pretendían expresar el lenguaje de la naturaleza, sino proveer una serie de marcos para realidades teóricamente posibles. Este impulso tuvo indudable influencia en la teoría económica ortodoxa desde mediados del siglo 20. Los sistemas del equilibrio general (Debreu, Arrow y Hahn, etc.) responden a esto. Se construyeron entonces sistemas formalmente sofisticados, sin preocuparse porque tuvieran relación con la realidad social o económica (véase Lawson, 2003).

Lawson sostiene, por otra parte, que esta tendencia ha pasado a ser la predominante en economía. Siendo cierto este rasgo, en nuestra opinión, sin embargo, la cuestión hoy es un poco más compleja. Es que si bien los modelos del equilibrio general no pretenden reflejar la realidad –Arrow y Hahn jamás disimularon este hecho– hoy los modelos de macroeconomía o crecimiento, de alto nivel de abstracción y sofisticación, si bien axiomáticos y con deducciones rigurosas, pretenden, sin embargo, dar cuenta de la realidad y alardean de que son testeables.  

En cualquier caso, es a partir de ambas vertientes –la influencia de la física y de la matemática axiomática– que las matemáticas se han convertido en la base imprescindible del edificio neoclásico. Por eso es natural que los estudiantes de economía dediquen mucho tiempo y esfuerzo a su preparación matemática, y consideren que no hay ciencia si no hay matemáticas. Todo economista también sabe que un paper sólo tendrá consideración ante el “establishment científico” si tiene matemáticas, y en abundancia. Una idea, por más simple que sea, debe expresarse matemáticamente para ser aceptada.

Son múltiples las evidencias de esta situación, que provoca incluso la reacción de neoclásicos representativos. Por ejemplo, Lipsey reconoce que para lograr que se publique un artículo en las revistas de economía de primera línea, “se debe proveer un modelo matemático, aun cuando no agregue nada al análisis verbal. De hecho, escribir teorías es escribir modelos matemáticos” [citado por Lawson (2005)].

Wassily Leontiev, premio Nobel de Economía, señala cómo páginas y páginas de las revistas especializadas en economía están llenas de fórmulas matemáticas. Milton Friedman, otro premio Nobel, dice que “la economía se ha convertido, de manera creciente, en una rama arcana de las matemáticas, en lugar de tratar con los problemas económicos reales” (ídem).

Ronald Coase, también premio Nobel, plantea que “la economía existente es un sistema teórico [matemático] que flota en el aire y tiene poca relación con lo que pasa en el mundo real” (ídem).

Y Robert Solow, otro premio Nobel, dice que

si hoy usted le formula a un economista del mainstream una pregunta sobre casi cualquier aspecto de la vida económica, la respuesta será: supongamos que modelamos tal situación y veamos qué pasa… el mainstream moderno de económicas consiste en poco más que ejemplos de este proceso (ídem).

Agreguemos esta observación de Krugman:

En mi calidad de antropólogo aficionado que lleva largo tiempo estudiando esa extraña cultura conocida como ciencia económica académica, he llegado a la conclusión de que un concepto de economía prospera con todo su esplendor si se expresa en términos más bien técnicos, aunque las dificultades técnicas sean en gran medida innecesarias… Si una idea profunda se transmite a través de ejemplos sencillos y elegantes parábolas, en lugar de matemática pura y dura, hay una tendencia a no tenerla en cuenta [Krugman (1997) pp. 24-25].

Es natural entonces que en un curso de desarrollo donde se ven pocas matemáticas (y muy elementales), cualquier estudiante pueda interrogarse, con todo derecho, acerca del carácter científico de lo que está estudiando.

 

El fetichismo de las matemáticas

 

En lo que sigue no sostenemos que las matemáticas no sirven para las ciencias sociales, sino planteamos que la formalización matemática no garantiza la rigurosidad y coherencia lógica que Krugman, y muchos otros teóricos neoclásicos, pretenden que garantiza. En otras palabras, lo que pretendemos es  desnudar el fetichismo que han hecho muchos de las matemáticas. Cuando hablamos de fetichismo queremos significar una situación en la que se asigna a algo propiedades que en sí mismo no tiene. Un ejemplo común de “fetichismo” puede ser el de aquél que piensa que porque mira el partido de fútbol desde determinado sillón, su equipo favorito tiene más probabilidades de ganar. Le atribuye a su sillón propiedades que no tiene. En el caso de las matemáticas, hay fetichismo cuando se piensa que las matemáticas, en sí mismas,  constituyen teoría económica, y permiten expresar prácticamente todos los fenómenos esenciales de la economía. Las matemáticas, de por sí, no tienen esa propiedad.

 

1.     Discutir los supuestos

 

Tal vez la primera cuestión, y más importante, es sobre la necesidad de tener presente que la formalización matemática jamás garantiza que los supuestos sean correctos, o tengan algo que ver con la realidad. Esta cuestión ya la había señalado Poincaré a Walras, cuando este último buscó el respaldo del gran matemático para su modelo del equilibrio general. Poincaré explicó que al comienzo de cada especulación matemática existen hipótesis, y para que la especulación sea fructífera, es necesario dar cuenta de esas hipótesis. “Si uno olvida esto, entonces va más allá de los límites correctos” [Poincaré, citado por Lawson (2003)]. Puntualmente Poincaré criticaba a Walras porque partía de la hipótesis de seres humanos egoístas e infinitamente previsores a largo plazo, sin probar o discutir esos puntos de partida.

Pues bien, esta crítica de Poincaré a Walras, realizada hace más de 100 años, conserva plena vigencia. Es que desde los cursos más elementales hasta los papers más encumbrados, el procedimiento en la economía neoclásica sigue siendo el mismo que Poincaré criticaba a Walras. Esto es, se plantean supuestos que nunca se problematizan, ni justifican (a no ser por vagas alusiones a la introspección, que es la más falible de las “evidencias”). Por ejemplo, se parte del supuesto de que el salario es igual a su productividad marginal física; se supone también que la productividad es decreciente; y se sostiene que hay una función de producción continua y derivable. Una vez formulados estos supuestos, es sencillo mostrar, matemáticamente, cómo, dado un stock de capital por obrero, la derivada de la función es igual al salario de equilibrio. Pero es claro que el empleo del análisis aquí no permite justificar los supuestos de partida (función de producción continua y derivable, productividad marginal decreciente, etc.).

Presentemos otro ejemplo (que los hay por decenas en el cuerpo teórico del mainstream). Se le dice al estudiante que la inversión depende negativamente de la tasa de interés; esta afirmación apenas se discute, pero rápidamente es plasmada en una ecuación matemática. ¿En qué ha contribuido esta ecuación para justificar la verdad del supuesto, esto es, que la inversión depende negativamente de la tasa de interés? En nada, porque sólo ha repetido lo que se aseveró verbalmente en el punto de partida. Por eso estos supuestos permanecen en el limbo, por fuera de las consideraciones del economista. En este respecto la economía ni siquiera sigue el ejemplo de la física. En ésta, para que las especulaciones sean fructíferas, es necesario justificar y dar cuenta de las hipótesis; pero en economía la cuestión se pasa por alto. No es de extrañar entonces que los neoclásicos se deslicen cada vez más hacia la construcción de modelos axiomáticos, que poco tienen que ver con la realidad.

E incluso cuando la realidad desmiente tozudamente los supuestos –y sus correspondientes construcciones matemáticas– los mismos se mantienen contra viento y marea. Por ejemplo, en los últimos 15 años hubo un fuerte aumento de la productividad en Estados Unidos; según la teoría enseñada, los salarios reales deberían haber subido. Pero la realidad es que bajaron, o se estancaron. Otro ejemplo: a lo largo de la década de 1970 la tasa de interés real en el mundo capitalista desarrollado fue negativa; sin embargo, la inversión fue más débil que en los ochenta, cuando la tasa de interés real fue positiva. A pesar de estas evidencias, a los estudiantes se les sigue enseñando que el salario se iguala con la productividad marginal; y que la inversión depende negativamente de la tasa de interés real.

Lo importante, una vez más, es que la matemática interna a cada uno de los respectivos modelos (productividad marginal, función de la inversión) no permite dar cuenta de la incongruencia entre el modelo y la realidad; ni solucionarla.

 

2.     El problema de las simplificaciones

 

Un argumento frecuente de los economistas neoclásicos cuando se cuestiona la irrealidad de los supuestos es que ellos son conscientes de que esos supuestos no reflejan toda la realidad; pero que se los incluye para aproximarse, por vía de la simplificación, a la comprensión de los fenómenos económicos; y que por esta razón son legítimas las simplificaciones [Krugman (1994) desarrolla esta idea].

El argumento tiene un punto de verdad; en las ciencias siempre es necesario hacer simplificaciones. Hasta cierto punto es necesario “cerrar” el sistema, esto es, excluir de la consideración, aunque sea provisoriamente, ciertos eventos, a fin de descubrir tendencias o regularidades. Por ejemplo, Marx elabora un sistema de reproducción simple y ampliada del capitalismo suponiendo que toda la economía es capitalista (no existe la pequeña burguesía ni otras clases); que las mercancías se venden por sus valores (o por sus precios de producción); etcétera. Su teoría de la plusvalía también supone que la fuerza de trabajo se vende por su valor. Lo mismo puede decirse de muchos otras explicaciones heterodoxas. Pero si esto es así, ¿a qué viene tanto alboroto acerca de los supuestos neoclásicos?

El problema reside en que cuando se realizan simplificaciones es necesario determinar en qué grado las mismas se apartan de la realidad. Aquí, como en tantas otras cuestiones, cuenta la ley del salto de cantidad en calidad. Esto es, una cierta magnitud de divergencia entre la realidad y el supuesto simplificador permite penetrar mejor en el fenómeno que se está estudiando. Pero si la distancia es demasiado grande, se corre el riesgo de construir otra realidad –una realidad virtual, o imaginada– que no tiene punto de contacto con el mundo en que vivimos. Por lo cual llegamos a provocar un cambio cualitativo del problema bajo análisis. Y esto sucede cuando las simplificaciones en el análisis dejan de lado rasgos esenciales que definen el fenómeno bajo estudio. Por ejemplo, uno de los supuestos axiomáticos del modelo del equilibrio general de Debreu es una sociedad en la cual todos los agentes son propietarios de todos los medios de producción. No se trata de una abstracción provisoria, porque jamás el modelo de Debreu levanta ese supuesto inicial. Aquí entonces no existen clases sociales; pero por eso mismo también ha desaparecido la sociedad capitalista. Esto es, la “simplificación” anuló lo que había que estudiar, la economía capitalista. El resultado no tiene punto de contacto con la realidad económica actual, por la sencilla razón de que ab initio se ha hecho abstracción de la “diferencia específica” que caracteriza al capitalismo, a saber, existencia de la propiedad privada de los medios de producción, y la venta de la fuerza de trabajo por parte de los no propietarios. Por eso el modelo Debreu se puede desplegar con rigurosidad matemática, pero se construye sobre simplificaciones que teóricamente anulan la existencia misma de la sociedad capitalista. Hahn, otro de los padres fundadores del equilibrio general, admite que no sólo no hay razones para suponer que alguno de esos modelos algún día se convierta en realidad, sino que incluso pueden ser peligrosos ya que “la economía del equilibrio fácilmente es convertible, y con frecuencia lo es efectivamente, en una apología de la economía existente” [citado por Lawson (2005)]. 

Pero si esto es así, no es cierto lo que afirma Krugman, sobre que los modelos neoclásicos realizan simplificaciones con el propósito de acercarnos a la comprensión de la realidad. Los modelos del equilibrio general, por caso, se construyeron para proporcionar una base axiomática a la teoría de los precios neoclásica. Por esta razón fueron concebidos como una pura estructura matemática, por la cual jamás se dio cuenta ante tribunal alguno de “realidad”. Algo similar ocurre con infinidad de modelos de macroeconomía, crecimiento o similares.

El problema entonces no está en hacer o no hacer supuestos simplificadores, sino en su naturaleza. Para seguir con el caso anterior, supongamos ahora que se construye otro modelo en el que sólo el 10% de la población es propietaria de los medios de producción, y el 90% restante trabaja como asalariada en las empresas de los primeros. Aquí también tenemos una simplificación; pero se trata de una simplificación que no modifica la naturaleza del problema; por el contrario, lo muestra en su esencia, en la escisión entre propietarios y no propietarios de los medios de producción. Por eso, cuando se elimina esta simplificación –por ejemplo, admitiendo la existencia de una tercera clase de propietarios privados; o la venta de fuerza de trabajo por encima o debajo de su valor, etc.– la naturaleza de fondo del problema no se modifica. Sucede algo similar a cuando en física se estudia la caída de los cuerpos. Se puede hacer abstracción del rozamiento; pero la introducción del rozamiento no cambia la esencial del fenómeno. En el modelo de Debreu, en cambio, si se introduce la relación antagónica entre el capital y el trabajo, el conjunto del planteo cambia de raíz, y el modelo no se sostiene.

También es importante tener presente que a partir de formular un problema que no tiene punto de contacto con la realidad, se puede encontrar, sin embargo, una solución matemáticamente exacta. El modelo de Debreu puede dar soluciones “exactas”, incluso numéricas (si reducimos el número de variables para hacer manejables las ecuaciones). Pero esas soluciones exactas no pueden considerarse la solución ni siquiera aproximada a un fenómeno real. Es una respuesta exacta a un problema equivocado, o incorrecto.

Por eso insistimos, la necesidad de estimar, con la mayor precisión posible, la distancia entre el punto de partida y la simplificación está presente en cualquier ámbito de la ciencia, empezando por las matemáticas. Cuando una ecuación cuadrática, por ejemplo, se aproxima linealmente, se establece “el resto”, esto es, la distancia entre la aproximación y la ecuación original. Es elemental saber cuánto se aparta lo nuevo del punto de partida. En física, cuando se analiza el movimiento de un péndulo ideal (una simplificación), se está realizando una aproximación al movimiento del péndulo real; pero para esto se establece en qué sentido se ha logrado una solución exacta de un problema aproximado, que pueda contemplarse como la solución aproximada de un problema exacto [véase Stewart, (2007) p. 105].

Pero esto, subrayamos, es lo que no hace el neoclásico cuando elabora sus modelos. Siempre debería tenerse presente cuánto se aparta la simplificación con que opera el modelo económico, de lo que sucede en la realidad. No es lo mismo un abismo, que unos “centímetros” de diferencia. El ingeniero que construye un avión, o un edificio, realiza muchas simplificaciones. Pero ningún ingeniero puede realizar libremente simplificaciones que cambien la naturaleza del problema, so riesgo de que el avión, o el edificio, se vengan abajo.

 

3.     La coherencia entre los modelos

  

En su conocido manual de macroeconomía, Blanchard y Pérez Enrri afirman que la utilización de las matemáticas “asegura que los modelos no tienen fallas lógicas”. Pero ya hemos visto que si bien el modelo puede no tener fallas lógicas, las matemáticas no garantizan que los supuestos de los que parte el modelo, y las simplificaciones que realizan, sean útiles o convenientes. Por eso la afirmación de Blanchard y Pérez Enrri “barre debajo de la alfombra” uno de los problemas esenciales que deberían discutirse.

Pero también hace lo propio con otra cuestión, a saber, la coherencia entre los modelos. Para verlo, demos un ejemplo que puede ser entendido por cualquier estudiante de macro.

Matemáticamente decimos que el ahorro es igual a la inversión; hacemos depender el ahorro del ingreso, S = S (Y); y la inversión de la tasa de interés, I = I (r); suponemos también que el ahorro siempre fluye a la inversión; y que ambos agregados siempre son iguales, S = I. Con lo cual tenemos un pequeño “modelo” de cómo funcionan el ahorro y la inversión, donde el aumento del ahorro genera el aumento del ingreso. Pero también, matemáticamente, podemos decir (y esto también está en los manuales) que todo lo que no se consume es una “fuga” que va al ahorro; y que el aumento del ahorro genera, por lo tanto, una caída del ingreso. Con lo cual llegamos a la “paradoja del ahorro”: cuando la gente aumenta su propensión al ahorro éste no aumenta porque baja el ingreso.

Ahora bien, lo interesante aquí es que ambos modelos son coherentes matemáticamente, pero generan dos afirmaciones opuestas. Según la primera, el aumento del ahorro genera aumento del ingreso; de acuerdo a la segunda, el aumento del ahorro genera caída del ingreso. Las matemáticas de cada modelo garantizan las coherencias internas respectivas, pero no tienen manera de conciliar la incompatibilidad lógica que deriva de cada uno de ellos.

Esto demuestra que no sólo es importante que las matemáticas –o la lógica– garanticen la coherencia interna de cada modelo, sino también hay que examinar la coherencia sistémica del edificio teórico. Pero aquí es donde la economía cada vez más se retira hacia el estudio de “islas” (o sea, los modelos), que nadie intenta poner en consonancia. La cuestión se puede ver con claridad en macroeconomía. Como admite Mankiw (en su conocido manual de macro), la macroeconomía cada vez se parece más a un cortaplumas suizo, o a una caja de herramientas inconexas. Así, según un modelo la suba de la tasa de interés se asocia a la apreciación de la moneda; y según otro modelo, con otro supuesto, la suba de la tasa de interés se asocia a la depreciación de la moneda. Cada uno de esos modelos es “matemáticamente correcto”, cumpliendo con lo que piden Blanchard y Pérez Enrri. Pero nadie se preocupa de formalizar matemáticamente el conjunto. Por eso no basta con decir que las matemáticas deben garantizar la coherencia de los modelos. Además de la exigencia de realidad de los supuestos de que se parte, es necesaria la coherencia entre las partes. Pero esta coherencia no siempre podrá ser provista por las matemáticas (véase más abajo).

 

4.     Matemáticas hermosas para contar mentiras

 

Como explica Lawson (2003) las matemáticas han sido elevadas al sitial privilegiado de cientificidad en la sociedad. El matemático (y también el físico) goza de un respeto “extra”. Las matemáticas parecen demandar una suerte de inteligencia superior por parte de quienes la practican, y una demostración matemática siempre es concluyente; como se acostumbra a decir cuando algo está muy probado, “es tan cierto como que dos más dos son cuatro”. No hay discusión posible. Por esto hay una aceptación hasta cierto punto a-crítica de todo lo que se presente bajo forma matemática. Lo cual es muy conveniente para el economista a la hora de presentar teorías y modelos irrelevantes o, reñidos con la experiencia cotidiana más elemental de los seres humanos. Por ejemplo, no existe trabajador asalariado real, en el mundo capitalista real, que optimice entre la utilidad del ocio y la desutilidad del trabajo, como sostiene la teoría neoclásica, a fin de construir la curva de oferta de trabajo. Sin embargo, el hecho de que esta ficción se presente de forma matemática, la viste con ropas de “idea científica y profunda”. Muchos incluso se pueden sentir inhibidos para cuestionar la legitimidad global del planteo. Pero aquí toda la ciencia consiste en hablar “en ecuaciones” para crear un escenario “matemáticamente correcto”, pero mentiroso e inexistente. Como dice Stewart, refiriéndose a algunas formulaciones matemáticas de problemas de la física:

Pueden elaborarse hermosas historias a partir de una mentira, pero tienden a fracasar cuando se enfrentan a la terrible realidad. Del mismo modo, se puede hallar, aparentemente, una matemática hermosa en una mentira; pero también fracasará cuando se enfrente con la dura realidad [Stewart (2007) p. 105].

Las historias hermosas –asalariados decidiendo a principios de año si quieren trabajar o prefieren la utilidad del ocio; hogares de trabajadores optimizando según una tasa de preferencia intertemporal de por vida, y similares–  que nos cuentan los modelos neoclásicos no tienen por qué ser ciertas por el hecho de que estén formuladas con ecuaciones. Ese mundo de ecuaciones no dice palabra de la dura realidad que viven los millones de seres humanos cuya única opción es vender su fuerza de trabajo, o morirse de hambre (no disfrutar del ocio).  

 

5.     Limitaciones de la física matemática

 

Los puntos anteriores se refirieron a cuestiones inherentes a la relación entre las presentaciones de la economía neoclásica y la matemática. Pero es necesario también atacar el mito, bastante extendido, de que todos los fenómenos, sean naturales o sociales, pueden expresarse de forma matemática; y que por lo tanto pueden ser estrictamente predecibles. 

Recordemos que, a partir del paradigma de la física, los modelos neoclásicos debían convertir a la economía en una ciencia con posibilidades de predecir el curso futuro de la economía. Una idea que se corresponde con la concepción mecanicista, e inspirada en la física newtoniana, que concebía al universo como un engranaje gigantesco, con comportamientos predecibles, tal como sucede con cualquier otra máquina.[2]

Trasladada esta concepción al campo de la economía, significa que en la medida en que se conozcan los parámetros de comportamiento –por ejemplo la elasticidad interés de la inversión; la propensión marginal al consumo, etc.– se pueden establecer ecuaciones que describen la evolución del sistema, porque esta evolución está plenamente determinada, en ausencia de shocks externos, desde el momento inicial. Esto porque se plantean relaciones funcionales entre una serie de variables, que se consideran independientes, y otra serie de variables, las dependientes, donde las primeras anteceden causalmente y determinan de manera unívoca –siempre suponiendo conocidos y estables los parámetros de comportamiento, lo cual en sí mismo es otro supuesto heroico– el comportamiento de las segundas. Como señala Lawson, estas relaciones necesitan y estimulan las formulaciones en términos de átomos aislados, para asegurar que siempre, bajo las mismas condiciones dadas x, se siga determinada consecuencia y.

Es cierto que típicamente en estos modelos se incorporan shocks. Esta es la única variante de imprevisibilidad del modelo. Sin embargo no es tal en el fondo, porque los shocks son exógenos y de media cero. De manera que en el largo plazo la economía deberá comportarse como el modelo dice que debe comportarse. Así, el modelo permitiría predecir el curso futuro y las ecuaciones diferenciales modelar su desarrollo. Y es este afán por establecer un mundo económico rígidamente determinista el que impulsa a los economistas neoclásicos a dejar de lado todo fenómeno que no sea pasible de expresarse en términos de ecuaciones.[3] Por eso si un fenómeno económico no se presenta de forma matemática, no puede ser reconocido como fenómeno económico. En otras palabras, las matemáticas le otorgan el ser. Es lo que con toda sinceridad reconoce Krugman en su artículo de 1994: en la teoría ortodoxa del desarrollo los rendimientos crecientes a escala no existían como fenómeno económico porque no era posible tratarlos matemáticamente.[4]

En el mundo de la economía neoclásica se piensa que así también sucede en la física; lo cual actúa como justificativo y estímulo para seguir adelante con la matematización de la sociedad a toda costa. Se piensa que el físico puede expresar todo, o casi todo, en ecuaciones; y lo que no puede reducir a ecuaciones, seguramente no tiene mucha importancia. Pero se trata de una idea equivocada, porque ni siquiera la física ha logrado expresar matemáticamente la mayoría de los fenómenos de la naturaleza.

Es importante que prestemos cierta atención a este asunto, porque en realidad, lo que los economistas han tomado como modelo es la física determinista, o mecanicista, basada en las leyes de la gravedad y del movimiento de Newton. Pero estas leyes sólo pueden explicar unos pocos fenómenos, bastante limitados.[5] Por ejemplo, las ecuaciones del movimiento de Newton permiten calcular de forma precisa el movimiento de dos masas puntuales sometidas a fuerzas mutuas. Pero no pueden dar una solución si se trata de tres partículas puntuales; el caso es demasiado difícil para una solución completa. Mucho menos pueden dar cuenta del movimiento completo de, digamos, 50 planetas. Lo mismo sucede con el movimiento de los fluidos, y con tantos otros fenómenos. Obsérvese que se trata de sistemas deterministas, pero en los que surgen movimientos que, hasta el presente, sólo pueden captarse de manera estocástica. El movimiento de Hiperión, un planeta que gira en torno a Saturno, está gobernado por una ecuación diferencial. Pero su movimiento es de tipo caótico; pequeñas diferencias en los datos dan lugar a resultados muy distintos, y a movimientos que parecen completamente desordenados. Matemáticamente algo similar ocurre con una ecuación tan simple como kx2 – 1; algunos valores de k conducen a iteraciones ordenadas, pero otros a secuencias muy parecidas al caos. Si esto ocurre con sistemas determinísticos, ¿qué puede esperarse de la sociedad, donde están implicadas reacciones humanas, comportamientos de clases sociales y grupos (que aprenden de las experiencias pasadas y cambian sus comportamientos), y donde intervienen infinidad de variables?

Por supuesto, en economía algunas ecuaciones pueden darnos alguna idea aproximada de ciertas tendencias. Por ejemplo, la relación entre la evolución de la masa de beneficios y capital invertido nos da la evolución de la tasa de ganancia; y a partir de aquí se pueden establecer algunas tendencias. Pero no hay manera de establecer de forma determinística, mecánica, de qué modo y cuánto variará la tasa de ganancia; y menos aún cuándo se desatará una crisis económica a raíz de la baja de la tasa de ganancia; o cuál será la magnitud de la caída.  

Más aún, a veces es  posible expresar un fenómeno en ecuaciones, pero esas ecuaciones pueden no tener resolución. Esto sucede con ecuaciones relativamente sencillas, que expresan fenómenos físicos. Si tomamos, por caso, el movimiento de un péndulo idealizado,[6] veremos que el mismo se puede expresar con ecuaciones. Sin embargo estas ecuaciones no se pueden resolver completamente; podemos obtener una descripción coherente y cualitativa de todos los movimientos posibles de un péndulo idealizado, pero no podemos especificar cuál es el recorrido y la velocidad en cada instante t. Más en general, dice Stewart:

La matemática podía calcular el movimiento de un satélite de Júpiter, pero no el de un copo de nieve en una ventisca. Podía describir el crecimiento de una burbuja de jabón, pero no el de un árbol [Stewart (2007) p. 66].

Pero si esto sucede con la naturaleza, ¿por qué el economista piensa que puede traducir la economía bajo una forma matemática determinística? Como dice Stewart, refiriéndose a esta situación:

Todo ello me produce un gran descontento […] con los políticos que no sólo nos aseguran que una gran dosis de monetarismo será buena para nosotros, sino que están tan seguros de ello que piensan que unos pocos millones de desempleados no son más que un pequeño hipo. El ecologista matemático Robert May alzó su voz con argumentos similares en 1976. ‘No sólo en investigación, sino también en el mundo ordinario de la política y la economía, estaríamos mucho mejor si hubiese más gente que comprendiera que los sistemas simples no poseen necesariamente propiedades dinámicas simples’ [Stewart (2007) p. 40].   

Pero, ¿acaso el empleo de la física matemática no ha logrado gigantescos éxitos, evidenciados en la tecnología, en las construcciones maravillosas, que nos rodean?

Sí, la matemática consiguió resolver muchas ecuaciones, y la tecnología demuestra la importancia del logro. Sin embargo existe una diferencia cualitativa entre esa tecnología y la naturaleza, y es que la primera es una creación del ser humano:

En la tecnología ya no nos interesa entender el universo, sino construir pequeños universos de nuestra propiedad, los cuales sean tan simples que les podamos hacer lo que queramos. La tecnología tiene por objeto producir un efecto controlado en unas circunstancias dadas. Hacemos nuestras máquinas de modo que se comporten determinísticamente. La tecnología crea sistemas a los que se aplica el paradigma clásico. No importa que no podamos resolver las ecuaciones del movimiento del Sistema Solar: no construimos ninguna máquina cuyo modo de operación dependa de conocer tales respuestas” (ídem, p. 64).  

Un sistema construido por el hombre –sea una máquina o un experimento– se puede cerrar, y se pueden establecer relaciones lineales. De ahí también que pueda ser expresado con ecuaciones lineales; o que las aproximaciones lineales den buenos resultados. Pero en la naturaleza no existen líneas rectas, y los sistemas son abiertos. De ahí que las ecuaciones lineales tengan poca aplicación. Y si la naturaleza no es lineal, menos lo es la sociedad en general, y la economía en particular. Alguna relación lineal puede dar alguna aproximación a algún fenómeno económico particular, y bajo condiciones muy restrictivas; o acercar a una comprensión de tipo cualitativo del fenómeno. Pero no puede traducirse a un comportamiento determinista, mecánico.

Obsérvese que las resonancias del anterior pasaje de Stewart con lo que hace el economista neoclásico son llamativas. Es que el economista, en lugar de procurar entender el universo, construye “pequeños universos de su propiedad” que funcionan de manera determinística, a causa de su simplicidad y supuestos arbitrarios. Por eso establece variables “dadas”, independientes, y relaciones lineales con las variables dependientes, que no tienen asidero empírico, pero dan lugar a soluciones previsibles. Aunque estos modelos no sirvan para entender el universo económico real, son fácilmente matematizables, y por esa razón el neoclásico piensa que está haciendo ciencia (y aproximándose al ideal de la física).

 

 

II.     Reduccionismo individualista

 

 

El átomo como punto de partida y el paradigma de la física

 

Como bien ha señalado Lavoie (1989), en la economía neoclásica la complejidad no es asumida como una característica propia del mundo en que vivimos, sino como un problema temporario que se genera por nuestro conocimiento insuficiente, y que debería ser superado reduciendo lo complejo a sus partes simples. Por eso se sostiene que para comprender una totalidad compleja hay que reducirla a sus fuerzas básicas y simples. Por este motivo también decimos que el método es reduccionista.

¿Cuáles son entonces esas partes simples, a las que el economista neoclásico busca reducir la totalidad compleja?

Claramente, se trata del “agente”. Lo simple está constituido por los agentes económicos –consumidores, hogares o empresas– y sus comportamientos. Típicamente se supone que es un agente racional maximizador, que se relaciona con otros agentes desde su constitución como átomo, aislado.[7] Es desde la acción de ese átomo que debe derivarse, según el neoclásico, el comportamiento de la totalidad. Sólo hay explicación científica, se afirma, cuando se logra esto. Esta cuestión está claramente formulada en Krugman (1996):

Los economistas creen, en general, que han “explicado” algo cuando pueden demostrar que ciertos fenómenos colectivos de interés tendrían como origen la interacción de comportamientos individuales, normalmente regidos por el propio interés; o sea, los fenómenos globales de nivel superior se explican en función de “microfundamentos” de nivel inferior. Los economistas creen, por ejemplo, que comprenden la hiperinflación. El proceso funciona así: ante una inflación cuya raíz es la emisión monetaria por el Estado, los individuos tratan de reducir el monto de dinero efectivo en su poder; pero este empeño eleva más rápidamente aun los precios, generando nuevos esfuerzos por reducir la tenencia de efectivo, etcétera. El fenómeno del nivel superior, la hiperinflación, es explicado en términos del comportamiento del nivel inferior, los esfuerzos de los individuos por reducir su tenencia de efectivo. No toda teoría económica logra derivar los macrocomportamientos de las micromotivaciones, pero ésa es siempre su meta [p. 721; en Kugman (1997) la formulación es muy similar].

Krugman sostiene que la teoría neoclásica no conoce los fundamentos microeconómicos del desarrollo económico. Por eso dice que los economistas que abordan el desarrollo se parecen a los geólogos que se enfrentaban al conocimiento de las cordilleras antes del descubrimiento tectónico de las capas. Estos economistas, continúa Krugman, sólo tienen vagas especulaciones sobre las causas últimas del desarrollo, siendo estas “causas últimas” las capas subyacentes de microfundamentos.

Ésta es entonces una tesis central, desde el punto de vista metodológico, de los autores neoclásicos, que impregna toda la literatura “académicamente correcta”. El punto de partida del análisis siempre son las unidades económicas consideradas como átomos. Así, por ejemplo, se considera que los hogares (o los consumidores) tienen gustos y preferencias que se pueden identificar de forma independiente del entorno social en que están esos hogares, y de cualquier otra dimensión social. En otras palabras, esos gustos y preferencias no dependen, de alguna manera fundamental o que sea imposible de eliminar, de las relaciones sociales en que están inmersos los individuos. Los hogares se comportan según un axioma de racionalidad-optimización que se considera “dado”, previo a lo social. Naturalmente, la corriente principal no niega que los individuos se relacionen unos con otros, y que esas relaciones impongan restricciones a lo que hacen. Sin embargo lo importante es que el individuo desemboca en esas relaciones sociales desde una constitución no social de sus gustos y preferencias. Es por esto que típicamente el análisis neoclásico parte de Robinson. Las características esenciales de la economía están presentes en su isla y lo social surge por el simple agregado de los comportamientos individuales. Esto significa que muchos Robinson viven en muchas islas, y a partir de determinado momento se conectan y comercian. Entonces pueden ocurrir, y ocurren, cambios; pero los mismos están predeterminados por la constitución atomística previa de cada uno de los Robinson.

Este método lo podemos ver en escritos que constituyen pilares de los modelos actuales. Mencionamos tres casos representativos.

El primero, son los modelos macroeconómicos de los nuevos keynesianos, en los que se basan las políticas del inflation targeting que aplican hoy muchos bancos centrales. La nueva ecuación del IS se construye sobre el supuesto de que los hogares optimizan sus decisiones de consumo y ahorro, y que esto es lo decisivo. Esto es, el output depende de las decisiones optimizadoras de consumo y las expectativas de los hogares. De la misma manera, se establece una nueva curva Phillips neo-keynesiana que se deriva de las decisiones individuales de las empresas de establecer precios. O sea, las dos ecuaciones (lineales) de comportamiento evolucionan explícitamente de la optimización de hogares y firmas. Clarida et al. (1999), ampliamente referenciado en la literatura sobre política monetaria, es explícito al respecto.

El segundo caso representativo son los modelos de crecimiento económico. En los modelos de crecimiento usuales (que continúan en la tradición de Koopmans y Ramsey) lo decisivo es la preferencia intertemporal del agente representativo, y el rendimiento de los activos de capital que los individuos pueden anticipar racionalmente [véase, por ejemplo, Aghion Howitt (1998); Romer (1996)]. Dados ciertos valores iniciales –que dependerán de condiciones establecidas– el modelo determina toda la secuencia posterior. Así, existen “leyes de movimiento” que están rígidamente establecidas a partir de las variables independientes, dadas de una vez, y para siempre. En particular, la tasa de preferencia intertemporal está “dada” a priori, por fuera del modelo, ya que es su diferencia con la tasa de rendimiento del capital la que determina la tasa de acumulación y el crecimiento de la economía. Nuevamente, es lo subjetivo, la preferencia individual, la que determina el comportamiento global del largo plazo.

Mencionamos por último el enfoque intertemporal de la balanza de pagos [véase Obstfeld y Rogoff (1996)] donde también el punto de partida es el consumidor representativo que maximiza su función de utilidad, dada una constricción presupuestaria intertemporal.

Una vez más aquí prevalece el paradigma de la física, en el sentido de querer derivar todo a partir de algunos primeros principios. Si en el siglo 19 esos primeros principios estaban dados por las leyes de Newton, hoy podrían estar dados por las leyes de la mecánica cuántica. Cambia la forma, pero el contenido de la idea continúa. Si los físicos pueden derivar todos los fenómenos “macro” de las leyes de los fenómenos “micro” subatómicos, ¿por qué no puede hacerlo el economista, a partir de los correspondientes átomos sociales?

 

La emergencia de lo complejo en física

 

Sin embargo es una realidad que la física no ha logrado derivar lo complejo de lo simple. Que haya muchos físicos que crean que esto será posible, y sigan buscando la “teoría del todo”, es una cosa.[8] Pero lo cierto es que, hasta el momento, no se ha logrado. Más aún, existe una corriente de físicos que sostiene que el afán derivacionista mismo no tiene sentido, debido a que la emergencia de lo complejo plantea el surgimiento de estructuras que son cualitativamente distintas, e  irreductibles a los niveles inferiores. En consecuencia, y como sostiene Laughlin (2007), no se puede explicar el comportamiento del conjunto a partir del comportamiento de las partes.[9] Por ejemplo, las formas y las estructuras complejas de los cristales no se pueden predecir a partir de los principios de la mecánica cuántica elemental, ya que se trata de efectos colectivos que surgen de principios de organización, que implican grandes números. Por eso son fenómenos que no se verifican a nivel micro.

De la misma manera, cuando se estudia la relación entre la presión, el volumen y la temperatura de los gases surge un número universal que caracteriza la ley de los fluidos gaseosos, que se conoce con una precisión de una millonésima. Sin embargo cuando se lo aplica a cantidades pequeñas se observan errores considerables, y cuando se utilizan unos pocos átomos la constante no es siquiera medible. De nuevo, esto tiene que ver con principios de organización, donde lo importante es entender el efecto colectivo, que no puede derivarse de las leyes microscópicas por las que se rige. Por eso el reduccionismo a toda costa a las partes simples, o el derivacionismo desde lo simple o micro, fracasan una y otra vez. Otro ejemplo es la carga del electrón. Se puede pensar en la carga del electrón como una unidad de la naturaleza que no necesita ningún contexto colectivo para adquirir significado (paralelo al “Robinson” del economista neoclásico). Sin embargo la experimentación revela, como argumenta Laughlin, que la carga del electrón sólo tiene sentido en un contexto colectivo, proporcionado por el vacío del espacio, que modifica la carga de los electrones y las longitudes de onda de los átomos; o por cierta materia que predomine sobre los efectos del vacío.

Demos aún otro ejemplo, la teoría cinética de los gases. Generalmente se supone que los gases están compuestos por átomos que obedecen las leyes de Newton, y a partir de aquí se sostiene que la teoría cinética explica la ley de los gases ideales, porque da cuenta del origen de esa ley. Pero esto es imposible porque las leyes de Newton no funcionan a nivel atómico; los átomos y las partículas subatómicas responden a las leyes de la mecánica cuántica, que son distintas de las newtonianas. Con lo que se concluye que las leyes de Newton son emergentes. Esto significa que son una consecuencia de la agregación de la materia cuántica, que forma fluidos y sólidos macroscópicos, que constituyen fenómenos de organización. Por eso las leyes de Newton emergen en el límite con lo macroscópico, y no se pueden derivar de lo microscópico. Esto explica que no se haya establecido un eslabón lógico entre ambos niveles. Por esta razón es que no se puede demostrar deductivamente que las leyes microscópicas determinen, por ejemplo, las fases de la materia –los estados sólido, líquido y gaseoso– o la asombrosa ordenación de los cristales. Surgen así comportamientos que son exactos en muestras grandes –y dan lugar a las constantes fundamentales con que trabaja la física–, pero inexactos o inexistentes en muestras pequeñas. Y las leyes simples subyacentes pasan entonces a ser irrelevantes e impotentes para explicar esos principios de organización. ¿No debería tomar en consideración estos hechos el economista neoclásico, a la hora de postular el derivacionismo individualista a toda costa, inspirado en la física, cumbre de las cumbres de “la ciencia”?

 

También en biología…

    

Señalemos que también en biología el reduccionismo fracasa. Hodgson (1995) explica cómo desde la publicación del Origen de las especies de Darwin los biólogos se enfrentaron a la idea de que los fenómenos biológicos podrían reducirse y explicarse en términos de las leyes de la física clásica y la química que rigen las partículas de la materia inerte, sus movimientos y fuerzas. Pero con los desarrollos de la biología de la posguerra este programa comenzó a declinar, porque los comportamientos biológicos no pueden explicarse a partir de la reducción de las totalidades a sus partes simples y mecánicas, sean las células, las moléculas o los genes. Por caso, no se puede comprender el comportamiento social de los animales derivándolo de los genes. Así es que los biólogos tienen una visión de la globalidad de los sistemas vivos, porque cada vez hay más conciencia de que no se puede predecir reduciendo los fenómenos complejos “al comportamiento interactivo de las partes individuales y atómicas” [Hodgson (1995) p. 339]. De nuevo aparece la importancia de las propiedades que emergen a partir de la organización de sistemas; lo cual implica, una vez más, que el todo es más que la suma de las partes. Y el todo, a través de lo que se llama causación descendente puede afectar a las propiedades de los niveles inferiores. Un importante biólogo escribe:

Todo biólogo debería insistir en que disecar los sistemas biológicos en partículas elementales sería, sin duda alguna, la peor manera de estudiar la naturaleza [Mayr, citado por Hodgson (1995) p. 342].  (…)

Los sistemas en cualquier nivel jerárquico, tienen dos características. Actúan como un todo (como si fuese una entidad homogénea) y sus características no pueden (ni siquiera en teoría) deducirse del más completo conocimiento de sus partes por separado, o en combinaciones parciales. En otras palabras, cuando se ensamblan estos sistemas a partir de sus componentes aparecen nuevas características del todo que no podían predecirse a partir del conocimiento de las partes (ídem, pp. 345-346).   

La física y la biología no han logrado derivar las totalidades de las partes simples. Sin embargo nadie les niega su carácter de ciencias. ¿Por qué entonces el economista neoclásico afirma que no hay ciencia del desarrollo si no se puede derivar el desarrollo de “partes simples”?

 

La teoría del caos y el derivacionismo

 

También la teoría del caos demuestra la imposibilidad de derivar de forma mecánica comportamientos macro en economía, o de realizar predicciones más o menos exactas. La teoría del caos dice que en determinados sistemas muy pequeñas variaciones en los parámetros esenciales pueden generar cambios muy importantes, dificultando o limitando mucho las predicciones. Por ejemplo, el fenómeno de la convección (el aire caliente se eleva) está expresado por un sistema de tres ecuaciones lineales. Lo interesante es que para determinados valores de los parámetros la convección es estable. A partir de un punto crítico, comienza la convección, y superado otro punto crítico la convección ya no es estacionaria. En este punto la teoría lineal ya no es válida; esto es, la teoría lineal puede decirnos dónde ocurre la inestabilidad, pero no lo que sucede como consecuencia de ella. No hay manera de predecir [Stewart (2007)]. Lo mismo sucede con muchos otros casos (recordemos el ejemplo de la ecuación kx2 – 1) en donde una pequeña variación de un parámetro puede llevar a un sistema a oscilar de manera periódica; o a moverse sin orden ni concierto; o a converger hacia un estado estacionario, etcétera. Pero si esto es así, nunca podremos estar seguros de que los cómputos de los parámetros iniciales sean lo suficientemente precisos como para predecir un resultado. Si esto ocurre con sistemas físicos y naturales, con más razón es de esperar que suceda con la sociedad, y la economía en particular. Ésta es otra razón para poner bajo un signo de interrogación el método reduccionista deductivo que pretende imponer la economía neoclásica como criterio supremo de ciencia.   

 

El método de derivación en economía

 

Por otra parte, es notable que en los hechos los economistas neoclásicos jamás terminan de “derivar” matemáticamente lo macro de lo micro. Para ver por qué, recordemos que lo importante es pasar de lo simple a lo complejo. Ahora bien, ¿qué es “lo simple”? Ya hemos dicho que es el átomo. Debido a que en la sociedad esos “átomos” son todos distintos, el economista neoclásico simplifica la cuestión postulando la existencia de un agente representativo, que encarna el prototipo de todos los agentes. Es claro que todo esto es una abstracción (no existen clases sociales, diferencias de género, etc.), pero en aras de la argumentación, sigamos el juego neoclásico. El tema es cómo se pasa de este individuo a la sociedad; y cómo este paso está garantizado, en su rigurosidad científica, por las matemáticas (exigencia que ha puesto el economista neoclásico). ¿Qué paso “deductivo” y matemático se realiza entonces?

La respuesta es que no existe paso deductivo alguno. Ni lógico ni matemático. Es que simplemente se afirma (no se demuestra, se afirma) que lo que hace la sociedad de conjunto es lo que hace el “agente representativo”, agregado. Lo cual es una petición de principio. Esto es, se supone lo que debería demostrarse, a saber, que lo que hace la sociedad es igual a lo que hace el agente representativo. La sociedad hace “en grande” lo que el agente representativo hace “en pequeño”. Por ejemplo, en las ecuaciones macroeconómicas de los nuevos keynesianos no se encuentra en realidad un pasaje desde la función de consumo de los hogares a lo que ocurre a nivel macro; lo que sucede a este nivel simplemente es el resultado de la agregación de lo micro. También la nueva curva Phillips sólo refleja una relación de agregación, que no se discute. Lo mismo sucede con el modelo intertemporal de balanza de pagos. Lo que hace “el país” es, en última instancia, lo que hace el consumidor-ahorrista “agregado”, que arbitra entre el consumo/ahorro presente y futuro. Y algo similar ocurre con los modelos de crecimiento. En cada caso la teoría sencillamente postula que el estudio de lo macro equivale al estudio de lo micro sumado.

Todo el programa de investigación neoclásico gira en torno a esta problemática. Por eso no podemos hablar propiamente de “derivación” a partir de lo individual. El economista en realidad se limita a reemplazar la expresión “el individuo representativo” por la expresión “el agregado que actúa como el individuo representativo”.

Agreguemos, por otra parte, que la introducción de los fundamentos “micro” en lo macro no sumó ningún conocimiento importante al corpus teórico tradicional de la macroeconomía y otras ramas de la teoría neoclásica. Esta situación la admite Romer (2002), referente de los nuevos keynesianos. Romer reconoce que las matemáticas de los nuevos modelos se hicieron mucho más complejas, pero que prácticamente no se obtuvo ningún progreso en la comprensión de los fenómenos económicos. Lo que no hace Romer es preguntarse por qué este resultado; ni siquiera se le ocurre plantear la hipótesis de que la misma derivación que se procura no tiene sentido. Algo similar se puede sostener con respecto al programa de investigación con el cual Krugman espera que la teoría del desarrollo adquiera solidez de ciencia.

 

Digresión sobre la complejidad en Krugman

 

Lo que hemos venido explicando hasta aquí debería poner en serios aprietes a la pretensión de los economistas neoclásicos.

A pesar de su importancia, sin embargo, son pocos los economistas del mainstream que encaran el tema. Tampoco es frecuente que estas cuestiones se presenten a los alumnos de grado de las carreras de economía.  Y puede suceder también que cuando se presenta el tema de la complejidad, se lo despoje de su contenido más profundo.

Es lo que sucede con La organización espontánea de la economía, donde Krugman, especula con cierta libertad sobre la influencia de la teoría de la complejidad en física, sobre la teoría económica. El mérito del libro es que se abre a la consideración de esta perspectiva. Pero lo hace de manera tal que termina en un planteo conservador de la teoría económica existente. Es que Krugman intenta conciliar la teoría de la complejidad con la visión individualista y reduccionista de los economistas neoclásicos. Para eso define la complejidad como el estudio de cómo ocurren procesos de autoorganización. Por ejemplo, cómo en las ciudades se dan procesos de autoorganización espacial, a partir de las decisiones de los individuos. Así, por caso, los coreanos se establecen en tal lugar para vivir con coreanos, los negros en tal otro para vivir con los negros, y “la gente guapa se instala en Beverly Hills para vivir con otra gente guapa” [sic, Krugman (1997) p. 10]. De manera que surgirían patrones de organización espacial con altos niveles de segregación a partir de “pequeñas diferencias” en las preferencias acerca de la raza o cultura. Pero en esta perspectiva nada ha cambiado en lo fundamental con respecto a lo establecido. Los “gustos y preferencias” están dados; las clases sociales no tienen absolutamente nada que ver (la gente es “guapa” en Beverly Hills por accidente natural). Lo individual permite la simple agregación hasta lo macro, y la totalidad no aporta absolutamente nada al análisis. No hay emergencia de lo nuevo cualitativo.

Por supuesto Krugman es consciente de que existe otra noción de complejidad, que es la que hemos explicado en el punto anterior. Explica que la complejidad es la ciencia de lo emergente, que dice que los comportamientos colectivos son muy distintos de los que cabría esperar por la simple agregación de los comportamientos de los entes individuales. Incluso cita el ejemplo característico, de que la propiedad emergente de la liquidez del agua  no se desprende del carácter presuntamente líquido de las moléculas de agua tomadas individualmente. Pero en lugar de profundizar en la relación entre esta noción de complejidad y lo que postula el programa de investigación neoclásico, Krugman se limita a señalar que ya era conocida por Adam Smith, cuando decía que el mercado conduce a sus participantes a resultados que nadie perseguía. De esta manera elude el problema central que cuestiona el enfoque de la complejidad: la imposibilidad de derivar el comportamiento del todo del comportamiento de las partes. Por eso, si bien es cierto que La organización espontánea… permite asomarse a algunas cuestiones que los economistas de la corriente principal han eludido por décadas, y continúan eludiendo,[10] escamotea sin embargo la cuestión central que plantea la complejidad. Solo a este precio Krugman puede “conciliar” la “complejidad” con el método “derivacionista” de lo individual que sigue reivindicando.

 

III. Criterios metodológicos en la economía (y en la economía del desarrollo, en particular)

 

 

Lo planteado hasta aquí permite demostrar que el programa de investigación neoclásico que propone Krugman para la economía, y para la teoría del desarrollo en particular, no tiene bases teóricas ni empíricas sólidas. Por eso proponemos –como muchos otros economistas “heterodoxos”– un abordaje del estudio de la economía, y de los problemas del desarrollo, que se libere de las absurdas ataduras que imponen el obsesivo formalismo matemático y el reduccionismo metodológico individualista. Lo cual no significa desechar todo formalismo, o negar los estudios del comportamiento micro o individual. De lo que se trata es, hasta cierto punto, de encontrar una “justa proporción” de las cosas.

 

El uso de las matemáticas y las predicciones económicas

 

Subrayamos que la crítica al formalismo matemático neoclásico no debe interpretarse como rechazo al uso de las matemáticas. Las matemáticas son un instrumento útil y necesario para las ciencias sociales, y existen muchas relaciones que pueden y deben expresarse matemáticamente. Además, el empleo de las matemáticas en economía no es patrimonio exclusivo de los neoclásicos, o de los economistas defensores a ultranza del liberalismo económico; así como tampoco los heterodoxos son sus críticos impenitentes. Say y sus seguidores, defensores a ultranza del liberalismo económico, en el siglo 19 rechazaban el uso de las matemáticas en economía. Marx, crítico del sistema capitalista, trató de expresar muchas de las relaciones esenciales de su teoría en forma matemática; los esquemas de reproducción simple y ampliada, la ley de la tendencia decreciente de la tasa de ganancia, la formación de los precios de producción, están formulados en términos verbales y matemáticos.

Lo que sí hay que tener presente es, en primer lugar, que el uso de las matemáticas en economía no puede evitar la discusión de los supuestos de los que se parte, ni la relación con la realidad de esas ecuaciones y fórmulas. En segundo término, que muchas veces una ecuación puede darnos una idea cualitativa de un fenómeno, pero puede no ser resoluble; o puede ser resoluble en principio, pero el teórico puede no disponer de los datos o parámetros que permitan darle valores precisos, o predecir el curso futuro de los acontecimientos. Por ejemplo, matemáticamente se puede expresar la ley que habla de la tendencia decreciente de la tasa de ganancia a medida que aumenta la inversión de capital constante por obrero (según la teoría de Marx). Aquí, en primer lugar, lo importante es constatar que esto tenga su correspondencia con la realidad (la inversión de capital por obrero, ¿crece efectivamente con el desarrollo capitalista?). Y en segundo término, a partir de esta ley tendencial se puede predecir que en el sistema capitalista habrá un impulso a las crisis recurrentes. Ésta es una predicción científica, que surge de determinaciones fundamentales del sistema. Pero no son determinaciones que permitan predecir lo que va a suceder como si se tratara del mecanismo de un reloj. Cuándo estallará una crisis, cuál será su dinámica, su profundidad, las condiciones de su salida, etc., dependerán de múltiples variables que ningún sistema de ecuaciones está en condiciones de recoger. Ni siquiera existe la precisión necesaria en los datos como para hacer esas predicciones; y ninguna teoría, neoclásica o heterodoxa, está en condiciones de hacerlo. Obsérvese al respecto la actual crisis (en curso) financiera de Estados Unidos. No hay modelo económico que pueda decir, en plena crisis, cuánto caerá el producto, la inversión o el consumo, o cuáles serán las pérdidas de los bancos de aquí a tres meses (no hablemos ya de algún plazo más largo). Esto a pesar de que los ojos y las mentes de los más brillantes analistas siguen minuto a minuto el desenvolvimiento de la crisis. Más aún, ni siquiera la Reserva Federal pudo aplicar “a rajatabla” los modelos macroeconómicos de los nuevos keynesianos con los cuales, supuestamente, debería establecer de forma determinística, matemáticamente exacta, la política monetaria. Existen ignorancias paramétricas que son insuperables; hay datos que no se conocen por la propia naturaleza de la actividad privada: ¿cuánta deuda basura emitieron bancos y financieras, por caso? O datos que llegan con retrasos; a lo que se suma la incógnita que siempre representan las reacciones de las clases y grupos sociales: ¿cómo reacciona el mercado ante un mal balance de una gran empresa? No hay modelo capaz de predecirlo.

Si esto es así, y se agregan comportamientos no lineales –movidos por los “espíritus animales”, de los que hablaba Keynes– puede comprenderse cómo pueden surgir movimientos caóticos, esto es, que no sigan patrones regulares y predecibles.          

Asimismo, si es imposible predecir en el corto plazo la evolución de una crisis, también es imposible establecer mecánicamente qué países se desarrollarán en el largo plazo, y cuáles no, a partir de algunas ecuaciones o sistemas de ecuaciones; o de algunas variables “dadas”. Aquí las variables, si se quiere, son todavía más complejas e impredecibles que en los modelos macroeconómicos de corto plazo. Los comportamientos políticos, las luchas de clases, los desarrollos tecnológicos, los recursos naturales, etc., inciden de manera intrincada. Es también imposible, por todo lo que hemos explicado, pretender derivar estas cuestiones de partes simples y agentes individuales.

¿Significa esto que no hay posibilidad de ciencia?

No, en absoluto. En primer lugar porque no toda ciencia tiene por qué ser predictiva; por lo menos en un sentido determinístico y mecánico. Una ciencia puede ser en gran medida explicativa. Por ejemplo, la biología no puede predecir cómo evolucionarán las vacas de aquí a 100 años; pero esto no significa que la biología no sea una ciencia. De la misma manera la geología predice que en determinada área se producirá, con toda probabilidad, un terremoto en los próximos 100 años; pero no puede decir en qué fecha ocurrirá, ni de qué magnitud será el temblor. Y no por ello deja de ser una ciencia. De la misma manera, en las diferentes teorías económicas se pueden encontrar criterios que permitan explicar por qué algunos países se desarrollaron más o menos; qué conjunción de factores dieron tales o cuales resultados; y acercarse al estudio de escenarios posibles. En todo esto los “modelos” serán de utilidad más bien limitada; pero no por eso dejará de ser una discusión científica, que demanda rigurosidad conceptual.

Por otra parte –y esta es una diferencia con Lawson y los poskeynesianos– pensamos que la teoría económica puede descubrir movimientos tendenciales de largo plazo, a partir de leyes sociales, como son la ley del valor-trabajo, de la plusvalía, y la acumulación del capital. Estos movimientos tendenciales permiten prever impulsos de largo plazo; por ejemplo, a la profundización del mercado mundial, en tanto continúe existiendo el sistema capitalista. Pero jamás de estas tendencias podrán derivarse los comportamientos singulares; por ejemplo, los ritmos y formas particulares del desarrollo. Dejamos apuntada esta diferencia importante con la visión poskeynesiana, que tratamos más ampliamente en otros escritos [véase, por ejemplo, Astarita 2006].

 

¿Ideas falsas con formalizaciones exactas, o viceversa?

   

Por otra parte es equivocado la noción (la vimos en Krugman, y es una constante en los neoclásicos) de que es preferible tener formulada matemáticamente una idea falsa, que expresar una idea correcta, aunque no se pueda expresar con una ecuación. Que alguien diga en ecuaciones matemáticas que el Holocausto no existió, no está más cerca de la verdad que el que afirma que el Holocausto sí existió, aunque no lo pueda expresar matemáticamente. El primer criterio de verdad es la concordancia con la práctica y la realidad; no la coherencia matemática de la formulación.     

 

Las matemáticas y la coherencia interna

 

Con todas las mediaciones y prevenciones que hemos señalado, es necesario subrayar que las matemáticas juegan un rol en las discusiones sobre la coherencia lógica de los planteos. En este respecto es notable que los teóricos neoclásicos, que insisten en que el uso de las matemáticas permite rigurosidad y evita fallas lógicas, dejen desatendidas críticas lógicas esenciales a los fundamentos de su propia teoría. Para verlo, volvamos a la crítica tradicional de Cambridge de la teoría neoclásica del capital. Esta crítica no se limitó a señalar que los supuestos neoclásicos estaban reñidos con la realidad, sino también demostró que la teoría del capital tiene incoherencias internas.

Sin embargo han pasado los años, y a pesar de las protestas neoclásicas de “rigurosidad teórica”, la cuestión sigue sin solucionarse. Así es que la función de producción, pilar de la teoría del capital, se sigue enseñando en los cursos como si fuera “la cosa más normal del mundo”.

Dado que aquí tenemos un ejemplo de cómo las matemáticas pueden utilizarse para evidenciar errores lógicos, presentemos una demostración sencilla de cómo la concepción neoclásica del capital es incoherente.[11]

Siendo y = producto por obrero; k = capital por obrero; r = tasa de interés, o rendimiento del capital; w = salario; y = f (k) (función de producción de rendimientos decrecientes, derivable), tenemos:

y = r k + w

Derivando, tenemos:

dy = r dk + k dr + dw

Dado que r es igual a la productividad marginal del capital, debe ser:

 r = dy/dk

Por lo cual debe ser k = – dr/dw   (1)

Pero por otra parte sabemos que r = (y – w)/k

Por lo cual debe ser k = (y – w)/r   (2)

De manera que tenemos dos definiciones de k, dadas por (1) y (2) que sólo coinciden en el caso –que no existe en el capitalismo– en que las composiciones de capital de todas las ramas de la economía fueran iguales (demostrado por Samuelson). En todos los demás casos, (1) y (2) nos dan distintas definiciones de capital.

Agreguemos que la función de producción neoclásica está en la base de la microeconomía y la macro, y de los modelos de crecimiento. Krugman (1997) reconoce que se trata de uno de los fundamentos de la teoría económica que no logra explicar las diferencias en el desarrollo entre los países.

Puede advertirse entonces que las matemáticas, en este caso, ponen en evidencia fallas lógicas importantes. Pero también es necesario aclarar que en sí misma no es suficiente; debe combinarse siempre con la discusión conceptual. Por ejemplo, en este caso, lo que revela la incoherencia lógica es la ausencia de una noción de qué es “capital”, y del origen de la ganancia.

En definitiva, la investigación científica avanza por la indagación y constatación empírica, combinada con la discusión conceptual, y la formalización matemática (cuando es posible y necesaria), como herramienta auxiliar. Se trata de una totalidad que no puede prescindir de ninguno de sus momentos.

 

Holismo “moderado”

 

De la afirmación de que el todo es más que las partes no debería derivarse que las partes no existen, o no tienen importancia. Este último es el planteo de Durkheim, que podríamos llamar un holismo absoluto. Para Durkheim los hechos sociales son exteriores al individuo, y no tienen base en éste, sino en la sociedad. El hecho social “tiene una existencia propia, independiente de sus manifestaciones individuales” [Durkheim (1986) p. 46]. Ésta sería la postura completamente opuesta a la del individualismo metodológico neoclásico.

En cambio el holismo “moderado” que defendemos no anula al individuo, pero sostiene que los individuos son, antes que nada, seres sociales. Robinson Crusoe no existe en cuanto ente a-social, o previo a lo social. El náufrago de la novela de Defoe, por más aislado que estuviera en su isla, era un producto de la sociedad inglesa de su tiempo, y no podía dejar se serlo. Siguiendo a Hegel, Westphal señala con acierto:

Los individuos son, fundamentalmente, practicantes sociales. Todo lo que una persona hace, dice, o piensa, está formado en el contexto de prácticas sociales que proveen los recursos materiales y conceptuales, los objetos de deseo, las habilidades, procedimientos, técnicas y ocasiones y oportunidades para la acción, etcétera. [Westphal (2003) p. 107].

Pero esto no anula al individuo, ya que así como no existen individuos sin prácticas sociales, viceversa, no hay prácticas sociales sin individuos que aprenden, participan en ellas, perpetúan o modifican esas prácticas sociales para satisfacer necesidades, aspiraciones y circunstancias cambiantes (ídem). Por eso se puede decir que el todo es más que la suma de las partes; que el todo determina la naturaleza de las partes; que las partes no pueden ser consideradas en aislamiento del todo; y que las partes están dinámicamente interrelacionadas (ídem, p. 111). Por ejemplo, el comportamiento del ejército es más que la suma de los soldados. La actitud del soldado, en cuanto tal, está determinada por el todo, el ejército; de manera que sus disposiciones, psicología, actitud, etc., no pueden ser consideradas en aislamiento con respecto al ejército. Y los soldados, o las partes del ejército (batallones, etc.) están dinámicamente interrelacionadas. Todo lo cual no implica pensar que el todo sea una realidad trascendente, que exista por fuera de las partes (el ejército no existe por fuera de los soldados que lo componen), como podría desprenderse del planteo de Durkheim.

Esta noción nos lleva a la idea de totalidad concreta –de Hegel, también compartida por Marx– que es la idea de que existe una interrelación entre los singulares (por ejemplo, los soldados); los particulares (escuadrones, batallones) y el universal (el ejército, en nuestro caso). Cada una de las instancias media a las otras, y es mediada por ellas. El ejército es el “universal”, o sea, el medio en el que existen los particulares y los singulares, y que los abarca y determina en su naturaleza; pero a la vez el todo no existe como una totalidad abstracta, vacía. Sólo existe a través de las interacciones mutuas y evoluciones de los singulares y particulares. Esta es entonces una concepción más rica y compleja que la que propone el reduccionismo, o el derivacionismo individualista.   

 

Complejidad, dialéctica y desarrollo económico

 

El estudio de la emergencia de sistemas complejos, de totalidades “concretas”, lleva a una revalorización de la concepción dialéctica. Como plantea Rosser (2000), lo que está en discusión es la existencia de transformaciones sistémicas de la economía política que implican cambios cualitativos –y por eso mismo no pueden captarse con el reduccionismo–. La teoría del caos, las teorías de los modelos dinámicos emergentes complejos, donde entran en juego dinámicas no lineales, permiten una formalización matemática del cambio cuantitativo que lleva a cambios cualitativos. En un modelo lineal, los cambios continuos en las variables no llevan a cambios discontinuos de los resultados. Pero en los órdenes emergentes complejos, pasados ciertos umbrales se producen bifurcaciones y emergen nuevas realidades, cualitativamente distintas de las anteriores. Estos “saltos” son los que están implicados cuando se desata una crisis, por ejemplo, y la economía entra en estado de “turbulencia”, y evoluciona hacia estados caóticos. O comienza a oscilar fuertemente en torno a “atractores”, como pueden ser situaciones de alto desempleo y caída del producto, etcétera.  

Lo importante es que las investigaciones sobre las dinámicas complejas que no evolucionan espontáneamente hacia un punto de equilibrio, abren nuevas perspectivas al economista. El libro de Krugman que comentamos más arriba refleja esta situación. Se trata de enfoques que surgieron a partir del trabajo con modelos no lineales, y de la conciencia de que el reduccionismo neoclásico está llevando a demasiados callejones sin salida.[12] En particular, hay tres centros a nivel mundial en que se está trabajando en este respecto: el Santa Fe Institute, en Nueva Mexico, EUA, que fue promovido inicialmente por el Citibank; el instituto de la Free University, en Bruselas, que se ubica en la corriente de Prigogyne; y el de la Stuttgart Universtiy. Algunos de estos trabajos reducen lo complejo a las interacciones entre agentes, sin un controlador global. Pero otros abordan la cuestión de las totalidades complejas, con sus jerarquías entrelazadas; los aprendizajes adaptativos, la evolución, el surgimiento de lo nuevo y las dinámicas por fuera del equilibrio. Se puede estudiar de esta manera la evolución tecnológica dependiente de senderos históricos y sociales; la aparición de discontinuidades como crisis o crashes de burbujas especulativas, o el colapso de sistemas enteros.

Lo más importante, en nuestra opinión, es que en lo que respecta a los estudios sobre el desarrollo (y la economía en general) algunos comienzan a admitir que la complejidad implica la existencia de múltiples estructuras en la economía, con intrincadas interrelaciones. Tal vez muchas de estas cuestiones no se puedan formalizar; o tal vez sólo se puedan reflejar con algunas pocas ecuaciones que permitan análisis cualitativos. Pero es posible que el progreso de los estudios sobre desarrollo dependa de la disposición de los investigadores a encarar estas cuestiones. En particular el marxismo –que históricamente abogó por una concepción social y crítica de la economía, concebida como totalidad compleja– podría verse muy enriquecido con estos estudios.   

 

A modo de conclusión, “economía seria” y selección darwinista

 

Además de “abrir las mentes” a estas nuevas perspectivas, con este trabajo queremos poner bajo serio cuestionamiento la idea de Krugman de que la única “economía seria” es la que sigue los preceptos metodológicos de la formalización matemática a toda costa, y el derivacionismo individualista. Como vimos, no hay bases epistemológicas para sostener tal cosa. La riqueza del concepto sólo se va a desplegar si abandona el callejón sin salida que propone este programa neoclásico.

Por eso también queremos poner en cuestionamiento la tesis de superioridad neoclásica que se inculca en los estudiantes de economía desde los primeros cursos. En particular, la idea de que si la teoría neoclásica hoy es la predominante, ello se debería a que ocurrió un proceso de selección natural entre las diferentes teorías en disputa. Una idea que encontramos en Blanchard y Pérez Enrri:

La macroeconomía es… el resultado de un proceso continuo de construcción, interacción de las ideas y de los hechos. Lo que hoy creen los macroeconomistas es el resultado de un proceso evolutivo en el que han eliminado las ideas que han fracasado y han conservado las que parecen explicar bien la realidad [Blanchard y Pérez Enrri (2000) p. 2].

Tenemos aquí darwinismo epistemológico en estado puro. Blanchard y Pérez Enrri, por supuesto, no aportan dato alguno sobre en qué lugar existió alguna interacción real de ideas entre neoclásicos y las múltiples corrientes heterodoxas y críticas. No pueden hacerlo por la sencilla razón de que, sistemáticamente, los neoclásicos no responden a sus críticos. Y pasan por alto las múltiples manifestaciones, surgidas incluso del propio campo neoclásico, sobre cómo los modelos macroeconómicos (y otros, como los de crecimiento; para no hablar de la teoría del equilibrio general) no logran explicar los hechos más sencillos de la realidad.

Pero además, y fundamentalmente, su explicación darvinista adolece de un defecto esencial: no explica por qué la selección natural de teorías ocurrió en base al criterio “explicar la realidad”, cuando existen tantos autores neoclásicos que están reconociendo que su teoría no explica la realidad.

Por eso es muy plausible pensar la hipótesis de que –dado que vivimos en una sociedad dividida en clases sociales–, la teoría neoclásica ha prevalecido por la sencilla razón de que se ha convertido en una apología del estado de cosas existentes. Cuestiones que están en la base del edificio neoclásico, como el individualismo metodológico, la teoría del capital y la función de producción, los agentes optimizadores, la teoría marginal de distribución de la renta, etc., se han demostrado con fundamentos lógicos y empíricos inexistentes, o simplemente ficticios. Sin embargo se siguen manteniendo “contra viento y marea”. Es posible entonces que haya habido ese proceso darwinista del que hablan Blanchard y Pérez Enrri. Pero todo induce a pensar que se trató de una selección “social” con una fuerte determinación de clase. La teoría neoclásica prevaleció, según nuestra hipótesis darvinista, porque es la que mejor se adaptó a las necesidades de legitimación del régimen de explotación del trabajo asalariado.

Por lo argumentado, parece necesario abordar el estudio de los sistemas complejos y de sus dinámicas de largo plazo, esto es, la problemática del desarrollo, con la mente abierta a la posibilidad de enfoques alternativos –aunque no estén formalizados, o sólo lo estén parcialmente– que encaren la “dura realidad” despojada de “bellas mentiras matemáticas”. 

 

  

            

 

 

Bibliografía:

 

Aghion Howitt (1998): Endogenous Growth Theory, Cambridge, Massachussets Mit Press. 

 

Astarita, R. (2006): Valor, mercado mundial y globalización Buenos Aires, Kaicron.

 

Bhaduri, A. (1977): “Comentario sobre la importancia de controversias recientes sobre la teoría del capital: una visión marxista”, en G. C. Harcourt y N. F. Laing, Capital y crecimiento, México, FCE, pp. 249-257.

 

Blanchard, O. y D. Pérez Enrri (2000): Macroeconomía, Buenos Aires, Prentice Hall.

 

Clarida, R.; J. Gali y M. Gertler (1999): The Science of Monetary Policy: A New Keynesian Perspective”, Journal of Economic Literature, vol. 37, pp. 1661-1707.

 

Durkheim, E. (1986): Las reglas del método sociológico Madrid, Hyspamerica.

 

Greene, B. (2006): El universo elegante, Barcelona, Crítica.

 

Hodgson, G. M. (1995): Economía y evolución. Revitalizando la Economía, Madrid, Colegio de Economistas.

 

Krugman, P. (1994): “The Fall and Rise of Development Economic”, en www.pkarchive.org

 

Krugman, P. (1996): “Los ciclos en las ideas dominantes con relación al desarrollo económico”, Desarrollo Económico, octubre-diciembre.

 

Krugman, P. (1997): La organización espontánea de la economía, Barcelona, Bosch.

 

Lavoie, D. (1989): “Economic Chaos or Spontaneous Order? Implications for Political Economy and the New View of Science”, Cato Journal, vol. 8, pp. 613-635.

 

Lawson, T. (2003): Reorienting Economics, Londres y Nueva York, Routledge; varios capítulos en www.econ.cam.ac.uk/faculty/lawson. 

 

Lawson, T. (2005): “The nature of heterodox economics”, Cambridge Journal of Economics, en www.econ.cam.ac.uk/faculty/lawson.  

 

Laughlin, R. (2007): Un universo diferente. La reinvención de la física en la edad de la emergencia, Buenos Aires, Katz.

 

Obstfeld, M. y K. Rogoff (1996): “The Intertemporal Approach to the Current Account”, NBER Working Paper 4893, abril; también en Handbook of International Economics, vol. 3, Amsterdam, North-Holland, Elsevior Press 1995.

 

Romer, D. (2000): “Keynesian Macroeconomics without the LM curve”, NBER Working Paper 7461, enero.

 

Romer, P. (1996): Advanced Macroeconomics, Nueva York, McGraw Hill.

 

Rosser, J. (1999): “On the Complexities of Complex Economic Dynamics”, Journal of Economic Perspectives, vol. 13, pp. 169-192.

 

Rosser, J. B. (2000): “Aspects of dialectics and non linear dynamics”, Cambridge Journal of Economics, vol. 24, pp. 311-324.

 

Stewart, I. (2007): ¿Dios juega a los dados?, Barcelona, Crítica.

 

Walras, L. (1987): Elementos de economía política pura, Madrid, Alianza Universitaria.

 

Westphal, K. R. (2003): Hegel’s Epistemology, Indianapolis Cambridge, Hackett Publishing.

   

      

        

 

 



[1] Nos basamos en Lawson (2003), cap. 10. De todas maneras la escuela liberal de Say y sus seguidores, que era dominante en Francia del siglo 19, rechazaba la idea de expresar las leyes económicas a través de las matemáticas. 

[2] Walras, por ejemplo, planteaba que la economía política pura, que debía preceder a la economía política aplicada, “es una ciencia semejante a las ciencias físico-matemáticas en todos los aspectos”. De lo cual se deduce que su método es el matemático. “Si la economía política pura, o la teoría del valor de cambio y del intercambio… es como la mecánica, como la hidráulica, una ciencia físico-matemática, no debe temer el empleo de los métodos y el lenguaje matemáticos” [Walras (1987) p. 152]. 

[3] Naturalmente, también se dejará de lado cualquier fenómeno por el que asome alguna evidencia de que estamos en presencia de una sociedad basada en la explotación; véase más abajo.

[4] Aunque Krugman no lo dice, había también una razón ideológica, y posiblemente más profunda: los rendimientos a escala creciente acaban con la idea de la competencia perfecta. Por eso en los modelos de crecimiento endógeno, donde se incorporan los rendimientos a escala creciente, se lo hace con supuestos irreales. Por ejemplo, el avance tecnológico de una empresa está disponible para toda la rama, sin costo e inmediatamente; y similares.

[5] En lo que sigue nos basamos en Stewart (2007). Ian Stewart es doctor en matemáticas y director del Instituto de Matemáticas de la Universidad de Warwick. 

[6] En este péndulo idealizado la fuerza que actúa sobre el péndulo es proporcional al ángulo que forma con la vertical. En la realidad la fuerza no es exactamente proporcional; lo que hace que resolver este caso sea “desesperadamente difícil” [Stewart (2007) p. 103].

[7] Recientemente algunos neoclásicos han admitido la existencia de racionalidad limitada y comportamientos no regidos por la maximización.

[8] Para quienes somos legos en física, una introducción accesible, y apasionante, a la teoría “del todo” es Greene (2006). 

[9] Robert Laughlin obtuvo en 1998 el Premio Nobel de Física.

[10] Por ejemplo, los modelos no lineales sobre los ciclos económicos, desarrollados particularmente por Goodwin en la década de 1950. 

[11] Lo tomamos de Bhaduri (1977).

[12] Véase Rosser (1999) para lo que sigue.