Descubre la Causalidad en Contabilidad: Ejemplos Clave y Fundamentos Imprescindiblespost-template-default single single-post postid-46 single-format-standard et_pb_button_helper_class et_fixed_nav et_show_nav et_secondary_nav_enabled et_primary_nav_dropdown_animation_fade et_secondary_nav_dropdown_animation_fade et_header_style_left et_pb_footer_columns4 et_cover_background et_pb_gutter et_pb_gutters3 et_right_sidebar et_divi_theme et-db
771 715 4434

La causalidad parece ser una palabra proscrita en el lenguaje de la teoría económica actual. Su desprestigio se debe en parte a las críticas de filósofos empiristas iniciadas por Hume y, en especial, de la escuela neopositivista a comienzos del siglo XX. Esto ultimo parece seguir la tendencia observable en física, donde se prefiere hablar de legalidad -otra forma de describir una relación funcional-, en vez de hablar de causas propiamente dichas.

Sin embargo, es vital la diferencia entre (a) la relación funcional y el esquema lógico-deductivo, que son ambos formalismos con frecuencia aplicables a varios fenómenos muy distintos entre sí, y (b) la teoría propiamente dicha, que surge de las interpretaciones atribuidas a esos símbolos formales, se expresa en hipótesis con contenido fáctico y, por consiguiente, atañe a un fenómeno específico.

Evolución de las Teorías y la Causalidad

A medida que avanza y se enriquece, cada teoría va tomando la forma de un esquema deductivo, pero construido a partir de hipótesis relativamente simples que reflejan un resultado empírico, de observaciones o experimentos que relacionan cambios de ciertas variables o estados con cambios en otras variables o estados. No es cierto que los aristotélicos despreciaran la observación empírica y el experimento: la diferencia esencial está en la interpretación de los resultados que, en su caso, solo admitía lo que fuera compatible con sus premisas generales, que no ponían en discusión.

Por eso mismo, toleraban construcciones eminentemente empíricas, como los epiciclos de la astronomía tolemaica, y admitían que fueran sustituidas por estructuras muy diferentes, como el sistema copernicano, siempre y cuando se interpretaran como simples construcciones fenomenológicas, como cajas negras que describían las apariencias, pero no la esencia, naturaleza o razón de las cosas. Podemos decir que el conflicto cultural no comenzó con Copérnico, que aceptaba el movimiento circular como el único perfecto, sino con las elipses de Kepler, aunque todavía era posible verlas como una simple descripción fenomenológica.

A lo largo del camino, han sido frecuentes los argumentos del tipo navaja de Occam para criticar las nuevas teorías, afirmando que no se deben complicar los modelos ni las teorías ya establecidas para explicar de otra manera los mismos fenómenos. Pero este es un uso inapropiado de Occam: primero, porque toda teoría nueva modifica la visión del problema y puede sugerir observaciones y resultados diferentes, que la visión anterior excluía porque eran contrarios a sus premisas; y, segundo, porque congela la teoría vigente, así como la posición de quienes se oponían a la relatividad porque era más complicada que la mecánica de Newton y coincidía con ella en todos los usos prácticos imaginados hasta ese momento.

Lea también: ¿Qué es la Contabilidad?

Linealidad, Complejidad y la Explicación Sistémica

La búsqueda de explicaciones simples suele desembocar en supuestos de linealidad y no hay duda de que el rápido desarrollo de la física -y la aplicación del método experimental en ella y en otras ciencias- obedeció a que los problemas estudiados eran, casi todos, de carácter lineal, es decir, que admitían la separación en aspectos relativamente independientes entre sí (fase de análisis), cuyas consecuencias luego podían sumarse para hallar un resultado conjunto (fase de composición o superposición).

Al mismo tiempo, con el desarrollo de teorías generales de sistemas, adquirió pleno sentido el emergentismo: la idea de que la organización interna, determinada por las relaciones mutuas entre los componentes del sistema, puede gestar propiedades nuevas en ese agregado, que no están presentes en ninguna de sus partes por separado. La teoría de la complejidad muestra cómo la interacción de componentes que, cada uno por separado, tienen actuaciones muy simples, puede explicar comportamientos extraordinariamente complejos del conjunto, incluso cuando dichas relaciones mutuas son débiles u ocasionales.

Algo semejante se percibió en la física con la mecánica estadística, que explica las leyes de la termodinámica clásica como resultado de la interacción desordenada de un inmenso número de moléculas y es un buen ejemplo de explicación de un nivel macro recurriendo a elementos de un nivel micro inmediato y más simple. Esas leyes de la termodinámica clásica luego aparecen como simples relaciones funcionales entre unas variables macro, aparentemente libres de toda connotación causal.

Y, aunque por razones muy diferentes, esa misma apariencia de relación funcional ajena a la causalidad va apareciendo, casi en forma simultánea, en otras ramas de la física, con el desarrollo de las teorías del campo electromagnético y, más tarde, con las del campo gravitatorio. Con el análisis cibernético, la explicación teleológica o finalista parece reducirse al concepto normal de causalidad eficiente, porque si hay un camino causal que conduce al resultado deseado y garantiza su estabilidad, y si ese fin imaginado es una consecuencia de unos motivos que también tienen explicación en la historia pasada de quien decide, no se necesita el futuro para explicar el presente ni el pasado (Nagel, 1961).

Un detalle importante de la explicación sistémica es que recurre a los componentes del nivel inmediato, sin dar saltos de los agregados globales a las unidades más elementales. El salto de niveles puede dejar a un lado los rasgos generalizables del fenómeno y trae consigo el riesgo de caer en lo circunstancial y anecdótico. Así, en historia, igual que en economía, debemos reconocer que el nivel inmediato es el grupo social y no el individuo.

Lea también: Contabilidad Analítica: Un Análisis Detallado

Por ejemplo, no es posible explicar la influencia del líder sin tomar en cuenta el entorno social que permitió su ascenso, ni la presión de sus seguidores, que a veces lo obligan a ir más allá de sus intenciones originales. En contraste con esta última teoría, a fines del siglo XIX apareció una explicación del consumo que podríamos llamar sistémica, porque atribuye el comportamiento individual a la imitación dentro de un grupo o estrato, combinada con la emulación del estrato superior (Veblen, 1899).

Dinámica Caótica y Modelos Económicos No Lineales

Después de las teorías de sistemas, y con pocos años de diferencia, surgieron la geometría fractal y la dinámica caótica de sistemas no lineales, las cuales demuestran que sistemas sencillos y perfectamente deterministas pueden llevar a resultados imposibles de prever, incluso indistinguibles de procesos estrictamente estocásticos. Otro hallazgo de enorme importancia es que muchos sistemas no lineales admiten atractores extraños, llamados así porque combinan dos propiedades que, hasta ese momento, se creían antagónicas.

Aparecen en sistemas continuos que tienen al menos tres variables de estado, es decir, que son tridimensionales, y son subconjuntos acotados del espacio de estados donde se mueve el sistema. Están contenidos dentro de un volumen finito de posibles puntos de dicho espacio de estados, pero tienen dimensión fractal, así que no llenan el volumen que les sirve como recipiente.

Las trayectorias del sistema que llegan a la zona de atracción permanecen luego en dicho atractor, en un movimiento que es recurrente, porque la trayectoria que pasa por un punto vuelve a pasar infinitas veces por otros puntos cercanos, pero que no es periódica porque no se repite jamás: cuando se dibuja la gráfica de una de esas variables de estado contra el tiempo, se ve una serie de segmentos que parecen seguir cierto orden, a veces casi periódicos, que, de pronto, sufren un cambio drástico y comienzan a fluctuar de manera muy distinta.

Las ecuaciones del sistema pueden ser estrictamente deterministas, pero la trayectoria no es predecible, salvo en lapsos cortos, aunque tampoco sea posible asegurar cuándo terminará esa relativa predecibilidad y aparecerá otro cambio de marcha drástico. Si comparamos dos trayectorias que comienzan en dos puntos del atractor ligeramente separados, la distancia entre esos puntos, medida a lo largo de la trayectoria que siguen, aumenta ex-ponencialmente hasta que supera el diámetro del volumen que actúa como recipiente del atractor: a partir de ese instante, solo es posible decir que ambas trayectorias permanecen sobre el mismo atractor, pero saber por dónde va una no puede decirnos nada acerca del lugar por dónde va la otra.

Lea también: Investigación USMP y Scopus

Este comportamiento recuerda las características de las fluctuaciones macroeconómicas, que nunca se repiten en forma idéntica, aunque sean semejantes en varios aspectos, porque difieren en otros comportamientos que, además, no son siempre los mismos. Los modelos económicos no lineales pueden presentar esta clase de atrac-tores extraños, aunque tengan pocas variables de estado y parezcan relativamente sencillos, como los modelos Keynes-Metzler-Goodwin (Chiarella et al., 2005).

Cambios en la Naturaleza de las Explicaciones

El recuento anterior es importante porque muestra cómo ha cambiado la naturaleza de las explicaciones en la física y, en general, en las áreas técnicas: en vez de un desarrollo lineal y acumulativo, sobrevienen sacudimientos ocasionales que cambian las premisas más fundamentales: las que establecen cuáles son los problemas pertinentes y cuáles respuestas son aceptables. No es un progreso paulatino, basado en la aplicación paciente de un método específico, sino una sucesión de cambios, más o menos drásticos, que modifican las percepciones más fundamentales acerca del objeto de estudio.

La economía neoclásica conserva un aire de escolasticismo porque parte de premisas indiscutidas, como cierta versión de la racionalidad humana que traduce en un supuesto universal de optimización, o la idea de que los agregados son una simple suma de comportamientos individuales, cada uno regulado por preferencias fijas e independientes entre sí. Esta clase de teorías parece irrebatible porque sus defensores solo admiten pruebas compatibles con sus premisas: pueden tolerar inconsistencias protuberantes con la esperanza de descubrir algún día argumentos ad hoc que resuelvan la contradicción, mientras que descartan como herejía cualquier otra teoría que niegue alguna de dichas premisas fundamentales.

Curiosamente, la postura neopositivista proporciona una justificación metodológica a estas teorías de tipo escolástico porque denuncia la explicación causal como ilusión metafísica y, en cambio, acepta las relaciones funcionales como resultado de una descripción de tipo fe-nomenológico. Ambas propuestas metodológicas son inconsistentes con el propósito general de cualquier teoría: relacionar entre sí piezas explicativas de eventos concretos y reales sin recurrir a hipótesis ad hoc u otras formas de intervención divina.

Traza así el bosquejo de un mundo ideal, siempre en equilibrio, donde los individuos escogen con preferencias innatas que no modifican por experiencia propia ni por imitación ni emulación de sus semejantes, y terminan sustituidos por un agente representativo, como si todos fuesen iguales; y donde hay una multitud de empresas que dejaron de competir porque son óptimas e iguales a las demás. Ni siquiera discute la inconsistencia entre unas preferencias dadas y la posibilidad de innovaciones de producto que romperían cualquier esquema de elección prefijado, a menos que creamos que toda novedad ya fue prevista y "descontada" de todas las decisiones pasadas.

De igual manera, pasa por alto la inconsistencia entre el supuesto de unas funciones de producción que guían la decisión empresarial y la realidad cotidiana de innovaciones de proceso y de conocimiento que alteran las condiciones de producción de mil maneras imposibles de prever, gestando rentas extraordinarias para algunos y la quiebra para otros.

Una consecuencia directa del requisito metodológico de optimización dinámica es que sus modelos macroeconómicos solo pueden representar una clase muy especial de sistemas, los llamados hamiltonianos, que no admiten atractores de ninguna clase y que, una vez excluidas las soluciones periódicas, solo pueden tener puntos de silla. El ideal walrasiano es un equilibrio estable que se recupera por sí mismo después de sufrir una perturbación exógena.

Sus espacios de estados contienen algunos puntos especiales, los vértices de las sillas, y unas trayectorias privilegiadas que conducen hacia dichos vértices. Pero si comparamos los infinitos puntos del espacio de estados con esas zonas especiales de volumen nulo, podemos concluir que la probabilidad de estar en esos puntos, o en esas trayectorias, es cero.

En cambio, la teoría neoclásica prefiere suponer la existencia de unas "expectativas racionales" que implican capacidades de información y de análisis infinitas para todos y cada uno de los agentes involucrados, de modo que pueden identificar esas trayectorias privilegiadas de probabilidad cero y situarse sobre ellas, compensando cualquier tipo de choque exógeno.

Conocimiento, Creencias y Causalidad

El conocimiento no consiste en una colección de hechos, sino que reside en las conexiones que concebimos entre ellos o, mejor, como no nos llegan hechos sino percepciones acerca de ellos, consiste en las conexiones entre perceptos. Las ideas aparecen integradas en un sistema explícito y, al menos en parte, conexo. Las creencias, en cambio, pueden ser inconexas, independientes unas de otras y, a veces, contradictorias; rara vez nos damos cuenta de ellas, y con mucha frecuencia no las conocemos; son verdaderos prejuicios que determinan cómo y qué vemos.

Desde luego, las ideas conscientes pueden generar nuevas creencias y sustituir a las antiguas, pero este proceso es incierto y tortuoso, porque las creencias que tengamos en un momento dado guían la búsqueda de nuevas ideas y pueden sesgarlas. Por otra parte, las conexiones que buscamos no están en los hechos, sino en nuestra mente; son el andamiaje de la conciencia y son imaginaciones, que no descubrimos sino creamos. La causalidad es un tipo de conexión, quizá el más simple porque se inspira en una experiencia corporal directa.

La Multiplicidad de Causas

Otro problema, que parece difícil, pero resulta trivial, es que podemos citar muchas causas diferentes de un mismo fenómeno. Por ejemplo, cabe decir que la luz se debe a que alguien pulsó un interruptor en la pared de la habitación; o podemos extendernos y hablar de redes de transmisión eléctrica, de generadores y represas, y añadir detalles sobre la instalación de las turbinas que impulsan a esos generadores y la extrema precisión de sus piezas; o podemos decir que cuando producimos una diferencia de potencial eléctrico aparece una corriente de electrones que, a su vez, genera una agitación térmica a nivel atómico que eleva la temperatura de un alambre delgado hasta el punto de incandescencia.

Más espinoso es que no existe una definición generalmente aceptada en las ciencias, ni un acuerdo filosófico sobre la causalidad. Aun en la versión que parece más usual en ciencias naturales, podemos hallar positivistas y neopositivistas, como Russell (1917) , que la niegan por completo y afirman que la cienci.

tags: #ley #de #la #causalidad #en #contabilidad