Ciencias reivindicando Hegel –el caso de la matemática o lógica simbólica contemporánea-
Introducción
Creemos que junto con el trabajo de Graham Priest y otros, el trabajo de Pearl ejemplifica el creciente peso enorme de Hegel en las ciencias, en este caso, en la lógica simbólica o matemática en el escenario post-gödeliano contemporáneo. No por nada el texto de Pearl es una severa invectiva contra el mainstream de la ciencia formalista burguesa, que se basa en la estadística, la probabilística, los modelos algorítmicos, etc, sustituyendo la reproducción experimental por el idealismo: el formalismo (y tendencias afines como el logicismo de Frege) se basa en la creencia kantiana de que la lógica formal y la matemática pueden determinar el conocimiento sin inducción alguna, sino con la sola deducción. Este subjetivismo ha fusionado al coherentismo posmoderno negador de la ciencia (la Interpretación de Copenhagen ha llevado al planteamiento de multiversos, de diseño inteligente, de simulaciones virtuales u holográficas de nuestras vidas, etc) con un formalismo tanto racionalista como positivista (un formalismo tanto logicista, como propiamente formal acerca de la sintaxis cuantitativa de la matemática), del mismo modo que según Lukács, Kant y la filosofía pre-hegeliana influencia tanto al racionalismo (el neo-kantismo) como al romanticismo (Schopenhauer) con su subjetivismo. Recordemos que Hayek y Von Mises son kantianos, y que Carnap, a pesar de su verificacionismo, plantea un proyecto de construcción de un lenguaje aritmético muy similar al programa logicista de Frege. Esta mezcla monstruosa entre coherentismo y formalismo es en realidad el mismo subjetivismo kantiano negador del objeto, y negador de la inducción. El positivismo ya no es instrumental ni técnico, sino matemático, lo cual lo ha sacado completamente del laboratorio y lo ha vuelto un a priorista deductivista (la mayor prueba es los modelos y el Big Data utilizados para la predicción a priori). Y es justo cuando entramos al escenario post-gödeliano de las matemáticas cuando más se sepulta la realidad de ese escenario: el que Pearl o Priest se atrevan a plantear la contradicción o la inconsistencia, o los mismos principios del movimiento de la lógica modal o hegeliana, etc, se debe a que Gödel no simplemente acabó con el programa de Hilbert, sino con el programa de Frege y Carnap de crear un sistema o lenguaje de términos o categorial que reprodujera las operaciones aritméticas. Gödel no solo comprueba la incompletitud, sino que prueba la inconsistencia de los términos ya sea categoriales o en forma de teoremas. la matemática se vuelve radicalmente anti-analítica (de hecho, sepulta por completo al movimiento analítico), y la ciencia decide sepultar esa realidad con una matemática filistea y anti-científica (tal y como Chomsky decide ignorar las críticas gödelianas). Este mismo proceso se vive en el marxismo: el coherentismo posmoderno negador de la ciencia de la crítica del valor, la crítica de la economía política y las últimas generaciones de la forma-valor alemanas, se unen con la Nueva Dialéctica en atacar la ciencia económica marxista. No por nada coinciden con el mainstream científico burgués de la aplicación de algoritmos (Reuten) o principios de la teoría de sistemas (Gustavo Bueno), en su defensa de un análisis deductivo y categorial-filológico. Esto se da justo en el momento en que la economía marxista de los últimos 40 años comprueba la consistencia de Marx contra Sweezy, y justo cuando se llega a un verdadero acuerdo científico y anti-sectario entre economistas marxistas acerca de la caída de la tasa de ganancia. Tanto la economía científica marxista como el escenario post-gödeliano de las matemáticas contemporáneas son un cambio de ‘paradigma’, que está siendo sepultado por la ‘ciencia normal’ a toda costa: lo que está en juego es el paso de Kant a Hegel, y la salida de esta verdadera contra-reforma de la ciencia, hacia una comprensión hegeliana.
Este mismo texto ha sido publicado también aquí.
La probabilística no es una causalidad, ni la estadística puede concluir causalidad. Ese es el planteamiento del matemático Judea Pearl en su libro The book of why: the new science of cause and effect. Y es verdad: la relación entre A y B no se puede establecer por probabilística. Del mismo modo, no hay forma que un sampleo estadístico muestre más que una correlación entre variables independientes y dependientes, que debe ser verificada con la ayuda del conocimiento científico de otras ciencias. Pero la probabilística es realmente leída de ese modo en la ciencia contemporánea y la cultura en general: si digo que ‘X aumenta la probabilidad de Y’, se interpreta que X causa Y en un sentido determinista y mecánico aristotélico, es decir, que X y Y son verdaderos, y que Z es falso; una lógica de valor dual, como la lógica formal. Pero la probabilística está diciendo algo muy diferente de la lógica formal y de la lógica de valores duales: está diciendo que aunque haya una probabilidad mayor para que X cause Y, Z sigue siendo posible. No dice A o B, verdadero o falso, sino que A y B son posibles. Y no solo con respecto al futuro, como en Aristóteles. De ahí que la probabilística diga Y y no-Y son ambos verdaderos; si sucede Y entonces Y es verdadero, si no sucede Y entonces no-Y es verdadero. Se cae el principio de no-contradicción, tal y como lo criticó Hegel. Es lo mismo que elaboraron los lógicos modales estoicos, o las críticas de la lógica aristotélica que señalan cómo los contrarios sin importe existencial se vuelven contradictorios. Aun una probabilidad de 0.9 tiene una posibilidad de 0.1 de producir otro efecto distinto de Y. Incluso significa que Y puede ser causado por no-X, como en la causalidad necesaria, suficiente y contributiva contemporáneas, que se consolidó con la física de Einstein, pero que operó desde el desplazamiento de la lógica aristotélica por parte de Newton y la ciencia: si X es necesario, puede causar a Y, pero puede también causar a Z; si X es suficiente, automáticamente causa a Y, pero Y puede ser efecto de otra causa Z distinta de X; y la contributiva como mezcla de estas dos formas de causalidad. De ahí que la probabilística se emparente con la posibilística: ésta última, como lógica de valores-múltiples en vez de duales, presenta cuatro valores múltiples: lo necesario, lo imposible, lo posible y lo innecesario. Aquí es donde debemos aprovechar el trabajo y propuesta de Pearl, para hacer una crítica del dialeteísmo del ya mencionado Priest, al mismo tiempo que una defensa de la lógica paraconsistente: esta realidad en la eliminación del principio de no-contradicción no lleva al principio de explosión, precisamente porque no quiere decir que las contradicciones son reales (como plantea el dialeteísmo). El principio de identidad no es criticado por Hegel, sino el de no-contradicción. Es decir: si sucede B, B sigue siendo verdadero y absoluto y no-B falso, pero lo que quiere decir es que no-B no solo fue posible y verdadero en su movimiento, sino que aún en retrospectiva, y aún en relación con lo realizado, la causalidad va más allá de la causa-efecto individual o la causa-efecto mecánicos o de masa: lo posible hace que no sea solo hacia el futuro que haya posibilidad, sino también en retrospectiva, hacia el pasado realizado, que la necesidad aristotélica cede ante la causalidad no-determinista: no podríamos pensar que A causa B solo por el hecho realizado de su consumación y realización anterior. Sería un error causal: no se realizan ambas probabilidades, sino que se realiza solo una, pero ese proceso de realización y posibilidad vuelve a las proposiciones lógicas y a los teoremas axiomáticos o algorítmicos que buscan explicar su causalidad en contradictorios. Dentro de la contradicción A y no-A, existe el A absoluto y realizado, pero también es verdadero no-A, que puede incluir a B, C, D o n posibilidades, o puede incluir un unicornio. El unicornio sería falso, y eso no cambia que de acuerdo a lo posible no-A (donde podría estar incluido el unicornio) sea verdadero. El unicornio es solo verdadero y falso en las formas proposicionales o teoremas lógicos y matemáticos, y no en la realidad, donde es evidentemente falso. Hay una discriminación empírica del importe existencial con respecto a sus formas lógicas o matemáticas. Esta limitante impide el principio de explosión. Del mismo modo, el carácter finito del agregado de eventos causales impide también un relativismo como el del principio de explosión: lo posible habla, tal y como la posibilística, de elementos tanto imposibles como posibles; es decir: hay un carácter finito de posibilidades causales del mismo modo que de probabilidades. Esta limitante también impide el principio de explosión. Por último, las distribuciones estadísticas estocásticas o absolutamente contingentes y aleatorias, tampoco tienen posibilidades infinitas de distribución, y de acuerdo al teorema del límite central, el agregado de diferentes sampleos random tiende hacia la distribución normal. Esto también impide el principio de explosión.
Otro modo de entender esta diferencia con el dialeteísmo y la imposibildad del principio de explosión, es el planteamiento que hace Pearl en defensa de los contrafactuales: Pearl no dice que los contrafactuales sean reales tanto como lo factual, sino que de acuerdo a lo posible, la no presencia de la causa A y la no-presencia del efecto B, ayudan a producir un escenario donde la ausencia de A y B (es decir, no-A y no-B) se vuelven verdaderos, no solo como escenario hipotético, sino porque son realmente posibles aunque no realizados ni consumados en la realidad. Y en retrospectiva, no-A y no-B siguen siendo verdaderos si preguntamos por la causalidad entre A y B: B puede no darse en una causa necesaria, del mismo modo que A puede no estar presente, en una causa suficiente. Aún con su realización consumada, A causa a B resulta contradictoria. Por último, la crítica de la probabilística y de la estadística de Pearl, y la defensa de la causalidad contradictoria y posible, plantea la posibilidad de reformular la causa suficiente-compuesta de Rothman, creemos nosotros. De hecho uno de los puntos en donde Pearl supera la probabilística y es capaz de establecer procesos causales posibles, es precisamente por la salida de la causalidad singular o individual, hacia una causalidad de múltiples variables en red: nosotros decíamosque los alelos codificadores son causas suficientes, pero que vistas como causas del desarrollo cognitivo de los infantes, se vuelven simples causas necesarias en conjunto con la crianza. Del mismo modo, las causas suficiente-compuestas de Rothman pueden ser múltiples y entrecruzarse, y mantener su carácter suficiente. Nosotros creemos que Pearl está realizando precisamente una síntesis de esa índole, con sus características propias. En el modelo de Pearl no solo se mide la correlación, y se logra evitar la variable de confusión que es la razón principal por la que la estadística inferencial (según el propio Pearl) es incapaz de determinar procesos causales. Como saben, A y C pueden estar correlacionados, y por lo tanto, pensarse que conllevan procesos causales, pero en realidad pueden estar siendo causados por una causa B que los provoca a ambos, y es por esto que están correlacionados, y por lo tanto, la diferencia entre variable independiente y dependiente es incapaz de leer este proceso causal, terminado por realizar determinaciones absurdas y basadas en simples correlaciones. Como el modelo de Pearl incluye múltiples variables dependiente o independientes de acuerdo a relaciones causales múltiples, entonces es capaz de establecer un campo parcial de variables, para testear todos las causas y efectos que producirían un conjunto o agregado de causalidades, sobre las distintas variables. ¡Es precisamente lo que mencionábamos sobre la posibilidad de usar el modelo de Rothman como fundamento para procesos causales agregados distintos de la suficiencia!: Pearl es capaz de establecer procesos causales suficientes pero condicionales al mismo tiempo, lo cual produce una mezcla entre suficiencia y necesidad, la cual podría servir para aplicar una especie de equivalente (pero no homólogo) del modelo de Rothman para las ciencias históricas y no solo las médicas: es decir, algo así como una causa necesaria-compuesta: la presencia de las variables, en lugar de leerse de modo determinista, aristotélico y en términos de valores-duales, debería considerarse con otras variables también consideradas independientes, en la medida que existe el problema de la variable de confusión.