martes, 17 de enero de 2012

Demoliendo el edificio cartesiano (Contra el reduccionismo)

A la ciencia podríamos verla como una red de algoritmos o subrutinas que se llaman entre sí para responder ciertos "cómo"s. 

Mismamente, para explicar la evolución de las especies, por ejemplo, la subrutina, o algoritmo, "biología química", con sus particulares variables...yo qué sé...células, genes, cromosomas, etc....la "biología química", digo,  llama a la subrutina "biología evolutiva" que a su vez tiene sus particulares variables como...no sé... especies, fitness, etcétera. Y conste que todo un biólogo como Mayr afirmaba, precisamente polemizando contra el reduccionismo, que ningún concepto de la biología evolutiva podía traducirse enteramente con conceptos de biología química, vamos, la traducción nunca es exacta y, ojo, hay más casos, no sé, otro tanto con la mente y las subrutinas neurológicas con sus variables neuronas, neurotransmisores, etcétera y la subrutina psicológica con su dolor, intención, voluntad, etcétera. 

O sea,  lo que tendrá que demostrar entonces el reduccionista, quien no cree en una red de algoritmos solapados sino en El Algoritmo,  es que las leyes instrucciones explicaciones que, por ejemplo, introduce la subrutina "biología evolutiva" no  necesitan de nuevas variables tipo especie, fitness, etcéterta sino que éstas se pueden descomponer en (ocupan el mismo lugar en la memoria que) variables provinientes de una subrutina más fundamental como, en este caso, la biología química, de lo contrario, me temo, su unificadora apuesta reduccionista es un acto de fé más que de lógica, y mientras tanto, la realidad, algo que sólo se deja describir por (en puridad, interactuar a través de) una irreducible panoplia de juegos de lenguaje.

4 comentarios:

Masgüel dijo...

Estoy de acuerdo. Y la implicación es evidente. La fe en El Algoritmo resulta de la apuesta o creencia en el realismo ontológico. Al menos en una de sus variantes, a la vez naturalista y platónico. Porque nienga creatividad a la naturaleza y asigna todo el peso causal a leyes matemáticas inscritas (vete a saber cómo) en las condiciones iniciales del universo.

Jesús P. Zamora Bonilla dijo...

A mí la noción de una "red de algoritmos o subrutinas que se llaman entre sí" me parece ya la hostia de reduccionista.
.
Por otra parte, es necesario distinguir dos cosas: los algoritmos propiamente dichos TAL Y COMO EXISTEN EN LA REALIDAD, y nuestras DESCRIPCIONES HIPOTÉTICAS de esos algoritmos. Y hecha esta distinción, hay que tener claro que estamos hablando de dos tipos de relaciones distintas: sean X e Y dos algoritmos (de los que suponemos conjeturalmente que Y tal vez es reducible a X), y sean h(X) y h(Y) dos hipótesis (teorías) nuestras acerca de X y de Y (naturalmente, X no será idéntico a h(X), ni Y a h(Y), y las h's irán siendo sustituidas por otras que las mejoren, según las vayamos sometiendo a contrastación).
La cuestión del reduccionismo son DOS cuestiones COMPLETAMENTE DIFERENTES:
1)¿podemos INFERIR h(Y) a partir de h(X)? En algunos casos ocurre que sí, en otros muchos casos ocurre que no: h(X) no nos permite CONSTRUIR los conceptos con los que describimos h(Y), aunque en algunos otros casos, con suerte, sí que permita deducir una versión aproximada h'(Y)
2)un sistema que obedeciera el algoritmo X, ¿obedecería inevitablemente el algoritmo Y -al menos, en las circunstancias en las que sucede Y-? Normalmente, lo que dice el reduccionista "sensato" es que esto es probablemente así en muchos casos.
Los éxitos PARCIALES en las respuestas a la pregunta 1 pueden considerarse como CORROBORACIONES (en el sentido popperiano) de que la respuesta a la pregunta 2 es positiva (es decir, si DE HECHO Y se reduce a X, pues se implementa inevitablemente cuando se implementa X en cierta circunstancias, entonces una descripción CORRECTA de X y de Y tendría que ser una en la que h(Y) pudiera derivarse, al menos parcialmente, de h(X).
.
Es decir, la forma adecuada de ver la cuestión no es si la ciencia consiste en un conjunto de teorías heterogéneas o si podría reducirse a una sola teoría, sino si LA HIPÓTESIS DE QUE LOS NIVELES "SUPERIORES" SON SUPERVENIENTES A LOS "INFERIORES" permite generar teorías cada vez más exitosas empíricamente basadas en intentos de reducción parcial de unos niveles a otros.
La historia de la ciencia muestra, creo yo, que esa hipótesis está lo suficientemente corroborada como para preferirla frente a sus rivales.
El reduccionismo bien entendido (y bien corroborado) es, por lo tanto, una especie de "reduccionismo in the making"

Masgüel dijo...

"LA HIPÓTESIS DE QUE LOS NIVELES "SUPERIORES" SON SUPERVENIENTES A LOS "INFERIORES" permite generar teorías cada vez más exitosas empíricamente basadas en intentos de reducción parcial de unos niveles a otros."

La clave está en "parcial": Las regularidades observadas en los niveles inferiores que condicionan las estructuras que emergen en los superiores. Y la constatación de que dadas circunstancias similares, también es una regularidad observable la emergencia de un tipo determinado de estructuras en lugar de otras. Con todo, la incapacidad de predecir la emergencia de estructuras NUEVAS y la asunción de que tal impredicibilidad no es un déficit en nuestro conocimiento sino un límite impuesto por la caracter aleatoria de algunos procesos naturales, lleva al proyecto reduccionista a conformarse con esos resultados parciales.

P.D. Y de paso, a preguntarse cómo es que lo inicialmente aleatorio sedimenta en hábito natural, descriptible mediante leyes.

Héctor Meda dijo...

Jesús, me pides distinguir entre 1)los algoritmos propiamente dichos TAL Y COMO EXISTEN EN LA REALIDAD y 2)nuestras DESCRIPCIONES HIPOTÉTICAS de esos algoritmos pero sin 2) NO tiene sentido creer en la existencia de 1) del mismo que sin una teoría gravitatoria que lo avale NO tiene sentido creer en la noción de Fuerza a pesar de ser un noción metafísica (Lakatos dixit) ineludible de la mecánica celeste, ahora, resulta que vino la teoría relatividad y se demostró que se puede explicar los fenómenos gravitatorias sin usar fuerzas, solo deformaciones espacio temporales, o sea y en definitiva, que NO seas capaz de concebir una explicación ontológica NO puede implicar que ésta sea verdad mientras NO lo avale una teoría científica, quiero decir, ¿en qué sentido puede ser 1) cierto? En el sentido en que 2) lo avale

Pero ya que hablas de "corroboraciones popperianas", ¿qué falsaría la hipótesis de que LOS NIVELES "SUPERIORES" SON SUPERVENIENTES A LOS "INFERIORES"? Lo que precisamente digo es que esa hipótesis, como programa de investigación, mientras NO demuestre la reducción de subrutinas NO está demostrando progresividad empírica y la gran prueba es que de facto los científicos no trabajan con esa hipótesis, vamos, NO tratan de explicar la biología evolutiva en términos bioquímicos (siquiera teóricamente, quiero decir, preocupándose de que cualquier concepto que introduzcan (v.gr: especie) tenga siquiera hipotético correlato bioquímico) o NO tratan de descifrar la psicología en términos estrictamente neurobiológicos, es más, ciencias como la sociología o la economía, con su homo economicus (todo lo matizado que se quiera de una parte para aquí) trabajan deliberadamente con conceptos irreducibles (en el sentido de que saben que el homo economicus NO es explicable en términos más fundamentales: directamente es una invención imaginaria), después de todo, lo que debemos primeramente fijar es qué perspectiva global, si reduccionista o en red, usan en la práctica los científicos y lo que se demuestra es que usan herramientas de trabajo del todo heterogéneas (sobre todo cuanto menos formalizable sea la ciencia, claro)