(Foto conferencia Solvay 1927)
En algunos de los artículos de este blog he intentado explicar la idea general, ya expresada por muchos autores, de que la Ciencia, lejos de ser una actividad "aséptica" desde el punto de vista ideológico (en sentido general) está inserta en una forma de entender el mundo, en un Paradigma más amplio que interpreta la Realidad y de alguna manera "focaliza" la investigación científica, de forma inconsciente para sus practicantes, hacia determinados ámbitos y fines. Por expresarlo en términos kantianos, existen unos "juicios sintéticos a priori" que están en la base del pensamiento científico y definen sus aspiraciones e incluso la manera en que se interpretan sus resultados
Todo esto tiene una importancia esencial para la vida de la sociedad actual, pues la Ciencia ha llegado a ser, o se le ha aceptado como, la única forma de entender la Realidad, y a los científicos se les considera nada más y nada menos que los Guardianes de la Verdad, y a sus métodos, por tanto, deben someterse todos los aspectos de la vida humana sin excepción. De ahí proviene la tendencia de los economistas a considerar a la Economía como una "Ciencia", ya que es la forma de legitimarla como poseedora de "La" verdad en sus conclusiones y apreciaciones; de tal forma que al estar la "ciencia" económica basada en las conclusiones de las otras "ciencias" como por ejemplo la Biología (en su explicación evolutiva neo-darwiniana de la competencia por los recursos y la maximización de la "utilidad" personal), reclama que sus conclusiones sean consideradas "La Verdad", pues así han de verse, de forma a-crítica, las conclusiones de toda Ciencia
En su libro de 2010 "El Gran Diseño" Stephen Hawking presenta esta visión de forma cruda al preguntarse:
"What is the nature of reality? Where did all this come from? Did the universe need a creator? ... Traditionally these are questions for philosophy, but philosophy is dead. Philosophy has not kept up with modern developments in science, particularly physics. Scientists have become the bearers of the torch of discovery in our quest for knowledge"
Para Hawking, como no podía ser de otra forma, "philosophy is dead", la filosofía está muerta, ya no sirve para explicar ningún aspecto de la realidad, ni la "naturaleza" misma de la realidad, todo ello es competencia única de la Ciencia. Pero esta afirmación es, de entrada más un axioma que una conclusión, es decir, lo "real", es aquello que explica la Ciencia
Evidentemente Hawking está haciendo un ejercicio de "Metafísica" puro y duro, pues estas son conclusiones no avaladas por ninguna teoría o campo del saber científico, sino por una "Fe"
En otro artículo, al tratar el tema del "fine tuning", es decir, del ajuste preciso de los valores de las constantes físicas que permite un universo con estrellas, galaxias, planetas, vida y al final consciencia, Hawking dice:
"the fine-tunings in the laws of nature can be explained by the existence of multiple universes. Many people through the ages have attributed to God the beauty and complexity of nature that in their time seemed to have no scientific explanation. But just as Darwin and Wallace explained how the apparently miraculous design of living forms could appear without intervention by a supreme being, the multiverse concept can explain the fine-tuning of physical law without the need for a benevolent creator who made the universe for our benefit"
Hawking hace aparecer los multi-universos como "prueba" de la no necesidad de un ente divino para explicar la estructura "milagrosa" de la realidad, donde una variación de una fracción infinitesimal de las constantes físicas producirían un universo muy distinto del que vemos y sentimos y donde no podríamos existir. Pero, ¿dónde están esos multiversos?¿en qué laboratorio, usando el método Popperiano del criterio de falsabilidad, se ha probado su existencia?¿dónde está el telescopio que apunta al menos a uno de ellos y nos permite hacer predicciones sobre su evolución?
Hawking no deja de hacer continuamente afirmaciones filosóficas o metafísicas revestidas de un ropaje de veracidad "científica" incontrovertible que no tiene nada que ver con la definición "estricta" de ciencia, según la falsabilidad Popperiana (detallada en su libro "La Lógica de la Investigación Científica" de 1959)
Hablo de Hawking por ser uno de los científicos "estrella" en la actualidad, pero este mismo modo arrogante de proceder es igualmente aplicable a una gran parte de la comunidad científica que comparte esa misma idea de ser los únicos "Custodios de la Verdad"
Una gran parte del fundamento de este discurso que incide en el papel relevante de la ciencia a la hora de juzgar todo conocimiento está fundado en la "creencia" en el determinismo de la Realidad, es decir, que la ciencia provee un mecanismo válido de conocimiento de toda la realidad porque la realidad está, en el fondo, determinada, y es determinable completamente por los métodos científicos
Pierre Simon Laplace expresó claramente el concepto de determinismo de la realidad en su libro "Essai philosophique sur les probabilités" de 1819:
"Podemos mirar el estado presente del universo como el efecto del pasado y la causa de su futuro. Se podría concebir un intelecto que en cualquier momento dado conociera todas las fuerzas que animan la naturaleza y las posiciones de los seres que la componen; si este intelecto fuera lo suficientemente vasto como para someter los datos a análisis, podría condensar en una simple fórmula el movimiento de los grandes cuerpos del universo y del átomo más ligero; para tal intelecto nada podría ser incierto y el futuro así como el pasado estarían frente sus ojos"
Ahora hemos de volver a la fuente de donde proviene esta "Fe" determinista; y es que Laplace tuvo la virtud de expresar en términos "pseudo-científicos" algo que era, en su origen, una idea puramente religiosa
Tiene razón Popper en su libro "El Universo Abierto" al afirmar que la idea del determinismo tiene un origen religioso, pero de una interpretación relativamente reciente de la religión, pues antes de Lutero y Calvino, la doctrina del determinismo, definido como predestinación, no era aceptada, y de hecho esas afirmaciones de la religión protestante sublevaron a muchos pensadores de la época, particularmente a los Humanistas, ya he descrito en varias ocasiones en este blog los intercambios epistolares de Erasmo y Lutero a propósito del "libre albedrío"
Podemos citar muchos otros autores anteriores a la época "gloriosa" del despertar de la ciencia que ya sostenían la "doctrina" del determinismo en su forma "cientificista", como Hobbes, el cual expone, antes que Newton, una teoría del determinismo psicológico y de la conducta, basado en un determinismo general de la realidad, del universo, de tal forma que, según Hobbes, la naturaleza "intrínsecamente depravada" del ser humano (ya descrito por Lutero), sus tendencias destructivas innatas, la "guerra de todos contra todos" es una "ley" natural, como las que rigen al resto del universo, el cual está determinado, como "demostraron" Lutero y Calvino, por los designios de un Dios implacable e inmutable, dictados en el mismo origen del tiempo
Igualmente los ensayos de Thomas Malthus sobre la población y los recursos, describían, como ley natural, el inevitable crecimiento exponencial de las poblaciones de los pobres (por su intrínseca depravación), de tal manera que la escasez y el hambre serían el único freno al crecimiento de las poblaciones humanas, y era la misión de las autoridades evitar ese crecimiento destructivo dejando que la naturaleza siguiera su curso (re-equilibrio poblacional por hambrunas, como la de Irlanda). Así, la "ciencia" económica (o ciencia lúgubre como la llamó Carlyle) de David Ricardo, o incluso de Marx, está basado en esta misma consideración del ser humano al nivel de una bacteria en una placa de Petri, firmemente determinado por "leyes naturales" que describen su inevitable y negro devenir
Igualmente Herbert Spencer, incluso antes que Darwin, ya sostenía la idea de la "supervivencia de los mejor adaptados" como ley natural, y por tanto, las "leyes de pobres", la negación de la ayuda y la caridad, tenían una base "científica". Ni que decir tiene que todas estas ideas habían tomado un carácter "científico" porque era ahora el "lenguaje" de moda, como antes era el lenguaje religioso de la Predestinación que obligaba a los "justos" a ser implacables con los "condenados", siendo el éxito, en último término, sólo una manifestación de las preferencias divinas
Las ideas de Darwin, dejando de lado que contradicen la literalidad de la Biblia, fueron muy bien recibidas, pues eran una prueba más de lo correcto de la visión de la vida como una lucha implacable de todos contra todos, revelaba una "verdad" científica que hacía de la lucha, de la competencia, la única forma de evolución posible, un mundo de "garras y dientes ensangrentados" que ya había sido descrito por Hobbes al nivel humano, y que sancionaba Darwin al nivel de toda la Creación
La "mejora" de las especies sólo podía provenir del triunfo letal de los "mejores" sobre los "peores", esto no sólo revelaba lo que el Predestinacionismo afirmaba, sino que era una "verdad" científica incontrovertible, que además era de aplicación al resto de las ciencias, ya que en todos los ámbitos de la vida hay aspectos "evolutivos" implicados (por ejemplo en la economía, las relaciones sociales, etc...)
Al final hemos de completar la idea Weberiana de que la ética protestante fue un acicate al desarrollo del capitalismo, con la idea de que la ética protestante, y su idea subyacente de determinismo, fue un acicate al desarrollo de la ciencia, pero una ciencia con un enfoque particular sobre la realidad, que incluye en su forma básica, una idea de Predestinación del Ser Humano al conocimiento total, entendido como "conquista", y su uso como medio de dominio absoluto sobre la Naturaleza y, también hay que decirlo, de los "elegidos" sobre el resto de los hombres
Porque la Ciencia, hay que tenerlo claro, como actividad social fundada en el acuerdo sobre sus métodos, fines y resultados dictados por una comunidad humana, está sujeto a las influencias ideológicas del ámbito en el que trabajan los investigadores, y sus creencias e ideas se ven reflejadas en el resultado de las investigaciones e incluso en aquello mismo que se define como "Ciencia"
Tengo ya sobre mis espaldas muchas lecturas que avalan estas afirmaciones, en algunos casos encuentro trabajos tenidos por científicos de una candidez y claridad sobre sus fines realmente conmovedoras, que dan una idea del proyecto "de fondo" que sostiene gran parte de la idea de "desarrollo científico" y la idea misma de "Progreso". Por ejemplo, en el libro del antropólogo Bronislaw Malinowski "Crimen y costumbre en la sociedad salvaje" (1925) en su prólogo dice:
"El estudio de las razas salvajes que están desapareciendo rápidamente es uno de los principales deberes de la Civilización - ahora activamente empeñada en la destrucción de la vida primitiva - que hasta ahora ha sido descuidada de manera lamentable. Esta tarea no sólo es de una alta importancia científica y cultural, sino que además no está desprovista de un valor práctico considerable, en el sentido de que puede ayudar al hombre blanco a gobernar, explotar y "mejorar" al nativo con resultados menos perjudiciales para éste último"
Se puede decir más fuerte pero no más claro, toda una declaración de intenciones....
Se podrá argüir que los desarrollos científicos del último siglo, en particular las conclusiones de la Mecánica Cuántica han deformado un poco la visión que describo con anterioridad, pero a pesar de que ese debería ser el caso, está claro que la mayor parte del "Proyecto" científico descrito por Laplace sigue casi intacto, creo, en la mayor parte de la comunidad científica
En este post voy a basarme en las lecturas de trabajos de Edgar Morin, Charles Eisenstein, Bruce Lipton, J. Habermas y otros autores que han estudiado la "forma" en que está construido el paradigma científico predominante, no como "seguidor" acérrimo de ninguno de ellos, pero reconociendo que aportan ideas y pruebas que clarifican enormemente las características de la "forma" en que los científicos y ese cuerpo social llamado "ciencia" describe el mundo
Abordaré fundamentalmente 2 disciplinas científicas que describen claramente la forma en que se percibe el mundo desde el punto de vista científico y que se transmite al resto de la sociedad = la Física y la Biología
He descrito con anterioridad el "proyecto científico Laplaciano" como el paradigma de la mentalidad científica de los siglos anteriores al siglo XX, y como dice mi hermano al respecto, hasta recientemente se pensaba que el saber era como una gran tarta, que íbamos comiendo una parte cada vez mayor y cada vez quedaba una porción menor intacta, y así a finales del siglo XIX la incansable labor de los científicos parecían que estaban a punto de acabar con los últimos pedazos de la "tarta" del saber, de tal forma que el presidente del departamento de Física de la Universidad de Harvard advirtió a sus alumnos en 1893 que ya no se iban a necesitar más alumnos de Física, pues alardeaba de que "La Ciencia había establecido que el universo es una "máquina material" constituida por átomos físicos e indivisibles que siguen exactamente la mecánica de las leyes newtonianas"
La Física había muerto, como dice Hawking ahora de la Filosofía....Estaba descrita ya, "cerrada", sólo era cuestión de mejorar instrumentos y cálculos y lo sabríamos "todo"
Qué ciegos estaban, ¡pero si la "fiesta" no había hecho más que empezar!, pero además de una forma terriblemente inquietante para los espíritus de la época
A finales del siglo XIX y principios del siglo XX toda esta visión optimista sobre la onmisciencia del método científico iba a sufrir fuertes reveses
Comenzando por Laplace, que había estudiado la estabilidad del Sistema Solar a principios del siglo XIX, ya Henri Poincaré en 1892 al analizar el llamado "problema de los 3 cuerpos" encontró que esos sistemas gravitatorios (de n-cuerpos con n>=3) presentan una inestabilidad intrínseca que hace que minúsculas variaciones en las condiciones hacen impredecible la evolución del sistema a tiempos suficientemente largos. Este resultado lo corroboró Jacques Hadamard que refutó los resultados de Laplace sobre la estabilidad del Sistema Solar en 1898, ejemplificándolos en el famoso "billar de Hadamard", primer ejemplo de "caos determinista" en el sentido de que un sistema descrito perfectamente por las ecuaciones que rigen su dinámica, presenta comportamientos fuertemente dependientes de las perturbaciones que hacen prácticamente imposible la predicción a tiempos suficientemente alejados
Llegaron a la conclusión que los spin de los átomos de plata están "cuantizados" es decir, toman valores discretos cuando atraviesan un campo magnético no homogéneo en el sentido de la trayectoria, y en cualquier orientación que se haga el experimento, pero ¿porqué están cuantizados esos spines?¿están cuantizados "antes" o sólo "durante" el experimento? Estas son algunas de las preguntas que surgen a las que no tenemos respuestas, pero es que el experimento de Stern-Gerlach proporciona conclusiones aún mucho más "extrañas"
Si ahora en vez de usar un sólo aparato de Stern-Gerlach, usamos 3 en serie uno para una componente cartesiana (eje z) y otro para la componente perpendicular a la anterior (eje x) y por último otro que "criba" de nuevo las partículas en el eje z, obtenemos el siguiente esquema
El experimento puede describirse de la siguiente forma:
1) A a salida de la fuente de emisión de átomos colocamos un aparato SG (Stern-Gerlach) y sometemos a las partículas a la separación según su spin según el eje z, de tal forma que los átomos con componente de spin -h/2 los desechamos y sólo seguimos usando los de la componente +h/2
2) A la salida del SG de eje z le colocamos otro aparato SG pero girado 90º, de tal forma que ahora separará los spin de los átomos según el eje x, y sólo trataremos el haz que había salida del primer aparato de SG con spin +h/2. El haz de salida del 2º SG con spin -h/2 lo desechamos también
3) Hacemos pasar el haz de átomos con spin +h/2 en sentido del eje x, del 2º SG que recordemos que ya había pasado por el 1º aparato SG que había seleccionado los spin +h/2 según el eje z, por ello, si ahora lo hacemos pasar por un aparato SG orientado de nuevo en el eje z, lo esperable es que sólo salgan átomos con spin +h/2 en el eje z, ya que así habían sido seleccionados con el 1º aparato SG
4) Pues bien el resultado del experimento es que a la salida del 3º aparato SG obtenemos de nuevo un patrón aleatorio de 2 franjas y de nuevo sólo con spin +h/2 y -h/2 en dirección del eje z, como si el haz no hubiese pasado por ningún aparato SG previamente
¿Qué nos está diciendo el experimento anterior?, pues algo verdaderamente desconcertante, nos indica que por el hecho de medir la propiedad del spin en el eje x, se destruye completamente la selección realizada anteriormente en el eje z, y esto es independiente de las cantidades de energía empleadas o de las orientaciones tomadas en la medida, es decir, es el simple hecho de medir una propiedad lo que altera radicalmente a la otra propiedad volviéndola aleatoria
Al comportamiento anteriormente descrito se le llama en la Mecánica Cuántica que el spin z y x son Propiedades Complementarias que en su definición más general se definen así: "Si preparamos un objeto donde la propiedad A toma un valor preciso, entonces siempre existe una propiedad B cuyo valor está completamente indeterminado. En este caso afirmamos que la propiedad A y B son Complementarias"
Es muy común describir la indeterminación a que alude la Mecánica Cuántica sólo a la luz del Principio de Incertidumbre de Werner Heisenberg, y que se justifica como un problema de "medición" en el sentido de que es la intensidad de la radiación necesaria para obtener la medida la que hace que no se pueda conocer exactamente la posición y la velocidad de las partículas, pero lo que nos indica la existencia de las propiedades complementarias es algo mucho más profundo, habla de una indeterminación "inmanente" que NO depende del aparato ni de la intensidad de la medida, suponen, de hecho, una barrera infranqueable a nuestra capacidad de determinar los sucesos
Se trata de una indeterminación esencial que NO se supera por el "afino" de los métodos de medición y de la que no sabemos absolutamente nada de porqué sucede, pues como dice el físico Richard Feyman: "Nadie entiende la Mecánica Cuántica"
Otro aspecto que surge de las conclusiones de los experimentos de la Mecánica Cuántica es lo que se conoce como "entrelazamiento cuántico" que describe que las partículas entrelazadas, sostienen interacciones entre ellas de forma instantánea, por lo que, desde el punto de vista cuántico, no son en realidad "una" partícula, sino un "sistema". Así cuando se miden dos partículas entrelazadas de forma separada en el espacio, las mediciones sobre una de ellas afectan de modo instantáneo (en contradicción con los límites relativistas de la velocidad de la luz) a la otra partícula. A esta propiedad Einstein la llamó, en forma un tanto de burla, "spooky action at a distance" = acción fantasmal (o escalofriante) a distancia
Pero las "rarezas" de la Mecánica Cuántica no hicieron más que empezar con ese experimento, hubo otro experimento cuyos resultados literalmente erizaron el vello de los físicos, me refiero al Experimento de la Doble Rendija, en su versión de 1974, que se realizó electrón a electrón por Pier Giorgio Merli en Bolonia y repetido de forma concluyente por Akira Tonomura en 1989
A continuación os dejo un vídeo que explica, creo, bastante claramente como se hizo el experimento y las conclusiones que se sacaron del mismo:
Si habéis visto detenidamente el vídeo anterior en él una de las conclusiones que claramente queda de manifiesto es que el observador está íntimamente integrado al experimento, es decir, a partir de la Mecánica Cuántica ya no se puede separar el observador del suceso observado, ya no tiene "sentido" hablar de un "universo que está ahí afuera", pues para la Física Cuántica el acto de observar "define" el devenir del fenómeno de forma "esencial", tal y como ocurre, por ejemplo, en las Propiedades Complementarias o en el "colapso de la función de onda" del electrón en el experimento de la doble rendija y altera así la forma en que se comporta el Sistema. Igualmente no se trata de un cambio motivado por la "intensidad" de la interacción del observador sobre el hecho observado, como parece sugerir el Principio de Incertidumbre, sino que aparentemente se trata de un fenómeno esencial del Universo
Todos estos resultados supusieron un auténtico shock para los científicos de la época y uno de los que comprendió con más claridad las implicaciones de estos experimentos fue Albert Einstein, que entendió que estos resultados no sólo abrían una nueva forma de entender la física, sino que atacaban los pilares fundamentales sobre los que se sustentaban todo el edificio del conocimiento (no sólo de la Física) y toda la forma de entender el Mundo, y eran los principios del "Realismo" (u objetivismo) y del Determinismo, es por ello que Einstein mencionó dos de sus frases más famosas como defensa de estos dos principios:
El principio del "Realismo" es aquel que afirma que existe una "realidad en sí" independiente del observador, y que por tanto existen "elementos de realidad" que la Física sólo se encarga de revelar, pero que en realidad son "propiedad" de la realidad, de los entes "en sí". La famosa frase de Einstein en defensa de esta idea fue : "Me gustaría pensar que la Luna continúa allí aunque no hay nadie mirándola"; a lo que el físico cuántico Asher Peres contestó: "los experimentos que no se realizan no obtienen resultados"
El "tono" general de los científicos cuánticos cambió de forma radical, pasando del "Realismo" de Einstein y los suyos, al "Positivismo" de Bohr y de la Mecánica Cuántica en general, donde ya no era riguroso hablar de la "realidad", sino de experimentos, donde no se podía soslayar la presencia del observador como tal
Veremos más adelante como todos los intentos de hacer emerger "elementos de realidad" y probar así la "incompletitud" de la Mecánica Cuántica, propuesto por Einstein, han fracasado estrepitosamente
Por otro lado en defensa del Determinismo Einstein mencionó en una carta a Max Born la famosa frase "Dios no juega a los dados", a lo que, según parece Bohr replicó : "no le diga usted a Dios qué tiene que hacer con sus dados", y esta respuesta acierta de pleno sobre la clase de "hybris" que había definido hasta entonces el pensamiento científico y que actualmente sigue en boca de sus figuras relevantes, como Hawking, que parecen haberse saltado 100 años de conclusiones científicas sobre sus propios límites, y es que la idea "vulgar" que se asocia a la capacidad de la Ciencia y sus fines es la misma que la de finales del siglo XIX sin merma alguna a su omnipotencia descriptiva de la "Realidad"
Este "jarro de agua fría" sobre las pretensiones totalizantes de la Física llegaron también a otros ámbitos del saber, como las Matemáticas, donde el Teorema de Incompletitud de Gödel dio una respuesta negativa al 2º problema de David Hilbert de 1900 que buscaba la validación de los sistema axiomáticos de la matemática "desde dentro", las conclusiones del teorema de Gödel pueden resumirse en :
"nunca se podrá encontrar un sistema axiomático que sea capaz de demostrar todas las verdades matemáticas y ninguna falsedad"
o bien en otra formulación verdaderamente "inquietante":
"Si se puede demostrar que un sistema axiomático es consistente a partir de sí mismo, entonces es inconsistente"
Nos encontramos con que todas las ciencias encuentran a principios del siglo XX sus límites a la forma en que están definidas, es decir, todas ellas encuentran que las conclusiones de sus experimentos o de sus investigaciones contradicen la "visión" anterior que animaba el edificio conceptual, su "Paradigma"
Volviendo al caso de la Mecánica Cuántica, las implicaciones ontológicas de sus resultados supusieron un terremoto conceptual para los científicos de la época, y como he mencionado antes, Einstein comprendió con toda profundidad las implicaciones de aceptar eso como parte del cuerpo de la Ciencia, es por ello que a partir de los años 30, la mayor parte de los esfuerzos de Einstein se dedicaron a probar que la Mecánica Cuántica no presenta una descripción completa de la realidad física
Así en el año 1935 Einstein, junto a Boris Podolsky y Nathan Rosen presentaron un trabajo que describe un experimento mental (paradoja EPR) en el que se trata de demostrar que la Mecánica Cuántica, al no cumplir los criterios de "localidad", que implica que no es posible una acción instantánea a distancia (contradice el límite de la velocidad de la luz de la Relatividad) y no cumple con la descripción del problema de la medición, es decir, que contradice la idea de que los cuerpos, los entes, las mediciones tienen un sustrato real, que el objeto posee y que podríamos encontrar si pudiésemos medir esa variable sin perturbar al objeto (que existen "elementos de realidad" en las mediciones que se hacen)
En realidad el teorema EPR es más una crítica que una demostración de nada, pero prefigura la diferencia entre las concepciones existentes de la Física
La tesis EPR apunta a la existencia de "variables ocultas" desconocidas por los físicos y que explicarían los resultados de la Mecánica Cuántica, recuperando el determinismo y la "localidad" que ignora la Mecánica Cuántica en la formulación existente hasta la fecha ("Interpretación de Copenhage" defendida por Bohr)
En 1964 el físico irlandés John Bell presentó el llamado Teorema de Bell que perseguía establecer un marco teórico para plantear los experimentos que podrían demostrar si lo expresado en la paradoja EPR era cierto y existen rastros de "variables ocultas" que cumpliendo los criterios de "localidad" (no existe una propagación instantánea de ninguna interacción a distancia) y de "realidad" (los estados físicos existen antes de ser medidos) permiten explicar los resultados experimentales proporcionados por la Mecánica Cuántica
Bell, empezó a desarrollar su teorema persuadido de que Einstein tenía razón, al objeto de refutar la llamada "Interpretación de Copenhage" de la Mecánica Cuántica , y así lo explica él mismo:
"Yo pensaba que la superioridad intelectual de Einstein sobre Bohr en este punto era enorme: una distancia gigante entre un hombre que veía claramente lo que se necesitaba (Einstein) y un oscurantista (Bohr)"
Paradógicamente el teorema de Bell permitió un método para demostrar, por métodos experimentales, que las ideas de Einstein eran falsas y que no había forma de encontrar "variables ocultas" que pudiesen explicar los resultados experimentales de la Mecánica Cuántica. El "enano" Bohr triunfaría en esta prueba
No es este un artículo para entretenerme en las cualidades intelectuales de Einstein, pero hay que tener en cuenta que Einstein ha sido probablemente uno de los científicos más sobre-valorados de la historia de la ciencia, y quizás esto se debe al triunfo de su propia estrategia de no hacerse deudor de las ideas de otros. Es inaudito que en 1905, en su famoso artículo en la revista "Annalen der Physik" donde exponía "sus" ideas sobre la Relatividad Especial no cita ni una sola referencia, como si los trabajos y conclusiones previas de Henri Poincaré, Hendrik Lorentz, George Fitzgerald o los experimentos de Michelson y Morley no hubiesen existido nunca o no hubiese tenido noticias de ellos, cosa completamente absurda y fuera de lugar; estas referencias sólo las reconoció más tarde cuando sus resistencias a dar el crédito merecido a sus predecesores eran ya manifiestamente ridículas
Así Einstein, en otro artículo publicado en los "Annalen der Physik" en 1907, tuvo que reconocer a regañadientes, a partir de la revisión de su trabajo hecha por Planck y Kauffmann, que:
"Parece que la naturaleza del trabajo que realizo, ya ha sido, en parte, solucionado por otros autores. A pesar de esto, y dado que estas cuestiones pueden abordarse desde un nuevo punto de vista, creo que tengo el derecho a pasar por alto el estudio profundo de esa pedante literatura, sobre todo, porque creo que existen lagunas que pueden ser cubiertas por otros autores. Como ya ha ocurrido con mi primer trabajo sobre la relatividad, a través de los encomiables esfuerzos del Sr. Planck y del Sr. Kaufmann"
La inclusión de referencias a otros autores la llama Einstein "pedante literatura", y es que la visión que tiene Einstein de las ideas como "propiedad" son propios del paradigma o visión del mundo en que se halla inserto él y todo su trabajo, porque hay que repetirlo una y otra vez, los actos de las personas, aunque éstas sean pretendidamente investigaciones científicas "asépticas" están mediatizadas por la "Teoría del Mundo" que esas personas y la comunidad en la que se hallan insertos, sostienen
Aquello que se llama "Realidad" es fruto de un acuerdo entre los miembros de una Comunidad, pues todo "hecho" se describe a partir de una teoría (Russell Hanson), o como decía Nietszche "no existen hechos, sólo interpretaciones"
Todo esto, esta forma de pensar de Einstein se halla inmerso en el que algunos, como Charles Eisnestein, llaman "Paradigma de Separación" que sostiene que hay una separación real e infranqueable entre los individuos y el mundo (objetivo), entre la consciencia y el cuerpo, entre los hombres entre sí, entre las ideas de unos hombres y las de otros, etc...de la que ha derivado nuestra pluri-secular visión del mundo que, desde hace unas décadas, ha entrado en crisis...Volveré sobre este tema más tarde
Volviendo al teorema de Bell no creo que sea el momento en entreteneros con una descripción detallada del mismo, lamentablemente no he encontrado tampoco un vídeo explicativo en español que resuma de manera didáctica las ideas de base de este teorema, por lo que incluyo uno en inglés que puede servir para quien quiera profundizar en esta temática, creo que es bastante didáctico (salvando el posible obstáculo del idioma):
A partir del Teorema de Bell varios grupos de investigadores realizaron experimentos para probar los resultados del mismo y ver si Einstein estaba en lo cierto y podían existir "variables ocultas" no halladas pero que podrían explicar las "rarezas" del mundo cuántico. Se han realizado decenas de experimentos con esta idea en mente y todos por unanimidad proporcionan validez a la interpretación aceptada de la Mecánica Cuántica y refutan las conclusiones de la paradoja EPR, uno de los experimentos más famosos es el que el físico Alain Aspect realizó en la Universidad de París en 1982 y que se describe en el siguiente vídeo (Aspect es el señor con un gran bigote que aparece en el vídeo), donde se muestra claramente cómo la realidad física, a nivel fundamental, está llena de los "spooky actions at a distance" (acciones fantasmales a distancia) que tanto inquietaban a Einstein:
En este post voy a basarme en las lecturas de trabajos de Edgar Morin, Charles Eisenstein, Bruce Lipton, J. Habermas y otros autores que han estudiado la "forma" en que está construido el paradigma científico predominante, no como "seguidor" acérrimo de ninguno de ellos, pero reconociendo que aportan ideas y pruebas que clarifican enormemente las características de la "forma" en que los científicos y ese cuerpo social llamado "ciencia" describe el mundo
Abordaré fundamentalmente 2 disciplinas científicas que describen claramente la forma en que se percibe el mundo desde el punto de vista científico y que se transmite al resto de la sociedad = la Física y la Biología
La Revolución de la Mecánica Cuántica
(la "lucha" de Einstein vs Bohr)
He descrito con anterioridad el "proyecto científico Laplaciano" como el paradigma de la mentalidad científica de los siglos anteriores al siglo XX, y como dice mi hermano al respecto, hasta recientemente se pensaba que el saber era como una gran tarta, que íbamos comiendo una parte cada vez mayor y cada vez quedaba una porción menor intacta, y así a finales del siglo XIX la incansable labor de los científicos parecían que estaban a punto de acabar con los últimos pedazos de la "tarta" del saber, de tal forma que el presidente del departamento de Física de la Universidad de Harvard advirtió a sus alumnos en 1893 que ya no se iban a necesitar más alumnos de Física, pues alardeaba de que "La Ciencia había establecido que el universo es una "máquina material" constituida por átomos físicos e indivisibles que siguen exactamente la mecánica de las leyes newtonianas"
La Física había muerto, como dice Hawking ahora de la Filosofía....Estaba descrita ya, "cerrada", sólo era cuestión de mejorar instrumentos y cálculos y lo sabríamos "todo"
Qué ciegos estaban, ¡pero si la "fiesta" no había hecho más que empezar!, pero además de una forma terriblemente inquietante para los espíritus de la época
A finales del siglo XIX y principios del siglo XX toda esta visión optimista sobre la onmisciencia del método científico iba a sufrir fuertes reveses
Comenzando por Laplace, que había estudiado la estabilidad del Sistema Solar a principios del siglo XIX, ya Henri Poincaré en 1892 al analizar el llamado "problema de los 3 cuerpos" encontró que esos sistemas gravitatorios (de n-cuerpos con n>=3) presentan una inestabilidad intrínseca que hace que minúsculas variaciones en las condiciones hacen impredecible la evolución del sistema a tiempos suficientemente largos. Este resultado lo corroboró Jacques Hadamard que refutó los resultados de Laplace sobre la estabilidad del Sistema Solar en 1898, ejemplificándolos en el famoso "billar de Hadamard", primer ejemplo de "caos determinista" en el sentido de que un sistema descrito perfectamente por las ecuaciones que rigen su dinámica, presenta comportamientos fuertemente dependientes de las perturbaciones que hacen prácticamente imposible la predicción a tiempos suficientemente alejados
Esta sería la primera crítica al
determinismo Laplaciano "desde dentro", de tal manera que se afirma
que todo está determinado pero no es determinable a la manera de Laplace. No
obstante la ciencia se iba a encontrar formas mucho más radicales de negación
del determinismo, formas que iban a atacar a algo mucho más profundo que el determinismo
"à la Laplace"
El siguiente ataque a toda la forma
anterior de entender la Física provendría de la Mecánica Cuántica, que supuso
una auténtica revolución en la forma de entender los fenómenos físicos, y aún
más supuso una revolución en la forma de entender el "conocer", y lo
que es "ciencia" y sus fines. A pesar de haber pasado más de 100 años
desde los primeros resultados de la Mecánica Cuántica a efectos prácticos la
"visión" de la Ciencia no se ha adaptado a esta nueva forma de
entenderla, y aún perduran muchos aspectos del anterior paradigma
Los principios de la Mecánica Cuántica se deben a Max Planck, que al estudiar las variaciones de la emisión de radiación con la temperatura del llamado "Cuerpo Negro" utilizó como mera "herramienta" la idea de que las emisiones de radiación discurrían de forma discreta ("cuantizadas") y la verdad es que Planck no se "creía" la propia naturaleza de esta suposición, y tomó el uso de los "cuantos" y la naturaleza discreta de la energía, como una mera estrategia de mejora de los cálculos y no como algo con profundo sentido físico. Estaba muy equivocado....
No es misión de este artículo hacer una revisión sistemática de la historia de la Mecánica Cuántica, sino describir los aspectos relevantes y en especial aquellos puntos que alteraron profundamente la visión del mundo de la ciencia que se tenía
Como método explicativo del cambio radical que supuso la Mecánica Cuántica me detendré en 3 de los experimentos que mejor describen la "rareza" del Mundo Cuántico, como son el experimento de Stern y Gerlach de 1922 , el de la Doble Rendija (o de Young) en su versión de 1974, y por último el experimento de Alain Aspect de 1982 sobre el Teorema de Bell
El experimento de Stern-Gerlach se basaba en someter una haz de átomos de plata a un campo magnético no homogéneo, de tal forma que el campo magnético crecía en el sentido del camino a seguir por el haz de partículas; así la deflexión (cambio de dirección) que sufriría en su trayectoria cada una de las partículas estaría en relación directa con el ángulo del momento magnético de la partícula individual respecto a la orientación del campo magnético
He aquí un esquema de ese experimento:
En la figura anterior a la derecha aparece lo que era esperable desde el punto de vista de la mecánica clásica, es decir, lo esperable es que los momentos magnéticos (spin) de los átomos de plata estuviesen orientados aleatoriamente, de tal forma que serían desviados de forma aleatoria al entrar en el campo magnético del experimento y, por tanto, era de esperar que apareciese una distribución aproximadamente uniforme de los impactos en la placa reveladora (como aparece en la parte derecha del dibujo anterior "expected classical results") pero lo que Stern y Gerlach econtraron fue algo muy distinto, y en realidad lo que aparecieron fueron sólo 2 franjas de impactos muy claras que indicaban que los átomos se agrupaban como si tuviesen sólo 2 spin (y no una distribución de ellos), esos spin (momentos magnéticos) eran +h/2 y -h/2 ¡y sin valores intermedios!
Llegaron a la conclusión que los spin de los átomos de plata están "cuantizados" es decir, toman valores discretos cuando atraviesan un campo magnético no homogéneo en el sentido de la trayectoria, y en cualquier orientación que se haga el experimento, pero ¿porqué están cuantizados esos spines?¿están cuantizados "antes" o sólo "durante" el experimento? Estas son algunas de las preguntas que surgen a las que no tenemos respuestas, pero es que el experimento de Stern-Gerlach proporciona conclusiones aún mucho más "extrañas"
Si ahora en vez de usar un sólo aparato de Stern-Gerlach, usamos 3 en serie uno para una componente cartesiana (eje z) y otro para la componente perpendicular a la anterior (eje x) y por último otro que "criba" de nuevo las partículas en el eje z, obtenemos el siguiente esquema
El experimento puede describirse de la siguiente forma:
1) A a salida de la fuente de emisión de átomos colocamos un aparato SG (Stern-Gerlach) y sometemos a las partículas a la separación según su spin según el eje z, de tal forma que los átomos con componente de spin -h/2 los desechamos y sólo seguimos usando los de la componente +h/2
2) A la salida del SG de eje z le colocamos otro aparato SG pero girado 90º, de tal forma que ahora separará los spin de los átomos según el eje x, y sólo trataremos el haz que había salida del primer aparato de SG con spin +h/2. El haz de salida del 2º SG con spin -h/2 lo desechamos también
3) Hacemos pasar el haz de átomos con spin +h/2 en sentido del eje x, del 2º SG que recordemos que ya había pasado por el 1º aparato SG que había seleccionado los spin +h/2 según el eje z, por ello, si ahora lo hacemos pasar por un aparato SG orientado de nuevo en el eje z, lo esperable es que sólo salgan átomos con spin +h/2 en el eje z, ya que así habían sido seleccionados con el 1º aparato SG
4) Pues bien el resultado del experimento es que a la salida del 3º aparato SG obtenemos de nuevo un patrón aleatorio de 2 franjas y de nuevo sólo con spin +h/2 y -h/2 en dirección del eje z, como si el haz no hubiese pasado por ningún aparato SG previamente
¿Qué nos está diciendo el experimento anterior?, pues algo verdaderamente desconcertante, nos indica que por el hecho de medir la propiedad del spin en el eje x, se destruye completamente la selección realizada anteriormente en el eje z, y esto es independiente de las cantidades de energía empleadas o de las orientaciones tomadas en la medida, es decir, es el simple hecho de medir una propiedad lo que altera radicalmente a la otra propiedad volviéndola aleatoria
Al comportamiento anteriormente descrito se le llama en la Mecánica Cuántica que el spin z y x son Propiedades Complementarias que en su definición más general se definen así: "Si preparamos un objeto donde la propiedad A toma un valor preciso, entonces siempre existe una propiedad B cuyo valor está completamente indeterminado. En este caso afirmamos que la propiedad A y B son Complementarias"
Es muy común describir la indeterminación a que alude la Mecánica Cuántica sólo a la luz del Principio de Incertidumbre de Werner Heisenberg, y que se justifica como un problema de "medición" en el sentido de que es la intensidad de la radiación necesaria para obtener la medida la que hace que no se pueda conocer exactamente la posición y la velocidad de las partículas, pero lo que nos indica la existencia de las propiedades complementarias es algo mucho más profundo, habla de una indeterminación "inmanente" que NO depende del aparato ni de la intensidad de la medida, suponen, de hecho, una barrera infranqueable a nuestra capacidad de determinar los sucesos
Se trata de una indeterminación esencial que NO se supera por el "afino" de los métodos de medición y de la que no sabemos absolutamente nada de porqué sucede, pues como dice el físico Richard Feyman: "Nadie entiende la Mecánica Cuántica"
Otro aspecto que surge de las conclusiones de los experimentos de la Mecánica Cuántica es lo que se conoce como "entrelazamiento cuántico" que describe que las partículas entrelazadas, sostienen interacciones entre ellas de forma instantánea, por lo que, desde el punto de vista cuántico, no son en realidad "una" partícula, sino un "sistema". Así cuando se miden dos partículas entrelazadas de forma separada en el espacio, las mediciones sobre una de ellas afectan de modo instantáneo (en contradicción con los límites relativistas de la velocidad de la luz) a la otra partícula. A esta propiedad Einstein la llamó, en forma un tanto de burla, "spooky action at a distance" = acción fantasmal (o escalofriante) a distancia
Pero las "rarezas" de la Mecánica Cuántica no hicieron más que empezar con ese experimento, hubo otro experimento cuyos resultados literalmente erizaron el vello de los físicos, me refiero al Experimento de la Doble Rendija, en su versión de 1974, que se realizó electrón a electrón por Pier Giorgio Merli en Bolonia y repetido de forma concluyente por Akira Tonomura en 1989
A continuación os dejo un vídeo que explica, creo, bastante claramente como se hizo el experimento y las conclusiones que se sacaron del mismo:
Si habéis visto detenidamente el vídeo anterior en él una de las conclusiones que claramente queda de manifiesto es que el observador está íntimamente integrado al experimento, es decir, a partir de la Mecánica Cuántica ya no se puede separar el observador del suceso observado, ya no tiene "sentido" hablar de un "universo que está ahí afuera", pues para la Física Cuántica el acto de observar "define" el devenir del fenómeno de forma "esencial", tal y como ocurre, por ejemplo, en las Propiedades Complementarias o en el "colapso de la función de onda" del electrón en el experimento de la doble rendija y altera así la forma en que se comporta el Sistema. Igualmente no se trata de un cambio motivado por la "intensidad" de la interacción del observador sobre el hecho observado, como parece sugerir el Principio de Incertidumbre, sino que aparentemente se trata de un fenómeno esencial del Universo
Todos estos resultados supusieron un auténtico shock para los científicos de la época y uno de los que comprendió con más claridad las implicaciones de estos experimentos fue Albert Einstein, que entendió que estos resultados no sólo abrían una nueva forma de entender la física, sino que atacaban los pilares fundamentales sobre los que se sustentaban todo el edificio del conocimiento (no sólo de la Física) y toda la forma de entender el Mundo, y eran los principios del "Realismo" (u objetivismo) y del Determinismo, es por ello que Einstein mencionó dos de sus frases más famosas como defensa de estos dos principios:
El principio del "Realismo" es aquel que afirma que existe una "realidad en sí" independiente del observador, y que por tanto existen "elementos de realidad" que la Física sólo se encarga de revelar, pero que en realidad son "propiedad" de la realidad, de los entes "en sí". La famosa frase de Einstein en defensa de esta idea fue : "Me gustaría pensar que la Luna continúa allí aunque no hay nadie mirándola"; a lo que el físico cuántico Asher Peres contestó: "los experimentos que no se realizan no obtienen resultados"
El "tono" general de los científicos cuánticos cambió de forma radical, pasando del "Realismo" de Einstein y los suyos, al "Positivismo" de Bohr y de la Mecánica Cuántica en general, donde ya no era riguroso hablar de la "realidad", sino de experimentos, donde no se podía soslayar la presencia del observador como tal
Veremos más adelante como todos los intentos de hacer emerger "elementos de realidad" y probar así la "incompletitud" de la Mecánica Cuántica, propuesto por Einstein, han fracasado estrepitosamente
Por otro lado en defensa del Determinismo Einstein mencionó en una carta a Max Born la famosa frase "Dios no juega a los dados", a lo que, según parece Bohr replicó : "no le diga usted a Dios qué tiene que hacer con sus dados", y esta respuesta acierta de pleno sobre la clase de "hybris" que había definido hasta entonces el pensamiento científico y que actualmente sigue en boca de sus figuras relevantes, como Hawking, que parecen haberse saltado 100 años de conclusiones científicas sobre sus propios límites, y es que la idea "vulgar" que se asocia a la capacidad de la Ciencia y sus fines es la misma que la de finales del siglo XIX sin merma alguna a su omnipotencia descriptiva de la "Realidad"
Este "jarro de agua fría" sobre las pretensiones totalizantes de la Física llegaron también a otros ámbitos del saber, como las Matemáticas, donde el Teorema de Incompletitud de Gödel dio una respuesta negativa al 2º problema de David Hilbert de 1900 que buscaba la validación de los sistema axiomáticos de la matemática "desde dentro", las conclusiones del teorema de Gödel pueden resumirse en :
"nunca se podrá encontrar un sistema axiomático que sea capaz de demostrar todas las verdades matemáticas y ninguna falsedad"
o bien en otra formulación verdaderamente "inquietante":
"Si se puede demostrar que un sistema axiomático es consistente a partir de sí mismo, entonces es inconsistente"
Nos encontramos con que todas las ciencias encuentran a principios del siglo XX sus límites a la forma en que están definidas, es decir, todas ellas encuentran que las conclusiones de sus experimentos o de sus investigaciones contradicen la "visión" anterior que animaba el edificio conceptual, su "Paradigma"
Volviendo al caso de la Mecánica Cuántica, las implicaciones ontológicas de sus resultados supusieron un terremoto conceptual para los científicos de la época, y como he mencionado antes, Einstein comprendió con toda profundidad las implicaciones de aceptar eso como parte del cuerpo de la Ciencia, es por ello que a partir de los años 30, la mayor parte de los esfuerzos de Einstein se dedicaron a probar que la Mecánica Cuántica no presenta una descripción completa de la realidad física
Así en el año 1935 Einstein, junto a Boris Podolsky y Nathan Rosen presentaron un trabajo que describe un experimento mental (paradoja EPR) en el que se trata de demostrar que la Mecánica Cuántica, al no cumplir los criterios de "localidad", que implica que no es posible una acción instantánea a distancia (contradice el límite de la velocidad de la luz de la Relatividad) y no cumple con la descripción del problema de la medición, es decir, que contradice la idea de que los cuerpos, los entes, las mediciones tienen un sustrato real, que el objeto posee y que podríamos encontrar si pudiésemos medir esa variable sin perturbar al objeto (que existen "elementos de realidad" en las mediciones que se hacen)
En realidad el teorema EPR es más una crítica que una demostración de nada, pero prefigura la diferencia entre las concepciones existentes de la Física
La tesis EPR apunta a la existencia de "variables ocultas" desconocidas por los físicos y que explicarían los resultados de la Mecánica Cuántica, recuperando el determinismo y la "localidad" que ignora la Mecánica Cuántica en la formulación existente hasta la fecha ("Interpretación de Copenhage" defendida por Bohr)
En 1964 el físico irlandés John Bell presentó el llamado Teorema de Bell que perseguía establecer un marco teórico para plantear los experimentos que podrían demostrar si lo expresado en la paradoja EPR era cierto y existen rastros de "variables ocultas" que cumpliendo los criterios de "localidad" (no existe una propagación instantánea de ninguna interacción a distancia) y de "realidad" (los estados físicos existen antes de ser medidos) permiten explicar los resultados experimentales proporcionados por la Mecánica Cuántica
Bell, empezó a desarrollar su teorema persuadido de que Einstein tenía razón, al objeto de refutar la llamada "Interpretación de Copenhage" de la Mecánica Cuántica , y así lo explica él mismo:
"Yo pensaba que la superioridad intelectual de Einstein sobre Bohr en este punto era enorme: una distancia gigante entre un hombre que veía claramente lo que se necesitaba (Einstein) y un oscurantista (Bohr)"
Paradógicamente el teorema de Bell permitió un método para demostrar, por métodos experimentales, que las ideas de Einstein eran falsas y que no había forma de encontrar "variables ocultas" que pudiesen explicar los resultados experimentales de la Mecánica Cuántica. El "enano" Bohr triunfaría en esta prueba
No es este un artículo para entretenerme en las cualidades intelectuales de Einstein, pero hay que tener en cuenta que Einstein ha sido probablemente uno de los científicos más sobre-valorados de la historia de la ciencia, y quizás esto se debe al triunfo de su propia estrategia de no hacerse deudor de las ideas de otros. Es inaudito que en 1905, en su famoso artículo en la revista "Annalen der Physik" donde exponía "sus" ideas sobre la Relatividad Especial no cita ni una sola referencia, como si los trabajos y conclusiones previas de Henri Poincaré, Hendrik Lorentz, George Fitzgerald o los experimentos de Michelson y Morley no hubiesen existido nunca o no hubiese tenido noticias de ellos, cosa completamente absurda y fuera de lugar; estas referencias sólo las reconoció más tarde cuando sus resistencias a dar el crédito merecido a sus predecesores eran ya manifiestamente ridículas
Así Einstein, en otro artículo publicado en los "Annalen der Physik" en 1907, tuvo que reconocer a regañadientes, a partir de la revisión de su trabajo hecha por Planck y Kauffmann, que:
"Parece que la naturaleza del trabajo que realizo, ya ha sido, en parte, solucionado por otros autores. A pesar de esto, y dado que estas cuestiones pueden abordarse desde un nuevo punto de vista, creo que tengo el derecho a pasar por alto el estudio profundo de esa pedante literatura, sobre todo, porque creo que existen lagunas que pueden ser cubiertas por otros autores. Como ya ha ocurrido con mi primer trabajo sobre la relatividad, a través de los encomiables esfuerzos del Sr. Planck y del Sr. Kaufmann"
La inclusión de referencias a otros autores la llama Einstein "pedante literatura", y es que la visión que tiene Einstein de las ideas como "propiedad" son propios del paradigma o visión del mundo en que se halla inserto él y todo su trabajo, porque hay que repetirlo una y otra vez, los actos de las personas, aunque éstas sean pretendidamente investigaciones científicas "asépticas" están mediatizadas por la "Teoría del Mundo" que esas personas y la comunidad en la que se hallan insertos, sostienen
Aquello que se llama "Realidad" es fruto de un acuerdo entre los miembros de una Comunidad, pues todo "hecho" se describe a partir de una teoría (Russell Hanson), o como decía Nietszche "no existen hechos, sólo interpretaciones"
Todo esto, esta forma de pensar de Einstein se halla inmerso en el que algunos, como Charles Eisnestein, llaman "Paradigma de Separación" que sostiene que hay una separación real e infranqueable entre los individuos y el mundo (objetivo), entre la consciencia y el cuerpo, entre los hombres entre sí, entre las ideas de unos hombres y las de otros, etc...de la que ha derivado nuestra pluri-secular visión del mundo que, desde hace unas décadas, ha entrado en crisis...Volveré sobre este tema más tarde
Volviendo al teorema de Bell no creo que sea el momento en entreteneros con una descripción detallada del mismo, lamentablemente no he encontrado tampoco un vídeo explicativo en español que resuma de manera didáctica las ideas de base de este teorema, por lo que incluyo uno en inglés que puede servir para quien quiera profundizar en esta temática, creo que es bastante didáctico (salvando el posible obstáculo del idioma):
A partir del Teorema de Bell varios grupos de investigadores realizaron experimentos para probar los resultados del mismo y ver si Einstein estaba en lo cierto y podían existir "variables ocultas" no halladas pero que podrían explicar las "rarezas" del mundo cuántico. Se han realizado decenas de experimentos con esta idea en mente y todos por unanimidad proporcionan validez a la interpretación aceptada de la Mecánica Cuántica y refutan las conclusiones de la paradoja EPR, uno de los experimentos más famosos es el que el físico Alain Aspect realizó en la Universidad de París en 1982 y que se describe en el siguiente vídeo (Aspect es el señor con un gran bigote que aparece en el vídeo), donde se muestra claramente cómo la realidad física, a nivel fundamental, está llena de los "spooky actions at a distance" (acciones fantasmales a distancia) que tanto inquietaban a Einstein:
Posteriormente al experimento de Aspect se han realizado muchos otros que corroboran sus resultados a distancias cada vez mayores, como Anton Zeilinger en 2001, o Nicolas Gisin en 2008 que desplazó fotones varias decenas de kilómetros bajo el lago Ginebra, y en todos los casos se confirma que la realidad está llena de "spooky actions at a distance" que contradicen las más fuertes de nuestras intuiciones. En el caso del experimento de Gisin las interacciones entre los pares de fotones entrelazados en el sentido cuántico, deberían viajar a una velocidad del orden de 10.000 veces la velocidad de la luz caso de existir esa "interacción"
No seré yo quien entre en consideraciones aventuradas sobre las implicaciones de la Física Cuántica, en el sentido de invocar una suerte de "subjetivismo" como parecen defender ciertas interpretaciones "radicales", donde la realidad sería una suerte de "holograma" creado por la mente; de tal forma que toda la realidad sería "creada" por la consciencia, que para empezar deberíamos definir claramente qué es, siendo el del "consciencia" otro concepto en "crisis" de significación
No comparto en absoluto esas conclusiones y no hay resultados que la soporten; lo que sí estoy dispuesto a asumir es que no hay una separación absoluta entre nosotros y el universo o "eso" que llamamos "realidad"; que no existe un "universo objetivo" completamente separado de nosotros, y por supuesto que la visión científica es una porción de una visión más general sobre lo que "creemos que somos", y que esa "visión" está cambiando y lo continuará haciendo por la propia dinámica de los "rendimientos decrecientes" del paradigma en vigor
Me detendré ahora en otro campo de la Ciencia donde se manifiestan también claramente los "rendimientos decrecientes" en la forma de entender lo que somos y su manifestación en las descripciones científicas de la Realidad, en este caso abordaré los cambios recientes en las investigaciones en Biología
El cambio de paradigma en Biología
(doctora Lynn Margulis)
Pocos campos del saber reciben y transmiten una influencia mayor sobre la noción "de lo que somos" que la Biología, ya que al definirnos a nosotros mismos como seres vivos sujetos a las leyes de la Vida, según definamos cuáles son esas leyes así definiremos cómo es "el Hombre"
Por tanto las conclusiones de la Biología tendrán un efecto claro sobre el resto de las actividades humanas pues proporcionan un marco descriptivo y legitimatorio sobre las formas de organización, causas, fines, etc... En este sentido consideraré a la Medicina como un "apéndice" de la Biología, y aunque sabemos que por su entidad merece una consideración aparte, las agruparé para simplificar
Estableceré un paralelismo sobre los sucesos que acontecieron en la Física y los que atañen a la Biología, con el fin de poner de manifiesto que los "ataques" al paradigma existente han sido similares y derivan del debilitamiento del mismo paradigma que sustenta ambas visiones del mundo
Empezando por el mundo de la genética, a mediados de los 90 del pasado siglo cuando se lanzó el "Proyecto Genoma Humano" la situación de la Biología recordaba a la de la Física de un siglo antes, se pensaba que el hallazgo del genoma humano abría las puertas a la "solución" de la mayor parte de los problemas de salud y congénitos, de tal forma que los genes podrían asimilarse a un teclado, ya que al considerarse que cada gen codifica una proteína, al manipular un gen, se afecta univocamente a esa proteína a la cual se "controla", "maneja" y "guía" en su función
Una vez descifrado el genoma humano, los científicos se sentarían en su flamante teclado genético y podrían "afinar" las teclas para ir haciendo desaparecer las enfermedades, para conseguir así "mejorar" al ser humano, de por sí tan imperfecto, para que pudiese llegar a ser un ser "perfeccionado" a la manera de los replicantes de Blade Runner pero con mucha más longevidad. ¡Qué magnífico sueño!
Lamentablemente todo esto no era más que pura fantasía producto del delirio del "control" tan caro al "programa del progreso" de la Ciencia
La realidad es que conocer el genoma y pretender entender como funcionan los extraordinariamente complejos mecanismos de la biología de los seres vivos equivale a que un extraterrestre por el hecho de haber identificado las letras del abecedario, a partir de ahí pretenda entender e interpretar todas las sutilezas, matices, humor, doble sentido, etc... de, por ejemplo el libro "El Quijote" de Cervantes
La complejidad inherente no había hecho más que emerger, y a cada timida respuesta que se encontraba surgían un torrente de nuevas preguntas sin resolver
El genetista y premio Nobel David Baltimore al hablar de las consecuencias del proyecto Genoma Humano en 2001 dijo:
"A menos que el genoma contenga un montón de genes que resultan invisibles para nuestros ordenadores, es evidente que nuestra incuestionable complejidad no se basa en que tengamos más genes que los gusanos o las plantas. Comprender cual es el origen de nuestra complejidad seguirá siendo un enigma por descubrir en el futuro"
Como describe el biólogo Bruce Lipton, el gusano Caenorhabditis tiene un cuerpo formado por exactamente 969 células y un cerebro con exactamente 302 neuronas, y sin embargo el genoma de ese gusano está formado por 24.000 genes, es decir, sólo 1.500 genes menos que el del ser humano, y mientras que nosotros tenemos cincuenta billones de células y sostenemos una complejidad orgánica, conductual, de aprendizaje, sensorial, etc...muchísimo más rica que la de ese gusano, a pesar de que éste tiene casi el mismo número de genes en su genoma....Las cosas no son tan simples como preveía el reduccionismo mecanicista del Proyecto Genoma Humano
El Paradigma actual vigente en la Biología afirma que es el ADN el que "controla" a los seres vivos, que de alguna manera son "máquinas" al servicio de los genes, que, en la lucha evolutiva de los ecosistemas, los genes usan esas "máquinas vivas" para maximizar su número, perpetuarse y extenderse por el Mundo en competencia por los recursos escasos, con otros genes. Esta forma de entender la vida quedó expuesta de forma meridianamente clara en el "Gen Egoista" de Richard Dawkins (1976). Y además esa primacía del ADN es la que da sentido al Determinismo Genético que está en la base de todo el moderno cuerpo de la Biología, incluido el Proyecto Genoma Humano
(Nota: este concepto, por otro lado es el equivalente al Paradigma de la "Ciencia" económica que considera que los seres humanos son entes racionales cuyo propósito es la maximización de su "utilidad marginal" entendida como "financiera", en competencia con los otros seres humanos por los recursos escasos. Ambos derivan del mismo paradigma de origen)
Como se ha visto en el caso de las conclusiones del Proyecto Genoma Humano, toda esta idea del "gen egoísta" y que es el ADN el que controla el funcionamiento de los seres vivos, como si fuese una especie de CPU que controlase el "ordenador" que es el ser vivo, hace aguas por todos lados, se trata, de nuevo de una visión heredera del más puro reduccionismo mecanicista contra el que se agolpan cada vez más investigaciones y pruebas
Los biólogos conocen desde hace muchas décadas que las células enucleadas (a las que se les ha quitado el núcleo) permanecen vivas durante meses, y sin embargo no ha sido hasta hace muy poco que se le ha dado la justa importancia a este hecho (el paradigma funciona haciendo literalmente "invisibles" o "falsos" los resultados que lo contradicen)
Las células enucleadas ingieren y metabolizan los alimentos de forma activa, mantienen la coordinación de su sistema fisiológico, conservan la capacidad de comunicarse con otras células y son capaces de desarrollar estrategias de huida o protección desencadenadas por el medio. Evidentemente la enucleación tiene efectos negativos, pues la célula no puede reponer las proteinas citoplasmáticas deterioradas, y tras un par de meses la célula muere por la falta de ese remplazo, pero siguiendo con el símil informático, estos experimentos muestran que el núcleo (ADN) no funciona como la CPU que controla al organismo, sino como la memoria donde almacena la información que la CPU usará, o usando otro símil, el núcleo no es el "cerebro" que guía el comportamiento de la célula sino sus "gónadas"
En las nuevas investigaciones que se están realizando el ambiente tiene cada vez mayor peso a la hora de definir el comportamiento "genético" de los seres vivos, así en este contexto debe entenderse el funcionamiento de las "proteínas reguladoras" que recubren las moléculas del ADN como si fuesen una "manga", de tal manera que la expresión de un gen está controlado por la forma en que están desplegadas esas proteínas reguladoras, las cuales están, a su vez, profundamente influenciadas por el ambiente
Estas son las conclusiones de una verdaderamente nueva ciencia que es la Epigenética llamada a revolucionar la forma de entender la Biología, donde no será ya posible establecer una "barrera" entre los herencia y el entorno, o entre lo que "son" los seres vivos y el entorno, de la misma forma que la Física Clásica establecía une diferencia esencial entre el "mundo objetivo" y el "observador" que la Mecánica Cuántica se ha encargado de borrar
Gracias a los resultados de la Epigenética se está volviendo a resucitar en parte algunas de las ideas de Jean Baptiste de Lamarck cuyas ideas sobre la herencia de los caracteres adquiridos y otras formas más "cooperativas" de evolución fue desechada de forma absoluta en beneficio de la teoría Darwiniana de la evolución, donde los cambios genéticos estaban guiados por el "azar" y el mecanismo evolutivo básico era la lucha despiadada por la supervivencia entre los individuos y las especies
Actualmente se sabe que las tasas de mutación de las bacterias se aceleran en medio hostil, de tal forma que perece que la capacidad de mutar de las mismas está condicionada por algo más que el "azar", y por otro lado, como todo el que ha leído sobre el incremento de las bacterias resistentes a los antibióticos sabe, existe lo que se llama "transferencia horizontal" de genes entre las bacterias que hace que pasen a ser resistentes a los antibióticos bacterias que ni siquiera han estado en contacto con esos agentes gracias al "regalo" de otras bacterias
Pero actualmente se está viendo que el mecanismo de transferencia horizontal de genes actúa también sobre los animales y plantas y no sólo sobre los virus y bacterias, por citar un par de ejemplos:
+ El escarabajo Hypothenemus hampei conocido vulgarmente como "broca del café" posee un gen llamado HhMAN1 que codifica una proteína llamada mananasa que es capaz de descomponer el polisacárido galactomanano que se encuentra en gran cantidad en los granos de café y que hasta la fecha sólo se había encontrado en especies bacterianas, probándose la transferencia horizontal de ese gen
+ El crecimiento de "super-hierbas" que han adquirido la resistencia a herbicidas como el Roundup de Monsanto por transferencia genética desde plantas genéticamente modificadas para resistir ese herbicida, lo cual está arruinando las cosechas de estos cultivos a un ritmo acelerado. La respuesta de Monsanto es una "escalada bélica" donde, según parece, tienen una variedad que resiste el defoliante 2,4-D que era uno de los componentes principales del "agente naranja" usado asiduamente en la Guerra del Vietnam, con nefasto efecto en la salud de las personas expuestas, esperemos que no dure mucho esta locura, porque es seguro que al final surgirán "super-hierbas" adaptadas a este nuevo agente por transferencia horizontal de genes, pero con peligro cierto para el resto de la Biosfera
Bueno, pero, ¿queda el Hombre, o en general los organismos superiores fuera de este ámbito de interacción? pues parece que no, de hecho hay un extraordinariamente interesante artículo donde se hace la pregunta : Can viruses Make us Human?, donde cuando se compara el genoma humano con el de los chimpancés se encuentra que son iguales en un 98,5%, es más, atendiendo sólo a las regiones de ADN codificadoras de proteínas, los genomas del chimpancé y el Hombre son idénticos, y las diferencias fundamentales están en lo que hasta ahora se consideraba ADN "basura", en particular se trata de segmentos llamados "retrotransposones" que se mueven a lo largo del genoma, cambiando de localización gracias a la acción de la enzima transcriptasa inversa (o retrotranscriptasa) que se encuentra primordialmente en los retrovirus. Este ADN se consideraba hasta hace poco "sin función" o "egoísta", de tal forma que sería un ADN "parásito" sin función más allá de su perpetuación (a la manera del "gen egoísta" de Dawkins), dado que no tienen fenotipos asociados. Pero el hecho fundamental es que son esas porciones de material genético retroviral lo que distingue a los humanos de los chimpancés, y es más, todas las formas superiores de vida se distinguen unas de otras en virtud de secuencias similares de origen retroviral
Además paradójicamente la secuencias no-codificadoras del ADN se conservan mejor en el linaje que las secuencias codificadoras; y todo apunta a que esas secuencias perduran y cambian a través del mecanismo de formación de las especies
Las evidencias se amontonan y cada vez está quedando más claro que el azar no es un mecanismo adecuado para explicar las muy improbables mutaciones positivas que se requieren para las diferencias entre especies, y cada vez parece más probable que sean los virus y bacterias y su extraordinaria variabilidad genética los que son capaces de "inducir", por transferencia, las modificaciones genéticas que produce la especiación
Todo esto contradice los fundamentos básicos del Neo-darwinismo que es la teoría vigente del origen de la evolución que señala que es el "azar" y las modificaciones graduales en inmensos períodos de tiempo, asociados a la selección natural, el mecanismo subyacente de generación de nuevas especies. Pero esto es difícil de sostener en especies superiores donde el número de individuos es muy bajo (como ocurrió, por ejemplo, en los hominidos durante millones de años) y así las probabilidades de cambios sustancialmente positivos en el genoma fruto del puro azar son infinitesimalmente pequeñas hasta llegar a ser, de hecho, prácticamente imposibles
Todo esto contradice la visión de las especies como entes singulares y aislados, y donde el mecanismo evolutivo está basado en el azar y en la lucha, en un universo de "garras y dientes ensangrentados" que es lo único que produce las mejoras por evolución de las especies, y me temo que un número abrumador de pruebas se acumula en contra de esta visión reduccionista. Por supuesto que la selección natural tiene su sitio, pero los mecanismos de cooperación (o de simbiosis) han tenido un peso muy sustantivo en el proceso, y probablemente mayor en la dinámica de la especiación
Por otro lado los trabajos de la bióloga Lynn Margulis también han aportado nueva luz a una serie de mecanismos que están implicados en la evolución de la Vida, y que van en contradicción directa del paradigma neo-darwiniano
Lynn Margulis retomó los trabajos de Andreas Schimper (1883), Konstantin Mereschkovsky (1909) y Paul Portier (1918) que ya defendían que los cloroplastos y las mitocondrias provenían de una asociación simbiótica de una bacteria con una célula. Todos estos autores fueron inmediatamente desprestigiados por el "dogma" evolutivo existente, ya que hablar de "simbiosis" o "cooperación" como partícipe en los mecanismos de evolución de la Vida era un auténtico anatema, pues todo el mundo "sabe" que las especies sólo pueden mejorar por la dinámica de las "garras y dientes ensangrentados"
Lynn Margulis trató de publicar sus impresionantes trabajos sobre el origen bacteriano de las mitocondrias durante 2 años y ese trabajo fue rechazado en 15 ocasiones por diferentes publicaciones y universidades, como una auténtica "locura", sin de verdad analizar la contundencia de las pruebas que en ese trabajo se incluían (y que eran abrumadoras), sólo fue posible su publicación por el empeño personal de James F. DaNelly en una revista de 2ª fila, el Journal of Theoretical Biology
Ni que decir tiene que esta teoría despertó un aluvión de críticas desde la ortodoxia neo-darwiniana, las cuales fueron silenciadas una a una, y tras décadas de resistencia, a día de hoy ya ha sido admitido como válido la teoría de Margulis sobre el origen de las mitocondrias y los cloroplastos, no obstante no se consideran aceptados otras partes de su teoría
El fondo de la teoría de la Endosimbiosis seriada es que las células eucariotas evolucionaron a partir de la asociación cooperativa de "simbiontes" que eran bacterias primitivas que fueron perdiendo su carácter individual para convertirse ya, de hecho, en un sólo organismo cooperativo. Por otro lado Margulis afirmaba que los órganos como los ojos y el aparato nervioso presentan estructuras micro-tubulares que recuerdan a las de los cilios bacterianos, por lo que en sus últimas investigaciones llegaba a sugerir el origen simbiogenético de las estructuras complejas de los seres vivos
Las investigaciones recientes debilitan cada vez más el "Paradigma de Separación" aquel que dicta que somos seres individuales aislados de forma inherente de un Universo Objetivo, así como del resto de las formas de vida. Seguiré aportando pistas sobre esta cuestión
Hasta hace poco se consideraba que la asepsia, la "lucha contra los gérmenes", era una de las medidas de salud más eficaces que se podían tomar, el uso de jabones antibióticos, antibióticos de todo tipo, diversos mecanismos de esterilización del ambiente, sustancias anti-microbianas de todo orden, etc...todo eso favorecía la "salud" de las personas, ya que nosotros, lo que "somos" son un conjunto de células con un ADN definido y "egoísta" en conflicto permanente y directo con un universo hostil de "gérmenes" que persiguen nuestra extinción en una guerra sin cuartel
Pero aparte del efecto nefasto que el uso indiscriminado de antibióticos está teniendo debido a la aparición de bacterias resistentes a la mayoría de ellos, hay un efecto que hasta ahora se ignoraba y es el que produce en nuestro sistema inmunitario nuestro propio ecosistema de micro-organismos, aquellos "seres" que viven en nuestro interior y que se dice que no son "humanos"
Actualmente se sabe que sólo el 10% de las células que están en nuestro cuerpo tienen ADN "humano", el resto son micro-organismo de todo tipo que habitan en nosotros y que tienen una función primordial, vital, y mucho más allá de lo que se creía como mera ayuda a la digestión
Invito a ver el siguiente vídeo del doctor Guarner sobre el "Microbioma humano" donde se pone de manifiesto el papel fundamental del "ecosistema" bacteriano interno del ser humano en la correcta conformación del sistema inmunitario, y como el sistema inmunitario humano necesita en gran parte de las bacterias internas para poder generar las adecuadas respuestas de protección
En este vídeo el doctor Guarner expone cómo en experimentos con ratones recién nacidos a los que se les ha evitado la exposición a la "contaminación" bacteriana proveniente de la leche y de la piel materna, que es cuando se transfieren las "cepas" bacterianas de la madre, son incapaces de desarrollar un sistema inmunitario funcional. Es decir, la correcta conformación del sistema inmunitario humano es fruto de las bacterias
Particularmente interesante me parecen estos gráficos de la presentación del vídeo anterior:
Puede verse que el descenso de la incidencia de enfermedades infecciosas se encuentra fuertemente correlacionado, en sentido negativo, con el aumento de las enfermedades auto-inmunes, consecuencia al menos en parte, de un uso indiscriminado de las sustancias antibióticas que afectan a nuestro "ecosistema" bacteriano, producto de la idea de "guerra sin cuartel" a las bacterias y otros micro-organismos, dentro de las "consecuencias imprevistas" de nuestro afán de control del medio
Mi padre, médico "hasta la médula" como se definía a sí mismo, siempre decía que los medicamentos son "venenos potentes" y que su uso debe considerarse un "mal menor", pero mal al fin y al cabo, y él predicaba con el ejemplo y tomó poquísimas medicinas en toda su vida, por ese mismo sentido de "respeto" a la estructura compleja de la vida y su falta de "fe" en las virtudes "milagrosas" de la farmacopea llena de "consecuencias imprevistas". Ni que decir tiene que este punto de vista no le hacía precisamente "popular" entre los pacientes, que, en gran medida, piensan que el abuso de medicinas no tiene efecto negativo en la salud, cuando se sabe que las enfermedades iatrogénicas son la tercera causa de muerte, por ejemplo en USA, esto en estudios bastante "conservadores" ( por ejemplo uno del Journal of the American Medical Association, en el año 2000)
Volviendo al tema de los microbios que conviven con nosotros (nuestros "simbiontes), en la actualidad se está empezando a considerar este "ecosistema" o "microbioma" humano como un aspecto fundamental en la salud de las personas y de hecho están proliferando los estudios sobre el "Metagenoma" humano, en el que ya no sólo se pretende la secuenciación de los genes "humanos", sino aquellos incluidos en el "bioma" de micro-organismos que viven en nuestro cuerpo, como en este interesante estudio, de la revista Nature
Ahora quizás empiezan a borrarse las barreras de lo que "somos", pues el funcionamiento de ese "ecosistema" que sustentamos tiene efectos en todos los aspectos de nuestra vida, como lo tiene el funcionamiento de nuestro corazón, nuestros pulmones, nuestro cerebro... y todo aquello que consideramos "nuestro". De hecho hay una influencia sustantiva de nuestros órganos y lo que "creemos" que somos y viceversa, entre lo que creemos que somos y como funcionan nuestro órganos como ya, en parte, describí en un artículo anterior, sobre la influencia de los aspectos "simbólicos" en la salud
Todos los aspectos que he descrito anteriormente están produciendo una silenciosa transformación del paradigma vigente basado en las ideas de Darwin, que como él mismo reconoció repetidas veces en sus escritos, son deudoras de las teorías de Thomas Malthus sobre la lucha y la escasez, las cuales, como he descrito en otros artículos, fueron una respuesta de ataque a las ideas Humanistas de William Godwin , así como las ideas de Darwin fueron una respuesta a la visión menos violenta de la evolución de Lamarck. Y como ya he contado en repetidas ocasiones, para mi las ideas de Malthus y Darwin provienen del "linaje" de pensamiento de Lutero y Calvino basados en una vuelta de tuerca más al Paradigma de Separación que supusieron las ideas de la Predestinación y su visión implacable del destino del Hombre, en respuesta, también, al Humanismo Erasmista
Conclusiones
La constitución del paradigma científico vigente hasta la fecha en Biología, y de la Ciencia en general, es fruto de una Visión del Mundo pre-definida y que ha desechado, desde hace siglos, toda visión alternativa a su descripción de la Estructura de la Realidad, pues lo que es "evidente" forma parte del "axioma" y no es discutible, pues la Ciencia, es decir, la comunidad de científicos revestidos de "autoridad", define sus límites, y éstos están contenidos en un "relato" o "mito fundacional" de la Cultura a partir del cual se define y explica la realidad que nos contiene y no a la inversa
Lo que parece estar ocurriendo ahora es que estamos alcanzando una época de "rendimientos decrecientes" de ese "relato", donde, habiendo alcanzado los límites planetarios, expuestos a una amenaza cierta para nuestra supervivencia y expuestos a unos retos a nivel global e individuales que no tiene precedentes, poco a poco se está agrietando la armadura que sostiene el Paradigma de Separación, pues "Crítica" viene de "Crisis" y es en la creatividad propia de los períodos turbulentos donde se someten a duda las estructuras de pensamiento vigentes
A nivel social desde hace décadas permea la sensación de "cansancio", con una suerte de descontento de las formas de vida que nos hemos dado en el muy próspero Occidente, que Oswald Spengler identificaría como "Decandencia", porque, evidentemente la "decadencia" tiene que ver con la "duda", y todas las dudas sobre la propia estructura legitimatoria sobre la acción, o el uso del poder, es un factor debilitador; por ejemplo la "duda" sobre lo correcto de las ideas racistas o etnocentristas limitan la capacidad de exterminio o explotación del "hombre blanco", cosa que estaba ausente en la época dorada de la expansión Occidental, o en sentido general, la limitación del Paradigma de Separación, por ejemplo en el sentido de la consideración del Otro, que es la base de toda Ética, supone, de hecho, y según el prisma de ese paradigma, un factor debilitador, ya que, parafraseando a Nietszche, podríamos considerar a la Ética meramente como una de las más manidas coartadas de la cobardía...
Esta tendencia que he descrito, ya apuntada por otros antes que yo, como Charles Einsenstein, de debilitamiento del Paradigma de Separación y que creo que se está dando, en la mayoría de los órdenes del saber (y no sólo en la Ciencia); se trataría de la rebelión del "Lebenswelt", el Mundo de la Vida de que hablaba Habermas, contra el avance imparable de lo "sistémico". Esto no significa que estamos más cerca de "La Verdad", cosa que no sé lo que es, sino más bien que está cambiando el "relato", el "mito fundacional" de la Cultura, y, como decía Churchill sobre El Alamein, "esto no es el principio del fín, pero probablemente sea el fin del principio" y así debe ser, creo yo, por el bien de nuestra especie y de la Vida en la Tierra en general
Lo que parece estar ocurriendo ahora es que estamos alcanzando una época de "rendimientos decrecientes" de ese "relato", donde, habiendo alcanzado los límites planetarios, expuestos a una amenaza cierta para nuestra supervivencia y expuestos a unos retos a nivel global e individuales que no tiene precedentes, poco a poco se está agrietando la armadura que sostiene el Paradigma de Separación, pues "Crítica" viene de "Crisis" y es en la creatividad propia de los períodos turbulentos donde se someten a duda las estructuras de pensamiento vigentes
A nivel social desde hace décadas permea la sensación de "cansancio", con una suerte de descontento de las formas de vida que nos hemos dado en el muy próspero Occidente, que Oswald Spengler identificaría como "Decandencia", porque, evidentemente la "decadencia" tiene que ver con la "duda", y todas las dudas sobre la propia estructura legitimatoria sobre la acción, o el uso del poder, es un factor debilitador; por ejemplo la "duda" sobre lo correcto de las ideas racistas o etnocentristas limitan la capacidad de exterminio o explotación del "hombre blanco", cosa que estaba ausente en la época dorada de la expansión Occidental, o en sentido general, la limitación del Paradigma de Separación, por ejemplo en el sentido de la consideración del Otro, que es la base de toda Ética, supone, de hecho, y según el prisma de ese paradigma, un factor debilitador, ya que, parafraseando a Nietszche, podríamos considerar a la Ética meramente como una de las más manidas coartadas de la cobardía...
Esta tendencia que he descrito, ya apuntada por otros antes que yo, como Charles Einsenstein, de debilitamiento del Paradigma de Separación y que creo que se está dando, en la mayoría de los órdenes del saber (y no sólo en la Ciencia); se trataría de la rebelión del "Lebenswelt", el Mundo de la Vida de que hablaba Habermas, contra el avance imparable de lo "sistémico". Esto no significa que estamos más cerca de "La Verdad", cosa que no sé lo que es, sino más bien que está cambiando el "relato", el "mito fundacional" de la Cultura, y, como decía Churchill sobre El Alamein, "esto no es el principio del fín, pero probablemente sea el fin del principio" y así debe ser, creo yo, por el bien de nuestra especie y de la Vida en la Tierra en general