|
If you prefer, you can translate the beginning of this page from:
The translation is make by Altavista Translate
Introducción
El titular del diario Clarín del 19 de octubre pasado fue muy elocuente :
"Demuestran científicamente que el humo del cigarrillo provoca cáncer en el pulmón", subtitulado "Hasta ahora la relación tabaco-cancer era sólo estadística" (los subrayados son nuestros).
Este par de frases retrata perfectamente algunos de los problemas centrales relativos al concepto de determinismo para la ciencia.
El artículo del Clarín da cuenta de otro artículo, publicado en la revista Science por Gerd Pfeifer y un grupo de científicos de la Universidad de Texas y el Instituto Bekman de Investigaciones de California.
El artículo presenta las cosas meridianamente : "Hasta ahora se sabía que tanto el humo como la nicotina poseen contaminantes que van directo a las células. Pero faltaba descubrir el sitio exacto donde se produce el daño. Y por eso los científicos preferían hablar de una 'asociación' entre el cigarrillo y el cáncer pulmonar, en lugar de definir entre ambos una relación directa de causa-efecto" (subrayados del Clarín)
Lo que Pfeifer descubrió es que el benzopireno, una de las sustancia presentes en el humo, produce, en el pulmón, el BPDE, un agente que ataca directamente a uno de los genes mas importantes que tiene la célula : el gen p53, encargado de la producción de una proteína que controla el crecimiento de la célula. Esta pérdida de "autocontrol" de la célula, provoca una pérdida de "identidad" de la misma, y su división indiscriminada, transformándose en un tumor maligno.
Sin embargo, lo que llama la atención respecto de tan "sensacional" anuncio sobre esta "relación directa de causa-efecto" es que el valor de la misma es rápidamente relativizado por varias autoridades médicas. Por un lado, el Dr. Diego Perazzo, oncólogo y presidente de la Unión Antitabáquica Argentina (obviamente poco sospechable de recelo alguno contra este tipo de "descubrimientos") señala que "todos los eslabones que relacionan al tabaco con el cáncer estaban prácticamente unidos desde hace 30 años. Este descubrimiento es uno mas que viene a confirmar y reforzar lo ya sabido. Pero es una relación que ya estaba adelantada por otros estudios".
Esta dimensión de ya sabido es la que también subraya el Dr. Abel Canónico, titular de la Asociación Argentina del Cáncer : "es una idea coherente con lo que ya se sabe".
El artículo del Clarín debe entonces reconocer que "además del BPDE, hay otras sustancias cancerígenas que seguramente rompen a los genes por otros sitios, en este y otros tipos de tumores".
En otras palabras, lo que ya se conocía es que los tumores pulmonares "asociados" al cigarrillo responden al fraccionamiento de los genes". Y el problema es que las "causas" de esto son .. varias.
En otras palabras, lo que Pfeifer ha hecho no ha sido mas que establecer, en forma mas precisa, una de las causas de dichas rupturas de los genes.
Pero su causa no es unívoca. Ni queda establecido cuando y porque la causa que actúa es esa y no otra, y viceversa.
En síntesis : "Todavía hay mucho que investigar". Esto en el sentido de que, en la perspectiva de una elucidación completa de la eventual relación directa de causa-efecto, todavía quedan muchos eslabones por explicar.
En ese sentido, el descubrimiento de Pfeifer no resuelve el problema, pues para que una relación causa-efecto sea totalmente establecida debe ser, además, única. Y como bien se señala en el artículo de Clarín, la presencia de gen P53 quebrado en los enfermos de cáncer de pulmón no se explica ni "totalmente" ni "exclusivamente" por la acción del BPDE.
De la misma manera que no se explica porqué el BPDE tiene ese efecto en ciertos casos y en otros no, como lo atestigua la situación de aquellos fumadores que no contraen cáncer.
En síntesis, el descubrimiento de Pfeifer solo es un paso mas en el "conocimiento" de algunos mecanismos biológicos, pero antes que demostrar la validez de la estructura causal, solo aporta un suplemento de ilusión en esa idea, como lo sintetiza el titular del articulo de Clarín con su "demuestran científicamente"
Y por las mismas razones, mientras tanto, siguen siendo las estadísticas las que siguen "definiendo" la situación.
Las mismas indican, hasta ahora, que , en los varones, el hábito de fumar aumenta 22 veces la posibilidad de morir de cáncer de pulmón, en tanto que en las mujeres esa posibilidad era elevada a 12
O también, según J. Orione (en la misma edición del Clarín) "los números son contundentes : entre el 80% y 90% [aunque no lo suficientemente "contundentes" como para poder precisar una sola cifra ;-) ] de los enfermos de cáncer de pulmón resultan ser fumadores".
Este "problema científico" es particularmente interesante porque de él dependen juicios millonarios. Desde hace muchos años, las tabacaleras vienen sosteniendo diferentes acusaciones judiciales sobre su responsabilidad en la contracción del cáncer del pulmón. Por ejemplo, el alcalde de Nueva York, Rudolph Giuliani, le ha iniciado un juicio a las tabacaleras por los gastos que le insume a esa ciudad el cuidado de personas enfermas de cáncer de pulmón, cifra que ha sido establecido por la Universidad de Columbia en 300 millones de dólares anuales.
También son famosos varios casos de pleitos entablados por particulares.
El eje de todas estas disputas judiciales ha terminado siempre recayendo en torno al argumento de que "el vínculo causal entre el cigarrillo y el cáncer aún debe ser establecido", punto sobre el cual ningún jurado ha podido expedirse, puesto que sigue sin considerarse "causal" el vínculo estadístico. Sobre todo para el caso de los pleitos entablados por particulares.
Esto por la sencilla razón de que aún con una estadística del 99,99 %, solo la relación causal directa puede "probar" la "causa" del "daño", así como probar, también, que el sujeto en cuestión no forma parte del 0,01 % restante de la comprobación estadística.
Lo cual es totalmente coherente con el estado de derecho, que se establece fundamentalmente respecto de sujetos unitarios y no en relación a conglomerados.
En ese sentido, podríamos decir que probablemente tenga mayores posibilidades de ganarle un juicio a las tabacaleras el alcalde de NY que un particular, amen de por la ventaja de sus "relaciones políticas", por la sencilla razón de que los argumentos estadísticos podrían tener, en este caso, otra "validez", al estar en juego problemas de "poblaciones", de "conglomerados".
Este simple ejemplo nos permitirá analizar 3 tipos de problemas :
- el valor, para la ciencia, del determinismo, las estadísticas y el azar
- el tipo de sujeto que cada una de estas teorías implica, y
- las relaciones entre estas teorías y los respectivos tipo de subjetividad con el estadado de derecho y el régimen social de producción
Parte A : El sujeto en la ciencia
Física clásica y moderna
Entre los científicos, y en particular entre los físicos, hay un acuerdo cuasi unánime en distinguir, dentro de la ciencia moderna, una física clásica, y una física específicamente moderna.
Las opiniones acerca de por donde pasa el corte han sido varias. Pero, grosso modo podemos hablar de la física clásica como la física de Galileo, Newton y Maxwell, la física constituida a partir del siglo XVI, y que alcanza su forma definitiva hacia 1900
La física moderna, cronológicamente, es la física de este siglo.
Mas allá del hecho de que el simple transcurrir del tiempo nos acostumbra a periódicos reordenamientos de lo antiguo y lo contemporáneo, importa aquí precisar en qué sentido podemos hablar, de manera válida para lo que nos interesa, de este corte.
Siguiendo, en esta primera parte, un texto de juventud de Kojève ("La idea del determinismo en la física clásica y en la física moderna", escrito en 1932 y publicado en 1990 en "Le livre de poche" en una versión establecida por Dominique Auffret), ubicaremos el corte en la teoría de los quanta de Planck.
Lo que importa de dicha teoría no es la introducción de lo discontinuo en la ciencia (hace tiempo que eso ya había ocurrido) sino el tipo de discontinuidad que implica y las contradicciones que resultan entre ciertas consecuencias que se derivan del mismo con algunos de los principios de la física clásica.
En otras palabras, lo que se opondrá a la "física clásica" como una "física moderna" serán un conjunto solidario de teorías originadas en esta hipótesis de Planck y que han dado origen a la atomística cuántica.
Comencemos, entonces, por presentar la idea de determinismo que rige en la física clásica.
La idea de determinismo causal
En la física clásica, esta idea adquiere la forma del principio de razón suficiente entendido como principio de causalidad : todo fenómeno tiene una causa, nada se pierde ni nada se crea, la causa es conservada en el efecto. Para la física clásica este principio es fundamental y necesario. Por mayores que fueran las dificultades ontológicas y gnoseológicas que esta idea de causalidad podía implicar y/o generar, la física clásica se aferró a la misma y se construyó a partir de ella.
El principal recurso para despejar estas dificultades de su horizonte ha sido la reducción del problema de la causalidad a la dimensión de las "leyes".
La versión pulida de esto la da Kant en estos términos : " todo lo que se efectúa (geschiet) presupone algo a lo que (worauf) esto sucede según una regla" (Kant, "Crítica de la razón pura", 2º analogía de la experiencia)(el subrayado es nuestro).
La expresión matemática de esta idea es la siguiente :
"si conocemos :
- todas las ecuaciones diferenciales que expresan las leyes que rigen la evolución de un fenómeno físico, y
- el estado exacto de ese fenómeno en un momento dado t=t0
conocemos de modo preciso y detallado tanto su historia anterior como la posterior".
La ley, entonces, es un enunciado que nos permite hacer previsiones sobre la evolución de un fenómeno, a partir de determinado estado del mismo.
A esto, la física clásica agrega la suposición de que este principio es válido para todo fenómeno físico, tanto si consideramos como tal a la totalidad del universo como a una parte del mismo.
Esto mismo es lo que expresaba la famosa fórmula de Laplace en el prefacio de su "Théorie analytique des probabilités" : "Una inteligencia que conociera en un momento dado todas las fuerzas que actúan en la naturaleza y la situación de los seres de que se compone, que fuera suficientemente vasta para someter esos datos al análisis matemático, podría expresar en una sola fórmula los movimientos de los mayores astros y de los menores átomos. Nada sería incierto para ella y tanto el futuro como el pasado estarían presentes ante su mirada" ("Diccionario de Filosofía" de Ferrater Mora)
En otras palabras, la doctrina determinista convoca a una completa racionalización de lo real, lo cual implica, desde otro punto de vista, la eliminación del tiempo en tanto expresión de procesos irreversibles.
Abordaremos ahora la primera cuestión, y retomaremos la segunda mas adelante (desde la perspectiva de I. Prigogine)
Transportando el primer punto al terreno operativo de los físicos y científicos, es decir, al terreno de las verificaciones experimentales, la máxima de la racionalización de lo real se transforma, tomando palabras de Kojève, en la siguiente fórmula : "nada en lo real puede oponerse a la extensión indefinida de las previsiones hechas con ayuda de métodos físicos normales" (obra citada, pág. 49).
De esta manera, la absoluta racionalización de lo real se correlaciona con la suposición de un posible aumento ilimitado de la precisión experimental.
En ese sentido, el determinismo causal "aproximado" en el que de última reconoce que se mueve experimentalmente la física (puesto que todas los experimentos tienen un margen de error, ninguna medida es reproducible con una identidad absoluta) es conceptualizado como el margen de error con que nuestra capacidad de medición puede aprehender, en un determinado momento histórico, el ser "en si" de un mundo al que se le supone un determinismo causal exacto expresable en forma de ecuaciones matemáticas analíticas.
Esta "distancia" entre el experimento práctico y las leyes exactas es expresada, en términos de Leibniz, como la "libertad" de los hombres. Esta libertad no sería una mera ilusión sino una verdad práctica, justamente la que resulta de esa "distancia", distancia que solo Dios puede franquear, entre el ser, que abarca el infinito, y que esta regido por las leyes deterministas, y nuestro conocimiento, por naturaleza finito, y que se expresa en nuestras "aproximaciones".
Son estas las contradicciones que siempre resultan de la lógica del significante : por un lado, el determinismo causal postula la posibilidad de aumento ilimitado de la precisión instrumental, pero por el otro lado, debe reconocer que ningún progreso de nuestro conocimiento podrá vaciar de su sentido a esta experiencia práctica de nuestra libertad, de la misma manera que ninguna serie infinita puede alcanzar, de modo alguno, su límite.
En ese sentido, cabe señalar que el determinismo causal exacto, paradójicamente, no es demostrable, como tampoco lo es el postulado contrario, pues en ambos casos se requiere,
- prácticamente, de mediciones "exactas", en un caso para dar cuenta de la reducción a 0 del margen de error como "prueba", de la coincidencia de lo matemático y lo real, en el otro, para con ese mismo margen de error, verificar que causas indiscernibles ( y consideradas "iguales" por la reducción a 0 del "error de medición") conducen a efectos diferentes, es decir, discernibles, y
- conceptualmente, de un conocimiento ilimitado, infinito.
El determinismo causal exacto, entonces, es, mas bien, una "idea regulativa", en el sentido Kanteano.
Su correlato ontológico es el postulado de que el mundo es un ser "en si", respecto del cual la precisión experimental indica el "error" de nuestro conocimiento.
El determinismo estadístico
La otra forma de pensar en un determinismo, es decir, en un mundo que no sea caótico, pero que tampoco responda al principio causal, es plantear un determinismo estadístico.
La principal diferencia radica en que en este último caso ya no basta una sola medida experimental sino que se requiere de una serie de ellas.
La física clásica acepta la existencia de un determinismo estadístico, pero asimilándolo al mismo estatuto ontológico que el determinismo causal "aproximado", es decir, a un modo más de "aproximación" al determinismo causal "exacto" subyacente.
El determinismo estadístico sería el recurso necesario cuando la "aproximación" resulta obligada por la cantidad de elementos en juego y la imposibilidad correlativa de conocer los todos los datos que requieren las leyes del modelo causal exacto.
En ese sentido, y como lo desarrollaremos mas adelante, la física clásica es básicamente una física del elemento individual.
Lo que debe quedar claro desde ya, es que estadística y azar no implican forzosamente un mundo caótico, es decir, un mundo absolutamente imprevisible.
El punto común tanto a la física clásica como a la física moderna como a toda ciencia, es la idea de poder hacer previsiones. Sin la posibilidad de hacer previsiones, directamente no hay posibilidad de hacer ciencia del tipo que sea.
El punto conflictivo es que, en general, siempre viene asociada a la idea de previsión la idea de algún tipo de determinismo. La discusión que se plantea entre la física clásica y la física moderna, desde el punto de vista que estamos considerando, es si ese determinismo es forzosamente el determinismo causal u otro.
En el caso del determinismo estadístico, habrá todavía que precisar cual es su sentido físico.
Pasemos a considerar ahora los planteos de la física moderna.
El sujeto de la física moderna
La física moderna surge a partir de los problemas microscópicos.
La física clásica solo admitía dos tipos de "fuerza" : la gravitatoria y la electromagnética. Correlativamente, sus leyes fundamentales son las del campo gravitatorio (ecuaciones newtonianas y/o relativistas) y las del campo electromagnético (ecuaciones de Maxwell).
Esto implica siempre la concentración puntual sea de materia, sea de energía.
Y con estas mismas concepciones es que la física clásica pretendía abordar los fenómenos microscópicos. Pero, aún suponiendo la validez de estos principios, el abordaje de este tipo de procesos, solo podía hacerse mediante leyes estadísticas. Aunque, insistimos, para la física clásica, la idea subyacente es que todos los procesos, aún los atómicos, deberían poder reducirse al análisis individual y a las leyes del determinismo causal exacto.
La física moderna parte de la verificación de dos cuestiones :
- que a nivel de los procesos atómicos, causas indiscernibles (experimentalmente), conducen a efectos notoriamente diferentes, y
- que el aumento de la precisión experimental, requerido para resolver el problema del punto anterior, se encuentra con un tope absoluto
La famosa tesis de Planck sobre la radiación de los cuerpos negros, publicada en 1900, y que es la base de la física moderna, plantea, justamente, que la acción física tiene una estructura discontinua : hay un mínimo absoluto de acción.
La publicación en 1927 del artículo de Heisenberg presentando el principio de incertidumbre completa la ruptura de esta nueva física.
Recordemos lo que plantea este principio.
El mismo establece la imposibilidad de medir, simultáneamente, con una precisión absoluta, dos variables canónicas conjugadas de un proceso físico.
¿Que significa esto ?
Apliquémoslo a la idea de "ver" una partícula muy pequeña.
La única manera de "ver", tanto una partícula pequeña como una grande, o cualquier objeto, es enviando alguna "luz" sobre el mismo para "ver" el reflejo generado a partir de aquél.
Obviamente, para que dicha "reflexión" se realice, es necesario que las dimensiones del objeto sean muy superiores a la longitud de onda de la "luz" empleada para "verlo".
Esto implica que, para el caso de partículas muy pequeñas, es necesario utilizar una "luz" de muy corta longitud de onda. Y ahí es donde nos encontraremos con el límite.
Podríamos suponer que no hay límite en la reducción de la longitud de onda de la luz a utilizar, en otras palabras, que el espectro es infinito hacia ambos extremos y que, por lo tanto, por pequeñas que fuesen las partículas elementales del universo, solo sería una cuestión técnica poder "verla".
El punto es que, justamente, lo que subyace al principio de incertidumbre y a la constante de Planck, es la verificación experimental de que la "luz" no es solo "ondulatoria" sino también "material". Esto implica que, en el "choque" de la misma con la partícula en observación, siempre habrá una modificación del estado de esta última. Este efecto es "despreciable" cuando las dimensiones son de órdenes totalmente diferente. Pero ya no es el caso para partículas muy pequeñas, cuya masa es del orden de la masa de los "fotones", es decir, de las partículas que componen la "luz" con la que "iluminamos" a la partícula en observación.
Esta modificación del estado del objeto a observar por la incidencia de nuestra "visión" hace imposible conocer, simultáneamente, por ejemplo, la posición y la velocidad de la partícula en observación. Tanto mas conoceremos acerca de una de las variables tanto menos conoceremos de la otra
De acuerdo al principio de incertidumbre de Heisenberg, el producto de los "errores" cometidos en la medición de cada una de las variables no puede ser inferior a h
Dq*Dp > h
donde h es la constante de Planck
Por esto mismo es que Heisenberg debe terminar su artículo señalando que "la mecánica cuántica estableció definitivamente la no-validez del principio de causalidad" (Heisenberg, "Über den anschauclichen Inhalt Quantenmechanic", en Zeitschrift für Physik, 1927, XLIII, pag, 3 y 4)
No porque haya demostrado lo contrario a dicho principio (como ya lo señalamos, tal prueba requeriría de una medición exacta) sino por demostrar, si, la imposibilidad absoluta de probar o refutar la hipótesis del determinismo causal exacto.
En otras palabras, da lo mismo decir que el mundo esta regido por el determinismo causal exacto que decir que Dios existe. Ambas proposiciones son imposibles de verificar o de desmentir. En términos de Popper, no son proposiciones falsables. Ergo, siempre en términos de Popper, el determinismo causal exacto NO es una teoría .... científica !!!
Ya tendremos ocasión de volver sobre Popper y sus proposiciones. Por ahora quisiera resaltar lo siguiente. Hay otra cuestión que queda suspendida al ser suspendido el determinismo causal exacto : el postulado del ser "en si" del mundo.
Esto no significa que las previsiones no sean posibles ni que las mismas no sean verificables experimentalmente.
Lo que esto significa es que el dispositivo a tomar en cuenta no puede hacer caso omiso del experimentador, cosa que si bien la física clásica podía admitir formalmente, no dejaba de rechazar, implícitamente, en función de sus principios.
Podríamos decir, para reírnos un poco, que la atomística cuántica es la confirmación "científica" de la hipótesis del sujeto de la ciencia planteada por Lacan en "La ciencia y la verdad".
Por eso mismo será ese el punto de discusión de los científicos contemporáneos, como lo veremos un poco mas adelante, cuando consideremos las posiciones de I. Prigogine.
La física moderna, en síntesis, toma debida nota de que no es posible estudiar el mundo como una existencia separada del conocimiento sino como un mundo dado por medio de las experiencias realizadas para conocerlo.
El objeto del físico moderno no es un sistema único al que estudia tal cual, en si, sino una "reunión" de dos sistemas diferentes pero inseparables : el sistema "observado" y el sistema "observador".
La idea de la física clásica ha sido que uno de estos sistemas podía reducirse. Pero ya la lógica nos permite formular que, aún reduciendo a cero los componentes de uno de los sistemas, el conjunto vacío es un elemento ineliminable del mismo.
Lo que confiesa la física moderna es que el mundo que ella estudia no es un mundo "en si" dado por la intuición a un espíritu puro sino un mundo "construido" con los datos experimentales obtenidos por físicos concretos que emplean instrumentos materiales, instrumentos fabricados por (o para) el mismo físico, y que forman parte de la materialidad y "realidad" del mundo estudiado.
En ese sentido, el mundo de la física moderna no es tanto un mundo "conocido" (o a "conocer") como un mundo "fabricado" (o a "fabricar").
La física clásica había construido un sujeto gnoseológico general e idealizado, el Bewunstein überhaupt de los neokantianos. Al eliminar sus "cualidades" secundarias y reducir el sujeto físico al sujeto matemático, la física clásica planteaba, al mismo tiempo, la existencia de una realidad "objetiva" independiente de todo sujeto cognoscente.
Separaba un mundo "en si" de un sujeto puramente gnoseológico.
El planteo de una naturaleza inmutable y en si del objeto no es sino el correlato de la abstracción hecha de las incidencias del sujeto sobre el objeto. En la medida en que su sujeto era un sujeto puramente matemático, su mundo era un mundo matemático transpuesto tal cual en lo real.
Contrariamente, lo que caracteriza al sujeto de las experiencias en Heisenberg es su pertenencia a la misma región ontológica que la del objeto : ambos deben sufrir una acción real por parte del otro. Este sujeto de la física moderna no es una conciencia pura sino un dispositivo "experimentador", un sujeto que fabrica instrumentos. El principio de incertidumbre de Heisenberg es la expresión matemática de la imposibilidad de reducir el objeto y el sujeto el uno al otro.
En palabras de Kojève : "la relación de Heisenberg es la expresión fisico-matemática de la tesis fundamental del realismo : el ser no se reduce al pensamiento, una entidad real no es un concepto realizado y el concepto no es la entidad menos su existencia sino que hay, entre concepto y realidad, una diferencia esencial que les impide coincidir completamente" (obra citada, pag. 167/8)
Para la física clásica un proceso real solo difiere de la función matemática que lo expresa por el hecho de su realidad. Para la física moderna, en cambio, una función matemática solo tiene significación física si se correlaciona con un sujeto físico.
Pasemos a ver, ahora, cual es el sentido que tiene hablar de probabilidad en lo real.
La dualidad onda partícula
Si para la física clásica las relaciones analíticas son asimilables a las relaciones causales entre las "cosas", para la física moderna, lo que corresponde, por ejemplo, a la ecuación de onda de Schrödinger, en el espacio real, no es una onda física, sino una probabilidad.
Para entenderlo, vamos a presentar las implicancias del dualismo onda - materia en cuanto a las significaciones a las que nos tiene acostumbrados la física clásica.
Este dualismo desintegra la noción misma de "individuo".
En realidad, es absolutamente imposible concebir, "imaginar", una entidad real que sea al mismo tiempo onda y partícula. Solo podemos concebir lo uno o lo otro (aunque en realidad, la entidad en juego verificará ser ni lo uno ni lo otro).
En palabras de Heisenberg : "la luz y la materia son un fenómeno físico único. Su doble naturaleza aparente proviene de la inaptitud esencial de nuestro lenguaje" (obra citada, pag. 77)
Matemáticamente, esto se expresa en la equivalencia entre la mecánica ondulatoria de Schrödinger y la mecánica cuántica de Heisenberg, a pesar de que la primera es de tipo analítico y la segunda estadística. La función de onda F de Schrödinger no es, ella misma, una realidad física. Solo describe, de un modo exacto, la configuración estadística de un conjunto infinito de entidades reales idénticas. La entidad física no es, en realidad, ni onda ni partícula.
Veamos el clásico ejemplo de la reflexión de un rayo luminoso sobre una superficie semi transparente, como en la figura
Por este carácter semi transparente de la superficie (plano azul en el gráfico), el rayo de luz proveniente de A, al llegar al punto B, se fracciona : una parte continua su camino hasta llegar a D, y la otra parte se refleja hasta C.
En C y D tenemos nuestros "registradores".
La pregunta, entonces, es : ¿que pasa en el caso de un rayo compuesto por un solo fotón ???
¿Que camino "elegirá" el fotón ?
¿Donde podemos "predecir" su impacto ?
La interpretación sostenida por Dirac, en tiempos del Congreso de Solvay, es la de un "libre albedrio" en el seno de la naturaleza. Pero esta posición, en realidad, solo apunta a sostener el principio de la física clásica de un mundo con una existencia "en si".
Plantear las cosas así es el resultado de intentar, nuevamente, obviar la intervención del experimentador. Pues lo que conduce a formular la pregunta por un rayo de luz compuesto por "un solo fotón" es la naturaleza de nuestro registro experimental.
En efecto, solo "luego" del experimento, podremos decir que el fotón eligió tal camino o tal otro, al registrar su impacto en C o en D. Pero ese registro del "impacto" implica mucho mas. Implica una "condensación" del fotón, es decir, su reducción al estatuto de partícula.
Pero el fotón no es partícula. Es, al menos, también onda. Es partícula "luego" del registro experimental, pero es onda "antes" del mismo, es decir, cuando el rayo se fracciona en dos partes exactamente calculables.
Por lo tanto, el libre albedrío que Dirac pretendía atribuirle a la naturaleza no es mas que la "proyección" del problema de la incidencia del experimentador.
En síntesis, la doble naturaleza onda partícula, la estructura estadística del mundo, el principio de incertidumbre de Heisenberg, la constante de Planck, etc., son otros tantos nombres de la objeción a la idea de un mundo "en si" y a la idea de un sujeto puramente matemático.
Prigogine y la irreversibilidad
I. Prigogine aborda estos problemas en varios de sus libros de divulgación.
Como lo señaláramos mas arriba, su acento recaerá sobre la anulación de la dimensión temporal que implica el determinismo causal.
Para él, la nueva física debe definirse a partir de la cuestión de la posibilidad, o no de considerar, la flecha del tiempo, la "emergencia de lo nuevo". Su pregunta es si es posible explicar el "cambio" sin negarlo, es decir, sin reducirlo al encadenamiento de lo mismo a lo mismo.
A diferencia del punto de vista de Kojève, la ventaja de transportar el problema de los límites de la cuestión de la precisión a la cuestión de la previsión es que nos permite volver a independizarnos del problema del acto de observación como elemento intrínseco al límite y volver a colocar la irreversibilidad al nivel de un mundo "en si".
Por eso, la discusión mas interesante es la que se planteará en relación a la mecánica cuántica, pues para Prigogine no esta claro que la misma sea capaz de definir "una irreversibilidad intrínseca, independiente del observador".
Como ven, la preocupación de Prigogine es la misma que la de Dirac, es la misma que la que subyace, como posición ontológica, en los planteos de la física clásica, por mas que Prigogine se plantee totalmente en un mas allá respecto de esta.
A diferencia de lo que subraya Kojève, Prigogine criticará a la mecánica cuántica justamente en tanto "parece conferir un papel esencial al acto de observación e indicar que seriamos nosotros, los observadores quienes, con nuestras medidas, introduciríamos las probabilidades y la irreversibilidad en un mundo que, sin nosotros sería determinista y reversible" (I. Prigogine e I. Stengers, "Entre el tiempo y la eternidad", Editorial Alianza Universidad, pag. 16)
Para Prigogine, en cambio, la descripción de un sistema caótico mediante atractores fraccionarios permitiría dar "un sentido intrínseco al carácter finito de nuestras descripciones" (obra citada, pag. 117), con lo cual se probaría que "los límites del principio de razón suficiente no están ligados a los del sujeto que observa sino a las propiedades intrínsecas del objeto observado" (obra citada, pag. 119)
Como perciben, en este caso, el corte entre una física y otra está lejos de pasar por Heisenberg y Planck pues para Prigogine, la mecánica cuántica sigue respondiendo al modelo del determinismo causal. Las conclusiones que el saca de la prueba de la incidencia del observador no es la de que no podemos hacer caso omiso del observador sino de que, eso no es mas que un eufemismo para seguir suponiendo el determinismo causal en forma subyacente.
Para Prigogine, el gran conflicto en la física clásica se dio entre el mundo de la eternidad dinámica y el segundo principio de la termodinámica que formuló la ley del crecimiento irreversible de la entropía. Esto ocurrió en 1865.
Y los descubrimientos modernos que retoman esta problemática son :
- la inestabilidad de las partículas elementales
- el carácter histórico del universo
- las estructuras de no equilibrio
Para Prigogine, los estados de equilibrio (a los que está asociada la reversibilidad) ocultan aspectos esenciales de la actividad de la materia. No es tanto el no equilibrio el que crea la flecha del tiempo sino que "es el equilibrio el que impide que la flecha del tiempo, siempre presente en el nivel microscópico, tenga efecto macroscópicos" (obra citada, pag. 131) (subrayado mío)
La discusión sobre la mecánica cuántica
La principal crítica que Prigogine la dirige a la mecánica cuántica es la de describir la observación como una modificación irreversible de lo que es observado.
Prigogine adscribe al sueño metafísico de Popper de que "el indeterminismo es compatible con el realismo, y la aceptación de este hecho permite adoptar una epistemología objetivista coherente, una interpretación objetiva de la teoría cuántica, y una interpretación objetivista de la probabilidad" (K. Popper, "Quantum Theory and the Schism in Physics", citado por I. Prigogine), y de que "aún en ausencia del sujeto observador que experimentase o interfiriese con él, nuestro mundo sería tan indeterminista como lo es" (ídem) (subrayado mío)
Por eso su crítica a la mecánica cuántica, toma los mismos caracteres que la de I.A.M. Rae en su libro "Física cuántica : ¿ilusión o realidad?" (Alianza Editorial) :"Los sistemas cuánticos no poseen propiedades mas que cuando estas propiedades son medidas, pero aparentemente no hay nada, fuera de la mecánica cuántica, para efectuar esta medida".
¿Que significa esto ?
El espacio de Hilbert en el que evoluciona la función de onda cuántica se construye con la mitad solamente de las variables necesarias para el espacio de fases clásico, reflejando ello la dualidad onda partícula.
Ahora bien, como ya lo mencionáramos antes, a dicha función de onda no corresponde, como ente físico, una onda. Para dar sentido físico a la misma, debemos pasar a las probabilidades. Pero para el cálculo de la probabilidad del resultado de una medida necesitamos salir del espacio de Hilbert.
Esta "reducción" de la función de onda corresponde a la producción de una "marca" observable que constituye la irreversibilidad.
La pregunta que entonces formula Prigogine es : "¿es la medida la única fuente de irreversibilidad en la naturaleza?, ¿no existen sucesos cuánticos intrínsecamente irreversibles ?, ¿no es posible abrir la mecánica cuántica al 'mensaje de la entropía'?"
Su propuesta, para ello, es abandonar la función de onda, y así dar un sentido intrínseco a la irreversibilidad del suceso cuántico : "es necesario modificar la noción de observable en mecánica cuántica y dar a la dispersión probabilista de la energía un significado intrínseco, independiente del acto de observación" (obra citada, pag. 152), para poder abordar "en serio" la noción de "vida media" y la "relación de incertidumbre" asociada a ella, aunque, como rápidamente lo reconoce, todavía se encuentren en el estado inicial de la formalización de una teoría cuántica "sin función de onda" (obra citada, pag. 155)
Sistemas disipativos y atractores fractales
Veamos algunos de los conceptos a partir de los cuales Prigogine propone ordenar su nueva coherencia.
Uno de los ejes de su trabajo es el análisis de los estados de no equilibrio.
Los mismos se caracterizan, por un lado, por la aparición de correlaciones de largo alcance, donde, a su vez, las correlaciones se definen con respecto entre el "todo" y la "parte".
Por el otro lado por la idea de "atractor" de dimensiones fraccionarias.
[ En el apéndice 1 expondremos mas en detalle las nociones de atractor en general, y de atractor caótico o de dimensiones fraccionarias ]
La noción de "atractor" resulta de la convergencia, hacia ciertos puntos, de las trayectorias con las que se expresan, en el espacio de las fases, los fenómenos físicos.
Hasta ahora, solo habían tenido sentido los atractores de dimensiones enteras : puntos, líneas, superficies. Y habían sido sinónimo de estabilidad y reproducibilidad : retorno a "lo mismo" a pesar de las perturbaciones, cualesquiera que fueran las particularidades iniciales.
A los atractatores fraccionario encontraremos asociados sistemas tales que a partir de situaciones iniciales tan próximas como se quiera se generan evoluciones divergentes. En otras palabras, la "diferencia" entre las condiciones iniciales no se conservan en la evolución del fenómeno, como se supone que ocurrirá cuando se lo piensa desde la idea del determinismo causal.
Esta situación es la que permite la definición de "comportamiento caótico" : "un comportamiento es caótico si trayectorias que salen de puntos tan próximos como se quiera en el espacio de las fases, se alejan unas de otras de manera exponencial en el curso del tiempo" (I. Prigogine, obra citada, pag. 85).
El llamado "tiempo de Lyapounov" es el parámetro que nos permite definir la correspondiente "escala de tiempos". Después de un tiempo de evolución grande respecto a este tiempo de Lyapounov, el conocimiento que teníamos del estado inicial del sistema ha perdido pertinencia y valor.
Caracterizamos entonces a los sistemas caóticos por un "horizonte temporal" definido por el tiempo de Lyapounov, horizonte que puede llegar a desplazarse pero nunca a anularse.
Esta noción tiene una gran importancia para Prigogine, pues transforma la noción de impredecibilidad, liberándola de una ignorancia contingente y asociándola a un sentido intrínseco.
Y en la medida que dichos sistemas puedan caracterizarse por un atractor, así sea fraccionario, los mismos no dejan de testimoniar de cierta "coherencia".
En particular, para lo que refiere a la discusión respecto de la mecánica cuántica, esto le permite decir que es "el suceso cuántico caracterizado por una vida media [ es decir, por determinado tiempo de Lyapounov], y no el acto de observación, el que rompe la superposición cuántica" (obra citada, pag. 160)
En este acento puesto sobre la "historia" del fenómeno se basa el nacimiento de "una nueva concepción de la 'objetividad científica', que pone de manifiesto el carácter complementario y no contradictorio de las ciencias experimentales, que crean y manipulan sus objetos, y las ciencias narrativas, cuyo problema son las historias que se construyen creando su propio sentido" (obra citada, pag. 197)
Como lo señaláramos anteriormente, con la noción de atractor caótico (o fraccionario) ya no se trata de oponer determinismo e impredecibilidad, sino de "intentar explicar por qué una evolución es impredecible" (ídem, pag. 198)
Esta "flecha del tiempo" se erige así en el fundamento de una nueva coherencia científica :
- "el tiempo precede a la existencia" (ídem, pag 183)
- "este eterno retorno intrínsecamente irreversible" (ídem, pag. 184)
- "conferirle a la eternidad del Universo una nueva significación, la de una serie de explosiones entrópicas que se suceden en el tiempo" (ídem, pag. 186), explosiones "creadoras de nuevas temporalidades productoras de nuevas existencias caracterizadas por tiempos cualitativamente nuevos" (ídem, pag. 187)
(subrayados míos)
Conclusiones
Hemos presentado diferentes problemas a los que se ha enfrentado la ciencia y diferentes respuestas.
En primera instancia hemos subrayado esa hiancia que la física clásica se empecinaba en colmar, inútilmente, entre el saber y lo real, hiancia donde podremos ubicar a nuestro sujeto.
En segunda instancia, hemos subrayado los debates acerca de las nociones de "acto" del observador, y de "irreversibilidad", como vertientes mas "modernas" de la misma (pero también diferente) hiancia.
Es hora que articulemos esto al campo de la subjetividad y de las prácticas psi.