12 de marzo del 2012

Einstein contextualizado

Francisco De Zela

Coordinador de la Especialidad de Física de la PUCP

La física cuántica es un ejemplo de cómo puede desarrollarse exitosamente un esquema científico, aun cuando su real contenido no haya sido cabalmente entendido por sus propios practicantes.

Entre las diversas obligaciones que una universidad debe asumir, está la misión de transferir a su entorno lo esencial del nuevo conocimiento académico, proyectándose así más allá de los compartimentos disciplinarios en los que se desempeñan sus especialistas. Ello lleva, entre otras cosas, a intentar explicar el significado de la obra intelectual o artística de personajes destacados, poniéndola en contexto y señalando el impacto que ha tenido o que puede tener más allá de los límites de una particular disciplina. Si con este propósito buscamos un personaje de la física, sin duda es Einstein quien aparece como la figura cumbre del S. XX. Sus principales aportes fueron la teoría especial de relatividad (1905) y la teoría general de relatividad (1915), teniendo la primera un mayor alcance, no obstante el objetivo más general que motivó a la segunda. Efectivamente, recientes reportes sobre la observación de partículas (neutrinos) que al parecer podrían haberse movido a velocidades superiores a la de la luz, son vistos como de gran trascendencia justamente porque cuestionan la validez de la relatividad especial, y por ende la de múltiples sistemas teóricos que la toman como base. Una importante consecuencia de la relatividad especial es la equivalencia entre masa y energía, hecho que se expresa en la ecuación E = mc2. Dicha equivalencia hizo evidente el posible uso de la energía nuclear, sea con fines pacíficos (centrales nucleares) o bélicos (bomba atómica). En cuanto a la relatividad general, más propiamente denominada “teoría de gravitación”, se trata de una teoría que extiende considerablemente la teoría de gravitación de Newton. La forma en que Einstein la formuló – fusionando principios físicos y geométricos – posteriormente inspiró el desarrollo de esquemas teóricos análogos pero más ambiciosos, que buscan describir no solo la interacción gravitacional sino también las otras interacciones (fuerte, débil, y electromagnética) bajo un esquema unificado. La teoría de “supercuerdas” es un ejemplo de construcción al estilo de lo que hizo Einstein en la relatividad general. En esta última, el continuo espacio-tiempo deja de ser el simple escenario en el que se desarrollan los fenómenos físicos, para asumir un rol protagónico al integrarse a los mismos. Ello ocurre gracias a que adquiere una “dinámica”; es decir, la capacidad de interactuar con otros entes, como son la materia y la energía. La relatividad general abrió así la posibilidad de estudiar la evolución del Universo en su conjunto, en base a ecuaciones que rigen la dinámica del espacio-tiempo y de la energía-materia. El “Big Bang” y los agujeros negros se derivan de esas ecuaciones. Las observaciones hechas con instrumentos cada vez más poderosos – tales como el telescopio Hubble y los arreglos de antenas interconectadas en radioastronomía – confirman la validez de múltiples predicciones de la relatividad general. La evidencia de que hace unos catorce mil millones de años hubo un “Big Bang” se hace cada vez más sólida, gracias a diversas observaciones que así lo confirman. Asimismo, los agujeros negros dan testimonio de su presencia al afectar la materia que los circunda, la cual puede observarse con creciente precisión y a distancias cada vez mayores. La aún pendiente detección de ondas gravitacionales está demandando grandes esfuerzos que, de ser exitosos, confirmarían una de las predicciones medulares de la teoría de gravitación de Einstein.

Las contribuciones de Einstein no se limitaron a la relatividad. También jugó un papel importante durante el proceso de gestación de la mecánica cuántica. El “efecto fotoeléctrico” – la emisión de electrones por parte de algunos materiales al ser iluminados – lo explicó Einstein apoyándose en los “fotones”, las partículas que constituyen la luz. Aparte de sustentar múltiples aplicaciones tecnológicas, la idea del fotón como “cuanto” de luz sirvió para dejar en claro la naturaleza dual de esta última, como partícula-onda. Los procesos de emisión espontánea e inducida de fotones – por parte de un conjunto de átomos en equilibrio térmico – los describió Einstein mediante ecuaciones que han servido de base para el desarrollo del láser, pieza fundamental de la tecnología actual.

Si bien es cierto que Einstein contribuyó al desarrollo de la mecánica cuántica, nunca llegó a verla como una teoría definitiva, sino como un paso intermedio hacia una presunta teoría que debería estar más acorde con nuestro “sentido común”. En este punto Einstein se ubica como figura emblemática de la transición entre la física clásica y la cuántica. Está al final de una época que incluye a Galileo, Newton, Lagrange, Faraday, Maxwell, Hamilton, Lorentz, Boltzmann, e incluso al propio Planck, también representante de la transición, y a quien se le atribuye haber iniciado el periodo cuántico en 1900, con su explicación del proceso de emisión de luz térmica mediante “cuantos” o “paquetes” de energía. Las teorías físicas desarrolladas durante el periodo clásico todavía guardaban estrecha relación con nuestros datos sensoriales, es decir, con la realidad observada de forma más o menos directa. Es recién a partir del siglo XX que se cuenta con instrumentos lo suficientemente sofisticados como para poder acceder a una realidad que trasciende el alcance de nuestro aparato sensorial. La descripción de esa realidad, a la que se incorporaron primero los átomos y luego partículas más elementales, requirió emplear un lenguaje matemático avanzado. Con él fue posible formalizar conceptos teóricos que nuestro lenguaje común es incapaz de articular con coherencia. Se fue estableciendo así el andamiaje conceptual de la mecánica cuántica.

La mecánica cuántica es consecuencia del aporte de muchos físicos. Su periodo fundacional transcurre durante la primera mitad del siglo XX, que es cuando se sientan las bases del sistema teórico que hoy manejamos. Erwin Schrödinger propone, en 1926, una ecuación que lleva su nombre, y que es quizá la de mayor aplicación en la física actual. Sin embargo, la interpretación que le dio Schrödinger a su ecuación fue sustituida pronto por otra: la interpretación probabilística. Según esta última, la naturaleza -en su nivel más fundamental- está regida por fenómenos que son intrínsecamente aleatorios. A esto se le llama, a veces, la interpretación de Copenhague, por ser el danés Niels Bohr su principal representante. Al entorno de Bohr pertenecieron tres jóvenes físicos, el alemán Werner Heisenberg, el austríaco Wolfgang Pauli y el inglés Paul Dirac, quienes contribuyeron decisivamente a desarrollar el aparato teórico de la física cuántica. La Europa en la que vivieron estos jóvenes fue escenario de grandes cambios, durante las décadas de 1920 y 1930, así como de gran inestabilidad económica y política. Todo ello seguramente influyó en la postura radical que adoptaron, dejándose guiar por principios que no tenían un correlato inmediato en la realidad externa, y que incluso podrían entrar en conflicto con nuestro sentido común. Manifestaciones similares se dieron en la literatura y en las artes plásticas, a través de corrientes tales como el surrealismo, expresionismo, cubismo, dadaísmo, etcétera. Se ha especulado que todas estas manifestaciones artísticas y científicas que atañen a una élite intelectual pueden haber tenido alguna raíz común con aquellas otras de carácter masivo, que dieron pie a fenómenos políticos como el comunismo, el anarquismo, el fascismo y el nacional-socialismo.

La física cuántica es un ejemplo de cómo puede desarrollarse exitosamente un esquema científico, aun cuando su real contenido no haya sido cabalmente entendido por sus propios practicantes. Ello es análogo a poder manejar un sofisticado teléfono celular, sin necesidad de entender los circuitos integrados que lo componen. Un tema muy actual de investigación es el de los “tests fundamentales de la mecánica cuántica”, que se hicieron posibles, en buena parte, gracias al desarrollo del láser en la década de 1960. También fue decisivo que en 1964 John Bell lograra llevar la controversia sobre la correcta interpretación de la mecánica cuántica -que Bohr y Einstein lideraban en bandos opuestos- a una forma que fuera susceptible de ser sometida a test experimental. Desde entonces se han hecho una serie de experimentos cruciales, sin que aún pueda darse un veredicto definitivo. Todo ello ha impulsado el desarrollo de tecnología con enorme potencial, en especial la relacionada con la computación cuántica. Pero no ha sido necesario esperar al desarrollo de estas nuevas tecnologías para poder aprovechar la física cuántica. Desde que se entiende cómo “funcionan” los átomos, los núcleos atómicos, las moléculas y los agregados que constituyen los diversos materiales, se está en capacidad de manejarlos con fines específicos. Así se desarrolló la electrónica, desde los primeros transistores hasta los circuitos integrados, las pantallas y sensores de diverso tipo, los láseres y sus múltiples aplicaciones, la resonancia magnética nuclear, y muchos otros productos tecnológicos que hoy definen el estilo de vida de sectores cada vez más amplios de la población mundial.

Además de las contribuciones que hicieron los “padres fundadores” de la mecánica cuántica durante la primera mitad del siglo XX, ha sido esencial para su entendimiento y ampliación el aporte recibido durante la segunda mitad de ese siglo. Allí destacan físicos tales como Feynman, Gell-Mann, Weinberg, Glashow, Salam, ‘t Hooft, por mencionar unos pocos. Gracias a ellos se pudo ampliar el ámbito de aplicación de la mecánica cuántica, pasando de los átomos al núcleo, y de este a partículas más elementales como son los quarks y los leptones. El área de altas energías o partículas elementales tuvo un intenso desarrollo en las décadas de 1970 y 1980, gracias a la construcción de enormes aceleradores y al establecimiento de la llamada “Big Science”. No solo internet es un producto colateral de este desarrollo, sino también una serie de avances en ciencia de materiales, en computación masiva, en medicina (a través de luz sincrotrón y de la radioterapia), en el análisis de datos (desde los meteorológicos a los financieros), etcétera. El contexto social en el cual está inserto este periodo es el de la Guerra Fría y el de la gran competencia por el dominio del mundo que se da entre dos superpotencias: Estados Unidos y la Unión Soviética. Esa física practicada a gran escala recibió un financiamiento también a gran escala. Las colaboraciones internacionales involucraron a científicos de todo el mundo, desarrollado y subdesarrollado; pero al tener como sede alguno de los dos grandes polos del poder, dichas colaboraciones fomentaron la llamada “fuga de cerebros”.

Finalizada la guerra fría se inició una etapa de cuestionamiento de las grandes inversiones que la “Big Science” requiere, y se empezó a exigir que se pusiera mayor énfasis en las “aplicaciones”. Principalmente en Estados Unidos se hicieron recortes presupuestales que finalmente llevaron a anular enormes proyectos (como el Supercollider) o a propiciar la muerte lenta de otros (como el TEVATRON del Fermilab). Paralelamente, otros países -principalmente los europeos- mantuvieron el financiamiento de ciencia fundamental y pasaron a tomar el liderazgo que Estados Unidos perdió en algunos casos (por ejemplo el CERN, en Ginebra, construye el Large Hadron Collider, que supera al TEVATRON). La colaboración internacional se diversificó y creció el aporte de países asiáticos y latinoamericanos. Hoy en día, China ya se perfila como una potencia científica, seguida no de lejos por Corea, Singapur, entre otros, los cuales se suman a otros países orientales con mayor tradición científica, como India y Japón. Por el lado latinoamericano, países como Brasil, Argentina, México y Chile adquieren una presencia que es cada vez más gravitante en algunas áreas de la física.

Como vemos, al buscar una muy destacada personalidad de la física cuya obra haya tenido gran impacto, nos encontramos con que esa obra adquiere trascendencia gracias a múltiples aportes, lo que en ocasiones lleva a insuflar la creación original con un significado distinto del que inicialmente tuvo. Contribuciones tan fundamentales como la relatividad general y la ecuación de Schrödinger han sido entendidas en su real contenido recién a partir del aporte de muchos físicos. Ellas han adquirido así un significado que difiere, en mayor o menor medida, del que inicialmente le dieron sus propios creadores. En el caso de Schrödinger, su idea de “ondas” vagamente definidas pero “reales” y cuya dinámica, la ecuación que lleva su nombre, supuestamente describe, poco tiene que ver con la interpretación probabilística que es la que hoy se acepta. En el caso de Einstein, su intento de generalizar el principio de relatividad especial, pasando del movimiento uniforme al movimiento arbitrario, terminó dando como fruto una teoría de gravitación y no una teoría general de relatividad, como lo sería aquella que involucre a todas las interacciones junto a todo tipo de movimiento. Y es que la física es fruto de un esfuerzo colectivo, en el que interviene no solo la extraordinaria capacidad intelectual de unos cuantos elegidos, o la “iluminación” repentina de algún visionario, sino también, y principalmente, la creciente profesionalización y especialización de esas personas que conforman el colectivo de la disciplina. Cuando ellas son incentivadas por su entorno para realizar un exigente trabajo cotidiano, entonces se cristaliza finalmente ese “nuevo conocimiento”, que solo desde una engañosa perspectiva se nos aparece como surgido de golpe y en una sola cabeza.

Calificar (5 votes, average: 4,40 out of 5)

DEJA UN COMENTARIO