Evolución de las ideas sobre el espacio del universo
En muchas cosmogonías el mundo está dividido en tres partes: el superior (celestial), el medio (terrestre) y el inferior (subterráneo). Por ejemplo, los habitantes de Mesopotamia creían que el mundo celestial pertenecía al dios Anu, el mundo terrestre a Bel, identificado con Enlil, y el mundo subterráneo а Ea. El espacio del mundo no se consideró homogéneo e isótropo. Así, para los egipcios el flujo del Nilo de sur a norte establecía el pivote espacial.
Los pitagóricos ofrecieron un modelo pirocéntrico del universo donde las estrellas, el Sol, la Luna y seis planetas giraban alrededor del fuego central (Hestia). Según sus enseñanzas, la distancia entre los cuerpos celestes correspondía a los intervalos musicales de la escala; cuando giraban emitían la “música de las esferas”, que no podemos oír.
En el modelo cosmológico desarrollado por Platón, Aristóteles, Ptolomeo y otros, las entidades fundamentales son esferas celestes concéntricas etéreas a las que están unidos los planetas y las estrellas, como gemas engastadas en orbes. La fuente del movimiento de estas esferas es su propio dios y el Primer Motor. En la Edad Media, el sistema geocéntrico ptolemaico estaba muy extendido. En él, cada planeta se movía en un sistema de dos esferas: una llamada deferente; la otra, su epiciclo. Esto permitió explicar el movimiento aparente de los planetas en el cielo.
En la primera mitad del siglo XVI, Nicolás Copérnico presentó el nuevo sistema heliocéntrico del mundo. Tenía el Sol en el centro y los planetas giraban a su alrededor (la Tierra giraba también alrededor de su eje). Los siguientes pasos los dieron J. Kepler y G. Galilei. El primero cambió el movimiento circular de los planetas a elíptico y dedujo las leyes del movimiento que hoy llevan su nombre; el segundo inventó el telescopio y comenzó a observar los cuerpos del sistema solar. Galileo vio a través de un telescopio que la Vía Láctea está formada por estrellas que, sin telescopio, parecen una nube sólida. En 1687 Isaac Newton formuló la ley de la gravitación universal. Supuso que la fuerza que hace que la manzana caiga al suelo es la misma que hace que la Luna gire alrededor de la Tierra.
En 1923–1924, Edwin Hubble descubrió que, a pesar de la gravedad, las galaxias distantes se separan en diferentes direcciones. De esto se deduce que nuestro universo no es estático, sino que se está expandiendo. Y si la expansión se produce a lo largo del tiempo, entonces debe haber comenzado en algún momento del pasado. Es el momento a partir del cual comenzó la expansión del universo que ahora llamamos “Big Bang”. Según cálculos modernos, esto ocurrió hace 13,8 miles de millones de años.
Así pues, nuestra idea del espacio del universo ha ido cambiando durante los últimos milenios. En los primeros tiempos, el mundo estaba dividido en “arriba” y “abajo”. En la Antigüedad apareció la idea de una Tierra esférica. En el Renacimiento, Copérnico colocó al Sol en el centro del mundo. Y en los tiempos modernos tenemos una idea del universo, nacido hace 13,8 miles de millones de años y desarrollado a partir de un único punto caliente y denso (singularidad).
Hoy sabemos que el tamaño del universo observable es de unos 14 000 millones de años luz. Es decir, la luz va de un extremo al otro durante 14 000 millones de años. Y la distancia de la Tierra al Sol es de ocho minutos luz. Hay alrededor de dos billones de galaxias en el universo. Y en la Vía Láctea hay entre 100 000 y 400 000 millones de estrellas, y en su centro hay un agujero negro que es 4 millones de veces más masivo que el Sol.
¡¡¡Estas dimensiones y masas no pueden ser comprendidas por la mente humana!!! El siglo XXI trae consigo nuevos descubrimientos sobre la estructura del universo. Las observaciones de las galaxias tempranas utilizando el telescopio James Webb han demostrado que el modelo del big bang no es exacto y requiere revisión.
A finales del siglo XIX, el edificio de la ciencia clásica estaba casi terminado. Esta ciencia surgió de la combinación de la experiencia adquirida por el hombre en la vida cotidiana y la deducción lógica. Su progreso había sido muy impresionante y creó una ilusión de omnipotencia de la mente humana. Al mismo tiempo, las leyes de la física clásica contradecían las nociones tradicionales del mundo contenidas en los mitos y doctrinas de los antiguos filósofos. Como resultado, los mitos se consideraban historias divertidas no relacionadas con la realidad, y las doctrinas de los filósofos solo despertaban interés desde un punto de vista histórico.
Sin embargo, los descubrimientos del siglo XX demostraron que no siempre se puede lograr claridad y distinción en la interpretación de los datos experimentales basada en la lógica y el sentido común, cuando se trata de fenómenos naturales que ocurren en una escala muy diferente de la familiar para el hombre. Nos referimos a la escala de los fenómenos atómicos y a la de los procesos que tienen lugar en el espacio cósmico, donde los actores son las estrellas, galaxias y sus cúmulos.
De la física clásica a la relativista
En el siglo XVII, Isaac Newton formuló el concepto de espacio y tiempo de la física clásica. Estos conceptos (espacio y tiempo) son entidades absolutas e inmutables que existen independientemente una de otra. Forman un escenario cósmico universal pasivo en el que tienen lugar todos los acontecimientos. El espacio y el tiempo proporcionan la plataforma invisible que da orden y estructura al universo. A finales del siglo XIX, se erigió sobre esta plataforma el edificio de la física clásica. Parecía que en ese momento la mayoría de los principios fundamentales de la naturaleza se habían establecido firmemente.
Sin embargo, la primera década del siglo XX fue verdaderamente revolucionaria. Las nociones clásicas de espacio, tiempo y realidad eran familiares e intuitivamente claras, pero desde entonces fueron reemplazadas por nuevos conceptos que son difíciles de entender y nada obvios desde el punto de vista de nuestra experiencia cotidiana.
En nuestra experiencia no hay lugar para movimientos con velocidades muy altas, como la velocidad de la luz (unos 300 000 km/s). Sin embargo, el estudio de las propiedades del movimiento a esta velocidad llevó a comprender que los conceptos clásicos de espacio y tiempo absolutos no pueden utilizarse para describir las propiedades de tales movimientos. Como resultado, tanto el espacio como el tiempo dejaron de ser absolutos y pasaron a poseer propiedades que dependen del observador. En particular, los resultados de las mediciones de distancias y duraciones son diferentes para diferentes observadores si se mueven a diferentes velocidades en relación con la escena en la que se desarrolla el proceso físico. Además, estos resultados dependen de la masa de cuerpos que se encuentren cerca del lugar. El edificio de la física teórica se tambaleó porque las leyes de la naturaleza, que describen los fenómenos en el dominio espacial y la duración temporal, estaban amenazadas con la pérdida de universalidad.
Albert Einstein logró devolver el carácter absoluto a las leyes físicas. Propuso nuevos principios absolutos, que, aunque no eran obvios desde el punto de vista de la experiencia cotidiana, tenían una redacción común (formulaciones comunes) y la belleza de las consecuencias matemáticas. Estos principios absolutos son los siguientes:
1. Todos los procesos físicos (en un sistema de referencia inercial) se desarrollan de la misma manera, independientemente de si el espectador reposa o se encuentra en un estado de movimiento uniforme y rectilíneo.
2. La velocidad de la luz para cualquier observador es la misma, independientemente de si se mueve con respecto a la fuente de luz o si está en reposo.
La nueva física se construyó en un espacio-tiempo de cuatro dimensiones en el que tres coordenadas son las habituales espaciales y la cuarta es el tiempo. El mundo se ve diferente para diferentes observadores (cada uno de ellos tiene su propia escala espacial y temporal), pero en todos los sistemas de referencia, el valor asociado a las coordenadas de los dos eventos en el espacio y el tiempo permanece sin cambios. Depende de la diferencia de coordenadas espaciales de los puntos en los que ocurren estos eventos y del espaciamiento temporal entre ellos. Este valor se denominó “intervalo”. Así, el espacio y el tiempo estaban entrelazados. Nuevas leyes permitieron predecir qué características espaciales y temporales tendrá un fenómeno físico para cualquier observador. La imagen física del mundo conservó su unidad.
Otra consecuencia de la teoría de la relatividad fue el descubrimiento de que la energía y la masa están interrelacionadas y pueden convertirse una en otra. Esto puede interpretarse como si estas dos cantidades físicas fueran “encarnaciones” diferentes de una misma cantidad masa-energía. Esta consecuencia se convirtió en la base de la ingeniería nuclear y atómica y quedó perfectamente confirmada en los experimentos.
Unos años más tarde, Einstein extendió el principio de la relatividad especial a la general. En ella afirma que todas las leyes físicas funcionan de la misma manera para todos los observadores, sin importar si se mueven con respecto a la escena observada de manera uniforme, o con aceleración, o si están en reposo. Para ello tuvo que postular que las fuerzas de gravedad y las fuerzas de inercia que actúan sobre un cuerpo que se mueve con aceleración (con respecto al sistema de referencia inercial) tienen la misma naturaleza, y explicar este hecho por la distorsión del espacio-tiempo dependiendo de la masa de la materia circundante. Esto resolvió uno de los enigmas de la física clásica en la que una misma característica física, la masa corporal, se utiliza tanto en la ley de la inercia (segunda ley de Newton) como en la ley de gravitación.
De hecho, estamos acostumbrados a ver que, si no se aplica ninguna fuerza sobre un cuerpo, este se mueve siguiendo el camino más corto. Para el espacio vacío, estos caminos son líneas rectas. En física clásica, este es el camino recto de un rayo de luz. Por tanto, la geometría euclidiana habitual es la geometría del espacio vacío. Sin embargo, nuestro espacio físico está lleno de cuerpos masivos. Como muestran los experimentos, los rayos de luz se desvían por acción de la gravedad. Einstein propuso sustituir la acción de la gravedad por la distorsión del espacio.
La diferencia entre la realidad clásica y la relativista se manifiesta solo en condiciones de velocidades y gravedad extremadamente altas. En el entorno en el que actuamos normalmente, la física newtoniana ofrece una aproximación muy precisa que resulta útil en muchas situaciones. Sin embargo, según B. Greene, “utilidad” y “realidad” son categorías completamente diferentes.[1]
Realidad cuántica
La física cuántica describe la nueva realidad en escalas comparables al tamaño de los átomos. Comenzó con los intentos de formular las leyes de la emisión de luz. Sin embargo, los efectos observados no pudieron explicarse desde el punto de vista de las teorías clásicas. Para resolver las contradicciones, Max Planck sugirió en 1900 que las ondas electromagnéticas (luz) se emiten en porciones a las que llamó cuantos.
Esta propuesta fue seguida por el estudio experimental del efecto fotoeléctrico. En 1887, el físico alemán G. Hertz descubrió que, bajo la influencia de la luz, una sustancia puede emitir electrones. Según la visión clásica, cuanto mayor es la amplitud de la onda, mayor debe ser su energía y más electrones debe liberar. Los experimentos demostraron que no era así: los electrones eran liberados solo por la luz con una frecuencia superior a cierto umbral. Sin embargo, por muy grande que fuera la intensidad de la luz, pero con una frecuencia inferior al umbral, no liberaba ningún electrón. Este extraño comportamiento de la luz fue explicado a nivel teórico por Albert Einstein en 1905: sugirió que la luz no solo se emite, sino que también se propaga mediante porciones (cuantos), más tarde llamadas fotones y que tienen propiedades de partículas.
Otra paradoja que sacudió los cimientos de la física clásica es la incapacidad de explicar la estructura del átomo. En 1896 se descubrió el fenómeno de la radiactividad, un año después, el electrón, y en 1911, gracias a Rutherford, se descubrió que el átomo consta de un núcleo inusualmente pequeño y electrones que orbitan a su alrededor. Para imaginar la relación de tamaño del núcleo (10-13 cm) y el átomo (10-8 cm), si aumentáramos el átomo al tamaño de una habitación: el núcleo sería un punto apenas visible.
Como resultado, la idea clásica de un cuerpo sólido como una región del espacio llena de materia sólida, fue reemplazada por la noción de un “vacío” donde se mueven partículas muy pequeñas (electrones y núcleos atómicos). Sin embargo, se suponía que estas partículas tenían una densidad extremadamente alta.
Según las ideas clásicas, para que un electrón no se precipite sobre el núcleo, debe girar alrededor de él a una velocidad increíble. Sin embargo, un electrón que gira se acelera (hacia el centro de la órbita) y, según las leyes de la electrodinámica clásica, las partículas aceleradas emiten continuamente una onda electromagnética y, por lo tanto, deben perder energía. ¡Como resultado, los electrones deberían caer hacia el núcleo casi instantáneamente (en 10-11 segundos)! Para explicar la estabilidad de los átomos, se propuso otra idea “cuántica”: la emisión de electrones en un átomo solo puede ocurrir en porciones discretas. El desarrollo de esta idea permitió describir las frecuencias de las líneas espectrales en la emisión electromagnética de las sustancias.
Las propiedades corpusculares de la luz se demostraron a través del efecto Compton (1922): se demostró que la luz puede ser dispersada por electrones y, en este proceso, tanto el electrón como la luz se comportan como bolas perfectamente elásticas. Así, la “naturaleza loca” atribuye a la luz las propiedades de una onda o de una partícula dependiendo de las condiciones de su registro (condiciones experimentales).
En 1924, Louis de Broglie asumió que tales propiedades son características no solo de la luz, sino también de todos los objetos del micromundo (o mejor dicho, del mundo subatómico) en general. Si esta hipótesis es correcta, el movimiento de las partículas atómicas no se puede describir con los conceptos clásicos de trayectoria (órbita).
Esta idea se confirmó brillantemente en el experimento donde los electrones, que siempre habían sido considerados como “partículas”, se dispararon uno a uno hacia un diafragma en forma de una rendija detrás de la cual se encontraba una pantalla. Los puntos alcanzados por los electrones que habían atravesado la rendija se fijaron en la pantalla. Si los electrones fueran partículas, habría un área precisa en la pantalla golpeada por las partículas que se mueven en línea recta a través de la rendija. En realidad, un electrón puede impactar en cualquier punto de la pantalla, y en algunas zonas con más frecuencia, mientras que en otras, con menor frecuencia. La frecuencia con la que los electrones inciden en diferentes zonas de la pantalla se muestra en la curva verde de la fig. 1. La forma de esta curva coincide completamente con la forma de la intensidad de una onda (ya sea luz u ondas en la superficie del agua) que pasa a través de una rendija. Este hecho nos hace rechazar el concepto de una partícula que se mueve a lo largo de una trayectoria. La física moderna utiliza la idea de que “en lugar de” una partícula, una “onda de probabilidad” se propaga, se difracta en la rendija del diafragma y luego genera un fotón en un lugar u otro de acuerdo con leyes matemáticas.
Pero una onda no tiene coordenadas concretas; se difunde sobre un área en el espacio. Las nociones de partículas puntuales de materia son reemplazadas por la idea de “no localidad”. Es sorprendente que cuando la coordenada de un electrón se registra en la pantalla, la “no localidad” de un electrón se reemplaza instantáneamente por una localidad precisa –la onda del electrón colapsa en un punto que fija la traza de este electrón en la pantalla, propiedad que se denomina colapso de la función de onda–.
Sin embargo, tal interpretación del colapso de la función de onda amenazaba con romper la propiedad de causalidad. Estamos acostumbrados a que cada acontecimiento tiene su causa: por ejemplo, un jarrón roto en el suelo está ahí porque lo han tirado o empujado desde algún lugar. Primero lo empujaron y luego se rompió. Desde el momento de la acción de la causa (el jarrón fue empujado) hasta el efecto (su rotura) sin duda tiene que pasar un tiempo necesario para superar el espacio que separa la causa del efecto. Sin embargo, nada es tan sencillo en el mundo cuántico: en el ejemplo dado, el efecto tiene lugar al mismo tiempo que la causa, por muy lejos que estén uno del otro. De hecho, cuando se miden todas las “partes” de la onda de un electrón difundidas en el espacio, instantáneamente se reúnen en un punto en la pantalla.
Para demostrar la paradoja de la realidad cuántica, Albert Einstein y sus colegas Boris Podolsky y Nathan Rosen idearon un experimento mental que prueba esta propiedad de no-localidad del mundo cuántico. Se supuso dos partículas localizadas en confines alejados del universo y se demostró que la observación de una de ellas, en caso de que exista no-localidad, afectará instantáneamente a la otra. En 1964, John Bell propuso una formulación de la paradoja de Einstein-Podolsky-Rosen que permitía realizar pruebas experimentales directas. El experimento se llevó a cabo en 1982 y demostró que el mundo es realmente tal que una partícula “siente” las medidas realizadas sobre la segunda partícula. Los físicos repitieron este experimento muchas veces con diferentes variantes, mejoraron las técnicas con la esperanza de encontrar un error, pero la conclusión sigue siendo la misma: nuestro mundo no es un conjunto de átomos locales, “ladrillos”, ni siquiera consistentemente interconectados. Es un todo comprensivo, y algo que ocurre en una parte de él, al mismo tiempo lo cambia como un todo. J. Wheeler también habla de ello, refiriéndose a la observación de un electrón como objeto cuántico: “…la medición cambia el estado del electrón. El universo nunca volverá a ser el mismo. Para describir lo que ha sucedido, hay que tachar esa antigua palabra ‘observador’ y poner en su lugar la nueva palabra ‘participante’”.[2]
Así, todo lo dicho anteriormente nos lleva a la idea de que la base de la realidad observada es la realidad cuántica “invisible”, que se vuelve “visible” en el curso de la interacción entre las partes observable (clásica) y observadora (cuántica) del sistema. Sin embargo, en situaciones reales este sistema es uniforme y su división en “cuántico” y “clásico” es muy relativa.
Una de las propiedades de la realidad cuántica, que parece paradójica desde las posiciones de la física clásica, está relacionada con el hecho de que la especificación de una de las características de un objeto en el momento de la interacción entre el objeto cuántico y el dispositivo clásico (es decir, en el momento de la medición), va acompañada de una pérdida de precisión en el valor de algunas otras características. Así, por ejemplo, la especificación de las coordenadas de una partícula durante su interacción con el dispositivo clásico hace que su impulso (producto de la masa por la velocidad) sea menos definido. El tiempo de observación del sistema, su energía, etc., poseen la misma propiedad. Una situación tan extraña (desde el punto de vista clásico) es formulada por N. Bohr como el principio de complementariedad. Según este principio, las características “clásicas” habituales de una micropartícula (sus coordenadas, velocidad, energía, etc.) no son inherentes a la partícula misma. El sentido y cierto valor de las características clásicas de los objetos cuánticos (electrón, fotón, etc.) se revelan en la interacción con los objetos clásicos. Estos valores solo tienen cierto sentido para los objetos clásicos que solamente pueden tener un valor determinado al mismo tiempo.
Una descripción adecuada de los fenómenos del micromundo exige el uso de “lenguajes diferentes” que se complementen entre sí. Así, la descripción de una micropartícula como un objeto puntual refleja solo una parte de sus propiedades. En otras condiciones (por ejemplo, al pasar a través de una rendija), la micropartícula manifiesta propiedades ondulatorias. Como resultado tenemos la noción de la partícula cuántica como una especie de realidad oculta, que se comporta de manera diferente según los modos de interacción con el observador. Sin embargo, es imposible observar en un experimento tanto las propiedades ondulatorias como corpusculares de un microobjeto. Según Niels Bohr, “…las partículas materiales aisladas son abstracciones, siendo sus propiedades definibles y observables solo a través de su interacción con otros sistemas”. La observación en esta situación se vuelve muy similar a “observar las sombras en la pared de una cueva”, descrita por Platón en su diálogo “La República”. En otras palabras, este mito lo vuelve a contar la física del siglo XX. Por ejemplo, David Bohm dice: “…la interconexión cuántica inseparable de todo el universo es la realidad fundamental, y que las partes que se comportan de manera relativamente independiente son simplemente formas particulares y contingentes dentro de este todo”[3].
La noción clásica del mundo como un edificio construido a partir de bloques (moléculas), que consisten en elementos más pequeños (átomos) que a su vez consisten en elementos aún más pequeños, etc., a cierta escala, se vuelve inadecuada. De hecho, los experimentos atestiguan que los electrones “pequeños” que se mueven a altas velocidades, al chocar, pueden “romperse” tanto en partículas más pequeñas (en términos de masa) como más grandes. Al mismo tiempo, este experimento coincide plenamente con otra rama “no clásica” de la física que nació a principios del siglo XX: la teoría de la relatividad, según la cual el peso y la energía de un cuerpo son equivalentes y pueden ser vistos como manifestaciones diferentes de una misma realidad.
Así, vemos una serie de sorprendentes interrelaciones espaciotemporales que se han establecido hasta ahora. Estas interrelaciones surgen de la mecánica cuántica y contradicen la visión clásica e intuitiva del mundo. En primer lugar, nos referimos a la no localidad cuántica, es decir, las áreas divididas en el espacio están conectadas entre sí por la unidad cuántica. En segundo lugar, hablamos de la falta de determinación absoluta en los resultados de los experimentos con objetos cuánticos: la física solo puede calcular las probabilidades de estos resultados.
Tiempo y espacio del universo
Uno de los enigmas que persisten desde los tiempos de la ciencia clásica es que prácticamente todas las leyes de la física permiten la llamada “inversión del tiempo”. Explicaremos esto con el ejemplo de un sistema mecánico que evoluciona en el tiempo desde el pasado hacia el futuro. Si en un momento determinado cambiamos la dirección de la velocidad de todas las partículas del sistema mecánico a la inversa, su comportamiento replicará el movimiento del sistema original, pero en dirección opuesta. Este es un efecto que muestra la inversión del flujo del tiempo. Lo mismo se aplica a los sistemas con interacciones electromagnéticas y gravitacionales, así como a los sistemas cuánticos. Sin embargo, en la “vida real” vemos claramente el movimiento del tiempo en una sola dirección: un jarrón roto nunca volverá a estar intacto y lo viejo no volverá a ser joven.
Las primeras leyes de la física con una dirección temporal fija (¡e irreversible!) aparecen en la termodinámica. Están asociados con el nombre de Ludwig Boltzmann, quien demostró que en un sistema cerrado todos los procesos se desarrollan de tal manera que el orden es reemplazado por el caos.
Reflexionando sobre este efecto y recordando que uno de los “efectos irreversibles” más grandiosos es el nacimiento del universo, Roger Penrose sugirió que las condiciones físicas especiales que existían en los inicios del universo (un medio altamente organizado en el momento del big bang o inmediatamente después) podría haber hecho que el tiempo se moviera en una sola dirección, del pasado al futuro.
La cuestión del origen de nuestro mundo siempre ha excitado la imaginación de la gente. En las civilizaciones tradicionales, la respuesta a esta pregunta estaba contenida en los mitos de la creación, que hablaban de los tiempos primordiales. Un rasgo característico de estos mitos es que, según ellos, el mundo se crea en un punto determinado que es el centro del mundo a partir del cual comienza a desplegarse el espacio. El curso del tiempo también comienza desde el momento de la creación. A principios del siglo XX, estos conceptos mitológicos fueron confirmados por las ciencias naturales, lo que resultó bastante inesperado para muchos científicos.
Al mismo tiempo se descubrieron nuevos objetos del universo, las galaxias. Están mucho más lejos de nosotros que la mayoría de las estrellas visibles. La medición de sus velocidades, propuesta por el astrónomo E. Hubble en 1928, basada en el desplazamiento de las líneas espectrales de su radiación óptica, mostró que todos ellos se alejan de la Tierra a velocidades proporcionales a su distancia a la Tierra. El análisis de este hecho y de otros que aparecieron posteriormente, permite afirmar que hace unos 13,7 mil millones de años el universo nació realmente a partir de un punto o, más precisamente, de una minúscula zona del espacio. Según la ciencia moderna, a partir de este punto comenzó su curso el tiempo y apareció el espacio. Esta teoría fue aceptada por la ciencia como la teoría del big bang. Su brillante, aunque indirecta confirmación, fue el descubrimiento de la radiación cósmica de fondo en los años 1960, cuyos autores recibieron el Premio Nobel.
A finales del siglo XX, las observaciones astrofísicas llevaron a nuevos descubrimientos. Lo más intrigante es que la expansión del universo a partir de cierto momento de repente comenzó a acelerarse. Actualmente se considera que la masa visible del universo constituye solo alrededor del 4% de la masa-energía total. Alrededor del 22% se atribuye a la llamada “materia oscura”, responsable de la forma de las galaxias y del patrón de su movimiento; su naturaleza física aún no está clara. Y la parte restante de la masa-energía del universo, que es alrededor del 74%, sirve para explicar la aceleración de su expansión. Se llama “energía oscura”.
Conclusión
El desarrollo de la física nos hace ver el espacio, el tiempo y la materia de una manera completamente nueva: resulta que el espacio y el tiempo están entrelazados y son diferentes para diferentes observadores que se mueven a diferentes velocidades; también dependen de la presencia de masas gravitacionales. La distancia entre los objetos en el mundo cuántico no es un obstáculo para sus conexiones, ya que los objetos cuánticos en sí no están localizados y aparecen como un campo de ondas, cuya amplitud al cuadrado en cada punto da la probabilidad de encontrar el objeto allí cuando se observa. El espacio y el tiempo son dinámicos, “nacieron” con el universo y desde entonces el espacio se está “extendiendo”, de modo que actualmente el alcance del universo observable es de unos 13 000 millones de años luz.
Las teorías modernas que intentan proporcionar una descripción unificada de toda la imagen física del mundo ven el espacio-tiempo de una manera aún más exótica: hay teorías que hablan de un espacio de 11 y 13 dimensiones, etc. Y no podemos estar seguros de que nuestras nociones de espacio, tiempo y materia no cambiarán en el futuro.
Aleksey Chulichkov
[1] Greene B. The Fabric of the Cosmos: Space, Time, and the Texture of Reality (2004)[1]
[2] The Physicist’s Conception of Nature. Philosophical Studies 8:213-216. Jagdish Mehra (ed.)
[3] Bohm, D. and Hiley, B. On the Intuitive Understanding of Nonlocality as Implied by Quantum Theory. Foundations of Physics, Vol. S. 1975, pp. 93–109.