Por Endika Vásquez

13 de octubre de 2020

Física

Un vistazo al principio holográfico.

Lo primero que uno imagina al mencionar la palabra holograma es una escena de un videojuego o película de ciencia ficción donde se transmite un mensaje a través de una proyección, como en Mass Effect o Star Wars. Pero, realmente, ¿qué es un holograma?

La utilización de los hologramas se encuentra realmente entre nosotros, incluso en objetos de uso cotidiano, como son los billetes, propaganda y pegatinas de autenticidad, con el objetivo de evitar su falsificación, ya que fabricarlos con el patrón exacto resulta realmente complejo y no se pueden hacer con herramientas convencionales.

Un holograma es un medio en el que se almacena información en más dimensiones de las que tiene el objeto proyector en sí, es decir, ver una imagen tridimensional a través de un objeto bidimensional.

Esta definición es aplicable a cualquier cosa, incluso al mismo universo, que, de aplicarse, aclararía muchas dudas hasta el punto de poder armonizar las teorías relativista y cuántica, incompatibles entre sí.

La holografía fue introducida en 1948 por el físico húngaro Dennis Gabor, lo cual le ganó el nobel de física en 1971, y ha sido perfeccionada a lo largo de los años por los apasionados por las posibilidades de la nueva tecnología.

De forma simplificada, la holografía hace uso de un rayo láser que incide sobre el objeto que se desea registrar. La luz debe ser un laser, ya que esta emana una frecuencia mucho más exacta y estable que la luz convencional, necesaria para nuestra medición.

Cuando la luz incide sobre un objeto, parte de la radiación rebota y se mezcla con la luz original, dando lugar a un fenómeno llamado interferencia mediante el cual los haces de luz se combinan para formar un patrón complejo. En este patrón, donde los máximos de la onda incidente y reflejada coinciden, se crearán máximos de amplitud, mientras que si un máximo de la onda incidente coincide con un mínimo de la reflejada, se creará un mínimo de amplitud. Esta onda compleja es capturada por una superficie fotosensible, donde se registra.

Si se toma la película en la que se ha hecho la grabación y se vuelve a enfocar con un láser, el haz ausente es precisamente nuestro holograma, de manera que veremos un objeto que realmente no esta allí.

Esto es la aplicación básica de la holografía, pero antes hemos mencionado que, de aplicarse en más ámbitos, podría incluso exponer una nueva teoría sobre el universo, en la que se propone que el universo en sí mismo utiliza este principio para proyectarse tal y como lo vemos.

Esta teoría, por drástica que pueda sonar, presenta indicios tanto teóricos como prácticos, y no es lo que uno probablemente imagina cuando le dicen que el universo es un holograma.

Un universo compuesto de datos

Para explicar esto, tenemos que partir del principio de que la información es esencial en la composición de nuestro universo, tanto como las partículas elementales(protones, electrones y neutrones, por ejemplo). Esta información es conocida como la magnitud física de entropía, introducida inicialmente en 1865 por Rudolf Clausius como la cantidad de calor intercambiado entre un sistema y su medio dividido por su temperatura absoluta. En 1877 Ludwig Boltzmann reformuló la teoría en términos del número de estados microscópicos en los que puede encontrarse un sistema que sean compatibles con su apariencia macroscópica.

S= k In Ω

S es referente a la entropía, Ω el número de microestados compatibles con el macroestado observado, y k es la contante de Boltzmann.
Medio siglo más tarde, el matemático estadounidense Claude Shannon propuso una definición idéntica a la de Boltzmann, llevando a una identificación conceptual. Así, el número de configuraciones que se cuentan en la fórmula de Boltzmann se corresponde con la cantidad de información, según Shannon, necesaria para realizar cualquier configuración determinada.

Para comprender lo previamente mencionado utilizaremos los dados como ejemplo:

En un lanzamiento de dos dados, el resultado de la tirada es la suma de ambos, lo cual nos da 11 macroestados posibles sin tener en cuenta el valor numérico de cada dado.
Pero, si se diferencia cada dado, denominémoslos A y B, el número de posibles resultados aumenta a 36 valores en total, es decir, 36 microestados equiprobables que conducen a 11 macroestados no equiprobables.
Los microestados son igual de probables, pues cada dado está equilibrado y tiene 6 posibles valores, de forma que cada una de las combinaciones tiene la misma posibilidad de ser el resultado final, pero, lo que hace que cada uno de los macroestados no sea equiprobable es que muchos de estos microestados llevan a una suma equivalente, por ejemplo, el macroestado de valor 7 tiene seis microestados compatibles(A1B6, A2B5, A3B4, A4B3, A5B2, A6B1), mientras que los valores 12 y 2 solo tienen un microestado posible para cada uno.

Si nos dicen que el macroestado es 3, no tenemos forma de saber cuál es el microestado exactamente. Pero, tenemos un 50% de probabilidad de acertar el microestado correcto. Almacenar esta información, ya que se trata de dos estados equiprobables, requiere una información de un bit. De esta forma, un número "n" de bits puede almacenar n2 microestados, es decir, un bit almacena 2 microestados, dos bits almacenan 4, tres almacenan 9, etc.

De este modo, el macroestado de mayor entropía es el de mayor información, ya que para distinguir entre los 6 microestados asociados al 7, se necesitarían 3 bits de información(con 3 valores sin asignar).

Información en agujeros negros

Tendemos a pensar que la información se conserva en la mayoría de interacciones físicas, pues la conservación de la información está directamente ligada a la conservación de energía y a la reversibilidad microscópica del tiempo. Pero hay una situación específica en la que esta ley no se cumple al 100%, y es en los agujeros negros.

Un agujero negro es una concentración de masa tal que en el campo gravitatorio generado no permite que absolutamente ningún tipo de materia escape de él, ni siquiera la luz. De ahí la denominación, pues no ves luz reflejada en él.
La forma geométrica de un agujero negro viene determinada por el horizonte de eventos, una superficie que lo envuelve de forma esférica, definida por la restricción matemática de que la velocidad necesaria de una partícula para escapar del agujero debería ser la de la luz. De este modo, nada de lo que haya dentro del agujero podrá abandonarlo nunca. El radio del horizonte de eventos de un agujero masa M(Radio de Schwarzschild) tiene el valor rsh=(2GM)/C2. Donde G es la constante gravitatoria y C es la velocidad de la luz.

En 1976 Stephen Hawking propuso que, en los agujeros negros, tiene lugar una violación del principio de reversibilidad microscópica. Dado que la información no puede escapar del horizonte de eventos una vez lo cruza, desaparece para siempre, introduciendo la primera fuente conocida de irreversibilidad en la naturaleza.

Años atrás Hawking había propuesto que los agujeros negros no son completamente negros, sino que son capaces de emitir radiación térmica, conocida hoy en día como Radiación Hawking. Pero esta radiación es aleatoria, ya que, aunque la masa puede escapar, la información que le da forma nunca lo hará, pues se perdió irremediablemente al cruzar el horizonte de eventos.

La entropía de un agujero negro

En un artículo publicado en 1993, el físico neerlandés Gerardus 't Hooft da una propuesta a favor de la reversibilidad, planteando que la información de un agujero negro debe estar, de una manera u otra, a disposición del mundo exterior. En su argumentación, 't Hooft utiliza el resultado anterior de Hawking y Bekenstein según el cual, para un agujero negro, la entropía puede calcularse como: S=A/4, siendo A el área del horizonte de eventos de un agujero negro, medida en una unidad conocida como el área de Planck. Bajo este planteamiento, la información captada por el agujero quedará siempre disponible al exterior, con razón de que se encuentra en la superficie.

Poco tiempo después, la idea del neerlandés sería perfeccionada y ampliada por Leonard Susskind. El estadounidense tenía como objetivo establecer un valor limitante a la cantidad de información que puede ser albergada en una región del espacio determinada, hoy en día conocida como cota holográfica. Para tal fin, Susskind considera una distribución de materia esférica en el interior de un área A. Posteriormente, provoca que toda esa materia colapse y forme un agujero negro.
El área del agujero negro deberá ser menor que el área original A. Además, la entropía de un agujero negro está acotada por la ecuación S=A/4, de forma que la distribución original también debería contener menos de A/4 unidades de entropía.

Esta cota a la máxima información por volumen desafía al sentido común, pues uno espera que la información sea proporcional al volumen, pero como los agujeros negros acaban de demostrar, la cantidad máxima de información depende del área limitada por la región.

't Hooft ya apuntaba a una posible salida que daría una explicación natural a esta contradicción, y es lo que hoy en día se conoce como principio holográfico.
Hemos visto al principio que una holografía es una superficie bidimensional en la que se registra información referente a una imagen tridimensional que se codifica en el patrón de difracción grabada sobre la película. El principio holográfico podría aplicarse a la descripción de cualquier sistema físico que ocupe una región tridimensional del espacio: existe una teoría física definida en el área de la región, de describe completamente la física tridimensional vigente en su interior.

Susskind propuso la aplicación de este principio para el universo en su totalidad, que parece ser tetradimensional, ya que además de largo, alto y ancho, este se extiende en el tiempo. Adoptando un modelo físico holográfico podríamos describir el universo siguiendo unas leyes físicas definidas sobre una superficie tridimensional que trazase el contorno de la región tetradimensional tal como la percibimos. Ambas descripciones serían entonces, equivalentes.

A diferencia de una proyección, un holograma no lleva implícita una pérdida de información, ya que este no es una reducción dimensional por definición, que puede distorsionar por completo la imagen obtenida.

Según el principio holográfico, es posible que las leyes físicas cambien de forma, y que los cálculos para realizar predicciones cambien, pero la información está presente y coherente tanto en el volumen como en el área delimitada por la entropía. De ahí la novedad de este principio, capaz de convertir en equivalentes dos universos de distinta dimensión que obedecen a leyes físicas dispares.

Expansión del universo

Dicho esto, hay un pregunta obvia: ¿Qué estructura deberíamos esperar del universo para que este fuera coherente con la visión holográfica? Y, ¿Qué superficie tendríamos que concluir que representa el contorno del universo?

Hoy por hoy, tenemos el modelo del argentino Juan Miguel Maldacena, quien tuvo que recurrir a los espacio-tiempos de anti-De Sitter(AdS) para dar una respuesta convincente.

El argentino comprobó que en un universo descrito por la teoría de supercuerdas dentro de un espacio-tiempo AdS podría hacerse equivalente una teoría cuántica de campos operando en la frontera del mencionado espacio-tiempo. El mayor problema de su formulación fue que, para probar la equivalencia tuvo que postular un espacio-tiempo AdS de cinco dimensiones, en lugar de las cuatro que cabría esperar.
Para su espacio-tiempo pentadimensional AdS, Maldacena estableció un universo descrito por la teoría de las supercuerdas, mientras que para el espacio-tiempo plano frontera, tetradimensional, que lo limita, aplicaría una teoría cuántica de campos con partículas puntuales. En este universo, las criaturas que lo habitaran serían incapaces de decidir a qué situación pertenecen, ya que el principio holográfico las hace equivalentes. Podría resultar más cómodo utilizar una descripción u otra en función de las necesidades.

Conclusiones

Muchos autores se han decantado por utilizar la correspondencia AdS/CFT de Maldacena para proponer, con Lee Smolin a la cabeza, que el universo no está definido por una física particular, sino por el intercambio de información entre sistemas. Según esto, la realidad como la percibimos podría no ser mas que una interpretación de nuestro cerebro, pero, llevar este punto de vista lleva a consecuencias radicales lejanas a la realidad, como Matrix, o Inception.

El principio holográfico no es una entelequia, y existen evidencias empíricas que nos llevan a creer en su validez teórica. Un ejemplo es la que podría ser la primera evidencia observacional descubierta por Kostas Skenderis, que, tras investigar irregularidades en el fondo cósmico llega a la conclusión de que a nivel fundamental, el universo es bidimensional(más el tiempo), y la dimensión extra y gravedad son el resultado de la teoría dinámica.

En cualquier caso, el principio holográfico constituye una teoría digna de ser tenida muy en cuenta, pues crea la coherencia necesaria para conciliar la mecánica cuántica y la relativista.


Fuentes: Fronteras de la ciencia