Debate sobre la Hipótesis de la Simulación en 2025: Infodinámica de Vopson Contra Límites Computacionales de Vazza
Editado por: Irena I
El debate en torno a la hipótesis de la simulación, concepto popularizado por la película de 1999 *The Matrix*, ha cobrado intensidad en 2025 a través de argumentos científicos opuestos basados en la teoría de la información y las limitaciones computacionales fundamentales. Esta controversia, que entrelaza la física teórica y la cosmología, involucra a investigadores de instituciones como la Universidad de Portsmouth, la Universidad de Bolonia y la Universidad de Louisville, con trabajos que abarcan desde 2003 hasta desarrollos de principios de 2025.
El físico Melvin Vopson, de la Universidad de Portsmouth, ha propuesto un marco teórico con su Segunda Ley de la Infodinámica, introducida formalmente con S. Lepadatu en 2022. Esta ley postula que la entropía de la información en sistemas con estados informativos debe ser constante o decrecer hacia un valor mínimo en el equilibrio, en contraste con la entropía termodinámica. Vopson sugiere que la gravedad podría ser un efecto emergente de la optimización de la información, alineando su investigación con la física digital, que considera la realidad fundamentalmente algorítmica. Vopson ha aplicado su ley a sistemas como el código genético del SARS-CoV-2, observando una disminución de la entropía de la información en las mutaciones virales.
En oposición directa, el astrofísico Franco Vazza, de la Universidad de Bolonia, ha cuantificado un desafío físico considerable a esta noción. Su análisis, detallado en una publicación de abril de 2025, se centra en el costo energético y las limitaciones astrofísicas de replicar el universo observable. Vazza concluye que simular el cosmos hasta la escala de Planck requeriría una disipación de energía que excede la contenida en el propio universo, incluso en escenarios de baja resolución. Específicamente, tras aproximadamente 10^6 pasos de tiempo, la energía necesaria se equipararía a la energía de masa total de la Vía Láctea o a la energía potencial total de los cúmulos de galaxias más masivos.
La dicotomía se extiende a las implicaciones de la computación. Investigadores, como Mir Faizal de la Universidad de Columbia Británica, han argumentado matemáticamente que la realidad fundamental posee una naturaleza no algorítmica, haciéndola incalculable para cualquier sistema computacional, una postura que utiliza el teorema de incompletitud de Gödel para sugerir la inviabilidad de una simulación algorítmica. Vazza también ha señalado que cualquier simulador operando bajo leyes físicas similares a las nuestras enfrentaría requisitos energéticos insostenibles, incluso para modelar porciones reducidas del universo a resolución Planck.
El contexto histórico de esta discusión se remonta al argumento probabilístico de Nick Bostrom de 2003 y a la atención mediática que ha recibido el concepto, con figuras como Elon Musk expresando su apoyo en ocasiones. Adicionalmente, se recuerda la sugerencia de John Barrow de 2007, quien planteó que las variaciones en las constantes naturales podrían ser indicativas de errores de cómputo dentro de una simulación. La investigación actual busca establecer una base científica para la hipótesis, contrastando la optimización informacional con las barreras termodinámicas y energéticas calculadas por la astrofísica.
21 Vues
Fuentes
New Scientist
IAI TV
Frontiers in Physics
Popular Mechanics
Lincoln Cannon
MDPI
Lea más noticias sobre este tema:
¿Encontró un error o inexactitud?
Consideraremos sus comentarios lo antes posible.
