DE LA FÍSICA A LA MENTE El proyecto filosófico de Roger Penrose
2
Colección Fronteras Director Juan Arana Con el patrocinio de la Asociación de Filosofía y Ciencia Contemporánea
3
Rubén Herce Fernández
DE LA FÍSICA A LA MENTE El proyecto filosófico de Roger Penrose
BIBLIOTECA NUEVA
4
© Rubén Herce Fernández, 2014 © Editorial Biblioteca Nueva, S. L., Madrid, 2014 Almagro, 38 28010 Madrid www.bibliotecanueva.es
[email protected] ISBN: 978-84-9940-636-7 Queda prohibida, salvo excepción prevista en la ley, cualquier forma de reproducción, distribución, comunicación pública y transformación de esta obra sin contar con la autorización de los titulares de propiedad intelectual. La infracción de los derechos mencionados puede ser constitutiva de delito contra la propiedad intelectual (arts. 270 y sigs., Código Penal). El Centro Español de Derechos Reprográficos (www.cedro.org) vela por el respeto de los citados derechos.
5
Índice Presentación Introducción Capítulo I.—¿Quién es Roger Penrose? 1. Retrato de familia 2. La herencia de un padre 3. Pasión por las matemáticas 4. Unos años intensos 5. Maduración de una vida 6. Compartir el saber Capítulo II.—Bases filosóficas 1. El método científico 1.1. ¿Es posible conocer? 1.2. ¿Qué es conocer la realidad? 1.3. Sentido común y apertura a la filosofía 1.4. Los límites 2. Las matemáticas 2.1. Formalismo y realismo 2.2. Intuición matemática 3. Una realidad dinámica 3.1. Matemáticas y realidad física 3.2. Selección natural y principio antrópico Capítulo III.—Fundamentos físicos 1. Teorías de la relatividad 1.1. Antecedentes 1.2. Conos de luz y paradoja de los gemelos 1.3. Relatividad especial y relatividad general 1.4. Singularidades en el espaciotiempo 2. Teoría estándar de la física cuántica 2.1. Dualidad onda-corpúsculo 2.2. El proceso de medida 2.3. Entrelazamiento cuántico y efectos EPR 2.4. Relatividad y cuántica 2.5. Interacciones débil y fuerte 2.6. Soluciones de tipo «infinito» 3. Termodinámica y asimetría temporal 3.1. Entropía en general 3.2. ... y en particular 3.3. El modelo estándar de cosmología Capítulo IV.—El origen del problema 1. El estatuto de las matemáticas 1.1. Tipos de realismo matemático 1.2. Una alternativa al realismo de Penrose 2. Computación y consciencia 2.1. Cuatro perspectivas y tres argumentos 2.2. ¿Qué es y qué no es computación? 3. No-computabilidad en el pensamiento matemático 3.1. Gödel, Hilbert y Turing
6
3.2. El nuevo argumento de Penrose 3.3. Alcance del argumento 3.4. Conclusiones 3.5. Necesidad de un elemento no-algorítmico Capítulo V.—Un intento de respuesta 1. Hacia la gravitación cuántica 1.1. Condiciones de contorno 1.2. Determinismo y probabilismo 1.3. Gravedad, cuántica y asimetría temporal 1.4. Elementos no algorítmicos 2. El fenómeno de la consciencia 3. Hacia la base física de la consciencia 4. Dificultades de la propuesta Conclusiones Bibliografía 1. Principal 2. Secundaria
7
Presentación En el presente libro he querido realizar una síntesis y un análisis crítico del pensamiento de Roger Penrose. Con este objetivo me he centrado en los ensayos de reflexión epistemológica y ontológica que ha publicado en los últimos años. En ellos se recogen argumentos y puntos de vista matemáticos y físicos, en los que no falta una visión filosófica de la realidad. Además, su reflexión se ha sintetizado en una nueva propuesta heurística para la comprensión de la realidad física e incluso de la consciencia. A lo largo de los distintos capítulos se irán mostrando algunas de sus sugerencias, así como su visión de la relación entre las matemáticas y la física, o de estas con la consciencia y la libertad. Cada uno de estos puntos requeriría un trabajo a se, pero he preferido no atomizar el pensamiento del autor, sino analizarlo en su conjunto. Este enfoque podría tener un punto débil si se busca un análisis exhaustivo; sin embargo, al tratarse del estudio de una propuesta heurística alternativa al paradigma vigente, he visto necesario acercarme a la obra ensayística de Roger Penrose en su totalidad. Quizá ese enfoque abierto haya propiciado que la pregunta más difícil, y a la que no he terminado de responder, sea a quién se dirige este libro. He de reconocer que en mi cabeza nunca ha tenido un público específico. No va dirigido a físicos, matemáticos o filósofos en exclusiva; en todo caso, quizá a todos ellos y, en general, a quien se interesa tanto por la filosofía de la naturaleza como por las interpretaciones científicas. Se dirige a quienes, con alma interdisciplinar, se abren magnánimamente a la búsqueda de la verdad, venga de donde venga. Con este pequeño libro pretendo contribuir a un diálogo iniciado y alimentado por corazones inquietos de verdad e inteligencias ávidas de saber. Desearía, por último, agradecer al profesor Juan Arana, catedrático de Filosofía de la Universidad de Sevilla, su constante estímulo y sus acertadas orientaciones; a los profesores Enrique Moros, Pablo Cobreros, Luis Joaquín Boya, Alfredo Marcos, José Ignacio Murillo y Javier Sánchez-Cañizares por sus agudas y bienvenidas sugerencias; y al Grupo de Investigación Ciencia, Razón y Fe (CRYF) de la Universidad de Navarra, cuyos seminarios tanto han contribuido a mi formación personal. Finalmente no podría dejar de dar las gracias a Dios y a todos los que de algún modo, empezando por mis padres, han contribuido en la consecución de este libro.
8
Introducción Cuando se abre un nuevo camino de investigación científica, y el recorrido empieza a ser practicable, casi todos los esfuerzos se vuelcan en sacar el máximo rendimiento a esa nueva vía de investigación. Sin embargo, conforme pasa el tiempo y el trabajo se hace más arduo, las dificultades para obtener resultados aumentan. Solo los más perspicaces atisban la necesidad de un cambio y solo los más audaces son capaces de abandonar el camino pisado para aventurarse por nuevas rutas. A finales del siglo XIX la búsqueda de las leyes básicas de la naturaleza parecía casi finalizada. Los físicos presentaban un escenario ordenado y claro donde ensamblaban bien todos los elementos de la física conocida. Solo un par de oscuras nubes en el horizonte, como las llamó Lord Kelvin, hacían presagiar la tormenta que se avecinaba. Con el transcurrir del tiempo dichas nubes dieron lugar a las teorías de la relatividad y a la mecánica cuántica, modificando el concepto de universo que manejaban los físicos y presentando una «nueva física» comandada por esas dos grandes teorías. La física clásica se seguiría empleando como una adecuada aproximación a los objetos físicos cotidianos pero, a partir de ese momento, se abrirían nuevas líneas de investigación para explorar de nuevo el universo. Durante las siguientes décadas se confirmó la asombrosa precisión de esas teorías y, con los conocimientos adquiridos, se desarrollaron infinidad de nuevos objetos de uso cotidiano. Sin embargo, ambas teorías todavía se resisten a ser comprendidas en su sentido último. De nuevo ante una física sólidamente afianzada aparecen algunas nubes en el horizonte que estimulan a buscar no solo nuevas teorías que funcionen sino una visión más profunda de la realidad. Se trata de anomalías que, por su relación con la comprensión global de la realidad, encuentran un reflejo en el ámbito filosófico, aunque en sentido estricto pertenezcan al ámbito científico. Así por ejemplo, en la física clásica existían anomalías científicas en dos pequeñas nubes: el resultado negativo de la experiencia de Michelson-Morley y la catástrofe del ultravioleta de Rayleigh Jeans. Pero, a la vez, el mismo concepto de universo, como una Gran Máquina determinista, no engranaba bien con algunos de los argumentos filosóficos mejor trabados y con algunas de las experiencias más comunes, como el libre albedrío. De modo análogo, algunas anomalías de las teorías físicas actuales tienen un reflejo en la comprensión filosófica de la realidad, como puede ser en el indeterminismo, en el platonismo o en la existencia de la libertad. La íntima conexión entre ciencia y filosofía también se aprecia en los científicos que no se conforman con profundizar en el dominio técnico de la naturaleza, sino que se aventuran más allá de los esquemas científicos ortodoxos para explorar nuevos caminos en la búsqueda de la verdad última. Responden así al anhelo humano de conocer cómo son las cosas y no solo cómo funcionan. En este contexto filosófico de comprensiones globales es donde se sitúan tanto el presente trabajo como parte de la obra del físico-matemático inglés Roger Penrose. La principal contribución científica de Penrose se sitúa en las nuevas perspectivas y 9
técnicas geométricas que en los años 60 impulsaron la investigación sobre la teoría de la relatividad. Aun así, su aportación no se reduce solo a esa célebre dimensión de su faceta profesional, sino que se le puede considerar un filósofo natural, en el sentido más clásico de la expresión. Penrose ha sabido relacionarse con una amplia variedad de temas físicos, matemáticos y filosóficos, desde la mecánica cuántica hasta la libertad. No obstante, algunas de sus contribuciones más estimulantes y originales son controvertidas y, en ocasiones, están fuera de la corriente principal de pensamiento (Valentini, 2002: 131). Por eso, no compartiré algunas posturas de Penrose, ni pretenderé recoger todas las críticas que se le hacen. Me centraré en la búsqueda de los elementos más nucleares de la filosofía que subyace en sus planteamientos. Personalmente, como ingeniero y filósofo, siempre me ha atraído el conocimiento práctico de las cosas y he procurado desarrollar un interés por conocer la verdad. Sin embargo, no puedo separar en mí ambos aspectos y, aunque unos sean más científicos y otros más vitales, todos están unidos en un conocimiento racional que libremente se confronta con la realidad para contrastarse. Me parece que este dinamismo de la razón se da tanto en la ciencia como en la filosofía o en la fe: todas estas dimensiones personales encuentran un punto de unión en su racionalidad. Es la persona humana con su racionalidad libre (científica y moral, teórica y práctica) la que busca la verdad objetiva y subjetiva. Desde mi punto de vista cada uno de estos binomios se relaciona inclusivamente con los otros dos, de tal modo que, por ejemplo, se puede hablar de una ciencia práctica subjetiva, de una moral teórica subjetiva o de una ciencia teórica objetiva. No pretendo ahora argumentar el porqué, pero me parece relevante señalar la importancia clave de esta racionalidad libre, unitaria y polifacética, porque sin ella resultaría difícil entender el presente trabajo. Por otro lado, mi interés por las relaciones entre ciencia y fe, cultura y filosofía, me ha llevado a leer obras de Juan Arana, Mariano Artigas, John Polkinghorne, Paul Davies, Michael Heller, Douglas Hofstadter o Michael Ruse, entre otros. Durante estas lecturas y a través de algunas conversaciones con físicos y filósofos tropecé con la obra de Roger Penrose. Desde el primer instante me atrajo el estilo de sus libros, donde las motivaciones y los argumentos partían de la ciencia y se desarrollaban con interés por conocer la verdad. Además, la obra de Penrose era la más físico-matemática de todas las que había leído y ese ir a las raíces sin dejar de lado la visión de conjunto me atrajo especialmente. Por último, y a pesar de su reconocido fisicismo, observaba en sus obras una apertura ante la filosofía, el sentido común y la libertad humana. Por lo tanto, se puede decir que fueron la actitud y el enfoque de los ensayos científicos de Roger Penrose los que me movieron a profundizar en su obra. Esta motivación suponía también que no me podía centrar solo en un aspecto, sino que tenía que buscar la visión de conjunto. Sería necesario dejar de lado la valoración concreta de muchas de sus tesis para llegar a lo más nuclear. Ahí es donde comprendí la motivación heurística de toda su obra ensayística. Penrose pretendía sugerir, desde su punto de vista y con su experiencia científica, cuáles podían ser los caminos más viables hacia una nueva física que permitiese una comprensión más completa de la realidad, en 10
la que cupiesen aspectos comunes de experiencia humana como la libertad. Mi tarea, por tanto, sería analizar su enfoque no tanto en sus razonamientos físico-matemáticos, cuya crítica queda en manos de los físicos y matemáticos, como en su comprensión de totalidad. Detrás de la obra de Penrose, había una comprensión filosófica de la realidad que sería el objeto de mi estudio. Este enfoque requeriría una presentación del personaje y sus motivaciones, así como de los temas físicos y matemáticos. Por tanto, debía describir las tesis del autor sin un excesivo y constante aparato crítico, para centrarme en el estudio del entrelazamiento de sus tesis —en Penrose todo conecta con todo— hasta alcanzar una comprensión global de su pensamiento. Se trataba de describir suficientemente bien la amplia base de la pirámide para llegar a la cúspide. Lejos de pretender que cada capítulo se pudiese leer como un artículo autónomo, separable del resto del libro, no sería hasta los últimos capítulos y las conclusiones donde el lector encontraría las valoraciones más jugosas y las críticas más sustanciales. Con el presente trabajo no pretendo resolver problemas filosóficos de gran calado, como pueda ser el platonismo matemático o el indeterminismo cuántico, sino sacar a la luz los pros y los contras, las virtudes y los defectos, de la aproximación de Penrose a algunos de esos problemas. Con este objetivo he intentado hacer sus razonamientos teóricos más accesibles al pensamiento filosófico a la vez que he valorado la profundidad e implicaciones de sus propuestas y he sugerido cambios de perspectiva donde sus fundamentos filosóficos me parecían más débiles. Al afrontar temas que se mueven entre la física, las matemáticas y la filosofía, con frecuencia resultará que el lector más familiarizado con alguna de estas áreas encuentre facilidad de lectura o incluso una excesiva simplicidad en las afirmaciones sostenidas. Por otro lado y a la vez, es probable que le resulten arduos o carentes de suficiente explicación aquellos temas con los que se encuentre menos familiarizado. Soy consciente de estas posibles críticas, que asumo con gusto, ya que mi esfuerzo ha consistido más en una integración sistemática que en un análisis exhaustivo de cada tema. En esta línea he de agradecer las sugerencias que he recibido de filósofos, físicos o lógico-matemáticos para precisar el contenido de mis afirmaciones. A la vez, deseo recalcar que la zona intermedia donde se mueve este trabajo es de especial dificultad, así como de esencial utilidad para abrir horizontes de comprensión y para establecer puentes de comunicación. Siendo consciente tanto del encuadre como de la ambición del presente trabajo, procedo a desglosar el contenido de cada uno de sus capítulos. En el primer capítulo se presenta sucintamente al autor en su contexto personal y profesional. Ya desde sus primeros años destaca su interés por la visión de conjunto en los temas relacionados con la física, las matemáticas y la consciencia. El descubrimiento del determinismo no local en su estudio de los objetos imposibles, durante esta primera etapa, jugará un papel tan fundamental que influirá incluso en su modo de entender la libertad. Su determinismo se diferenciará del determinismo local de Einstein y se opondrá a una lectura filosófica del indeterminismo cuántico. Es significativa la claridad con que Penrose explicará que el principio de indeterminación de Heisenberg determina 11
con unas probabilidades precisas dónde se puede encontrar una partícula. En el segundo capítulo se mostrarán algunos presupuestos fundamentales de su esquema de pensamiento como son: su enfoque científico abierto a la filosofía y al sentido común, su platonismo matemático o su visión de la realidad como tres mundos entrelazados. En este primer momento, he preferido no criticar con excesivo detenimiento las carencias filosóficas de su esquema para evitar una prevención en contra de lo que se diga después. A mi parecer, una vez estudiados cada uno de esos mundos (físico, matemático y mental) en los sucesivos capítulos, se podrá hacer una crítica desde dentro del sistema sin incidir demasiado en que los esquemas sostenidos por Penrose carecen de una justificación filosófica sólida. Una vez realizada esta presentación del autor y de algunas claves de su pensamiento, expondré en el tercer capítulo, de modo sintético y a grandes rasgos, la visión del universo que se tiene en el paradigma físico actual. Pretendo de este modo señalar las principales contribuciones de la física tanto en sus principales teorías vigentes como en algunas de las anomalías más significativas que se han detectado. Entre estas, tendrá un peso especial la paradoja de la medida, en torno a la cual se agrupan muchas de las tesis de Penrose. Para exponer el paradigma físico actual me apoyaré tanto en los escritos del autor estudiado como en los de otros ensayistas científicos, sin decantarme necesariamente por una postura, ya que es tarea de la ciencia aclarar la viabilidad de cada una de ellas. Por otro lado, resaltaré las interpretaciones más significativas que Penrose hace de estas teorías, como la prioridad de la acción gravitatoria sobre la mecánica cuántica o la importancia de la irreversibilidad de los procesos termodinámicos globales. Tras esta aproximación a la física, en el cuarto capítulo se mostrará el acercamiento matemático de Penrose a las cuestiones sobre la consciencia. Se verá cómo, apoyándose en los teoremas de incompletitud de Gödel, Penrose critica a quienes piensan que los ordenadores pueden llegar a ser conscientes de un modo esencialmente similar a como lo son los hombres. El elemento central de su crítica consiste en la afirmación de que en la consciencia humana se tiene que dar algún proceso no-algorítmico con su consiguiente substrato físico. Esta crítica realizada desde las matemáticas vendrá a engrosar las que se pueden hacer desde la filosofía o desde otros niveles de conocimiento ya que, a mi parecer, no tiene el calado que pretende justificar Penrose. Para comprender su justo alcance será necesario aclarar dos puntos que se refieren a las asunciones matemáticas que hace nuestro autor. Con este objetivo, me detendré en considerar si es necesario asumir el platonismo matemático como la única postura filosófica válida y si los presupuestos de su crítica tienen una fundamentación adecuada. Uno de los aspectos más complicados de este apartado ha sido discernir el alcance de las críticas hechas a Penrose, ya que el mismo autor se defiende de ellas en su libro Shadows of the mind. Por último, en el quinto capítulo, recogeré los elementos centrales expuestos en los capítulos anteriores (determinismo no local, esquema de los tres mundos, paradoja de la medida, prioridad de la gravedad, irreversibilidad termodinámica y elementos noalgorítmicos) para aproximarme a las sugerencias que hace Penrose en la búsqueda de un 12
nuevo paradigma físico. En este caso explicaré cómo la necesidad de un elemento noalgorítmico, detectada por Penrose, podría estar en la base de algunos enigmas físicos como la paradoja de la medida. Llegados a este punto, expondré la teoría —sostenida por Penrose y, en su realización concreta, compartida por pocos— según la cual nuestra consciencia puede tener un reflejo en la mecánica cuántica. En este punto me abstendré de criticar una postura que me parece excesivamente simplificadora para dejar que la ciencia siga aportando los datos que ayuden a comprender mejor lo que puede estar sucediendo. Por último, mostraré la virtualidad de un esquema determinista en el que nuestro autor quiere dar cabida también a la libertad. A lo largo del presente trabajo he intentado ceñirme al planteamiento de Penrose. Pero también, para alcanzar una comprensión más adecuada de lo que este autor expresa de distintos modos y en diversos lugares, he visto necesario confrontarlo con otras teorías físicas o encuadrarlo en algunos marcos filosóficos. Así ha sucedido, por ejemplo, al explicar en el segundo capítulo su método científico. Se trata de un método que en muchas de sus facetas no está explicitado y, sin embargo, asume presupuestos o modos de razonar no suficientemente justificados que son relevantes para matizar el alcance de sus conclusiones. Aun así, he intentado hacer estas aclaraciones con respeto, sin forzar las afirmaciones más allá de lo que pueden decir y sin intentar situarlas en la teoría de ningún autor concreto. Espero que el presente trabajo contribuya a suscitar nuevas perspectivas y nuevos intereses sobre las relaciones entre ciencia y filosofía, física y libertad, matemáticas y consciencia, etc., al igual que la obra de Penrose los ha suscitado en mi persona.
13
Capítulo I ¿Quién es Roger Penrose? Roger Penrose pertenece a una familia de científicos y artistas de reconocido prestigio, enraizados en la vanguardia cultural de su país. Las ricas trayectorias profesionales de sus hermanos, padres y abuelos ayudan a conocer el contexto familiar en el que se forjó su personalidad. Por eso, merece la pena comenzar por acercarse a dicho contexto antes de abordar sus propios intereses y logros académicos. Comenzaré por el 17 de octubre de 1928. Ese día Lionel Sharples Penrose y Margaret Leathes contraían matrimonio. 1. Retrato de familia Lionel Sharples Penrose era el segundo hijo de una familia de cuatro hermanos. Sus padres eran el retratista irlandés James Doyle Penrose y la honorable Elizabeth Josephine Peckover, hija del Barón Peckover, banquero y filántropo. En su familia se respiraba un neto clima artístico, aunque Lionel prefirió orientar su vocación profesional al estudio de la psicología y de la medicina genética. Nacido el 11 de junio de 1898 en Londres, en el número 44 de Finchley Road, moriría en esa misma ciudad el 12 de mayo de 1972 a los 73 años de edad. Margaret Leathes, por su parte, había crecido en un ambiente ligado a la medicina y al arte. Sus padres eran Sara Mara Natanson, una pianista letona de origen judío, y John Beresford Leathes, un médico de reconocido prestigio, autor de varias publicaciones sobre fisiología animal y humana. La orientación profesional de su padre influiría en la decisión de Margaret de estudiar medicina, algo poco frecuente entre las mujeres de su época. En esa facultad coincidió con su futuro marido, Lionel, con el que formaría una familia de la que nacieron cuatro hijos. En 1973, tras la muerte de Lionel, Margaret contraería nuevas nupcias con Maxwell Herman Alexander Newman, un matemático viudo especializado en geometría topológica. La madre de los Penrose moriría en 1989, después de enviudar por segunda vez. Entre los familiares de segundo grado de Roger Penrose, el más famoso es su tío Sir Roland Algernon Penrose. Roland era un artista que trabajó como poeta, escritor y organizador de exposiciones, así como pintor y crítico del surrealismo. Es conocido por haber introducido a Picasso en el ámbito cultural anglosajón y por haber escrito un renombrado tratado en dos volúmenes sobre las obras del pintor español. Su obra y los méritos acumulados durante años le llevarían a ser nombrado caballero del reino (Miller, 2001). Roland constituye el elemento más sobresaliente del contexto artístico en el que creció Roger Penrose, pero en los círculos más cercanos de nuestro autor predominó siempre el influjo de la medicina. Entre las muchas cosas compartidas por Lionel y Margaret se encontraba la ilusión de que al menos uno de sus cuatro hijos se dedicase a la medicina. Desde el principio 14
tuvieron claro que no sería el caso de su primogénito, Oliver, quien desde temprana edad se decantó por el estudio de la física y de las matemáticas (Thorne, 1995: 425). Oliver nació en Londres el 6 de junio de 1929 y a los 23 años se casó con Joan Lomas Dilley. De ese matrimonio vinieron al mundo tres hijos y una hija. En su vida profesional trabajó durante muchos años como catedrático de universidad e investigador matemático. Siendo dos años mayor que Roger Penrose, constituyó para él un constante punto de referencia, hasta tal punto que esa estrecha relación fraterna también se plasmó, siendo ya adultos, en la publicación conjunta de algunos artículos1. Jonathan, el tercero de los hermanos Penrose, nacería el 7 de octubre de 1933 en Colchester, condado de Essex, donde su padre estaba investigando sobre el retraso mental hereditario y sobre algunas enfermedades psicológicas (Laxova, 1998: 1334). Jonathan se casó con Margaret Wood y tuvo dos hijas. En su vida profesional se orientó hacia la psicología llegando a ser catedrático de esta materia. Esta dedicación la compartió con el ajedrez y aunque nunca llegó a ser Gran Maestro Internacional sí cosechó sonoros éxitos. Durante diez años fue campeón británico de ajedrez y en 1960 batió al campeón del mundo, Mikhail Tal, durante la olimpiada de ajedrez celebrada en Leipzig. Hoy en día es reconocido como uno de los más grandes ajedrecistas ingleses de todos los tiempos. Por último, la única hermana de Roger, que nació después de que terminara la segunda Guerra Mundial, acabó complaciendo los deseos de sus padres y estudió medicina. Shirley se dedicó a la pediatría y a la genética clínica. Tras su matrimonio tomó el apellido de su marido y ahora es la prestigiosa genetista Shirley Victoria Hodgson, catedrática de Cancer Genetics en la St. George’s University de Londres. En 2007 acababa de publicar la tercera edición, actualizada y ampliada, de su obra más conocida: A practical guide to human cancer genetics. Con estas breves pinceladas, se han incoado el ambiente y algunos de los intereses que nuestro autor comparte con sus familiares más cercanos. Estos intereses van desde las matemáticas a la psicología, pasando por la genética, la física o el arte. Se trata de influencias que, sin ser determinantes, manifiestan un sustrato familiar donde el saber científico constituye un tema recurrente. «Esta atmósfera de ciencia, matemáticas, arte y música, y rompecabezas y juegos, ha sido una parte importante de mi educación» (Penrose, 2010b: vol. 1, pág. xii). Sin embargo, lo más relevante de un ambiente educativo son las personas que lo crean. Y en este contexto familiar quizá la figura más influyente sea la de su padre, tanto respecto a los rompecabezas y juegos como al conjunto de la orientación científica de Roger Penrose (1998b: 4). Por eso, me detendré a considerar algunos datos más de la biografía de Lionel, antes de adentrarme en la de nuestro autor. 2. La herencia de un padre En Junio de 1968, el professor Lionel y la doctora Margaret disfrutaban de un fin de semana de trabajo en Brno (actual República Checa). Allí, en la ciudad donde Mendel 15
había hecho sus descubrimientos en genética, pudieron conocer de primera mano el monasterio donde vivió y acceder a sus documentos. Renata Laxova y su familia hicieron de cicerones. Un par de meses después, ya de vuelta de su viaje, los Penrose se alojaban en su casa de Golders Green, al noroeste de la City londinense. Allí, ataviados con abrigos debido a la amplitud de la casa familiar y a la falta de calefacción centralizada, recibieron la sorprendente visita de la familia Lax. Los Lax huían de su país y llamaban a la puerta de los Penrose en busca de refugio. En estas circunstancias, ni la intempestiva visita, ni el hecho de que apenas se conociesen, fue un impedimento para que recibieran una inmediata y calurosa acogida en la amplia mansión de Golders Green2. De hecho, la joven familia de refugiados no tendría inconveniente en alargar su estancia durante tres meses hasta que pudieron instalarse en su nueva residencia. Sin embargo, antes de que Renata Laxova terminara su estancia en Golders Green, Lionel le tenía preparada una sorpresa. Una tarde de otoño le presentó a unos viejos amigos. Se trataba de dos hombres y una mujer, cuáqueros como Lionel y su familia3, que en 1939 habían creado una asociación de acogida para niños de los países ocupados por Hitler. Lionel había reconocido en Renata a la niña de siete años que durante la Segunda Guerra Mundial había sido salvada por esa asociación junto a otros centenares de niños. Años después, la propia Renata escribiría una memoria personal en la celebración del centenario del nacimiento de Lionel Penrose, gracias a la cual podemos conocer algunos datos de su vida (Laxova, 1998)4. Lionel era la mente más universitaria de entre todos sus hermanos. Realizó sus estudios de Moral Science Tripos (matemáticas, física y psicología) en Cambridge, para después cursar un año de estudios en Viena donde conoció y profundizó en las obras de Freud y Wagner-Jauregg. Su interés por la psicología de las enfermedades y deficiencias mentales, así como su deseo de profundizar en la psicología del cerebro, le llevaron a graduarse en medicina. Tras un período de estudio en Cambridge, en el que terminó su tesis, en 1930 obtuvo el puesto de Research Medical Officer en la Royal Eastern Counties Institution. Gracias a ese puesto disfrutó de una subvención para estudiar las causas del retraso mental (Berg, 1998: 105; Laxova, 1998: 1334). Durante los siete años que duró esa investigación, Lionel y su familia vivieron en Colchester, junto a la sede de la institución. Esos años culminaron profesionalmente con la publicación en 1938 de The Colchester Survey: An Etiological Study of 1280 Cases of Mental Defect. Para este estudio, Lionel hizo un amplio y sistemático muestreo de campo tanto de enfermos como de familiares y llegó a la conclusión de que el retraso y la enfermedad mental estaban determinados sobre todo por la biología y no tanto por la sociedad. Además, obtuvo una amplia variedad de conclusiones estadísticas que alcanzarían un gran reconocimiento científico al ser confirmadas en investigaciones sucesivas (Hartvig y Kjelsberg, 2009; Lindner, 2008). Sin embargo, para el presente trabajo bastará con resaltar que Lionel encontró en un nivel inferior e interno (el biológico-genético) las causas de un problema que se pensaba que pertenecía a un nivel superior y externo (el sociológico). 16
Al año siguiente, en 1939, los Penrose con sus tres hijos emigraron a London, Ontario, Canadá y allí vivieron durante seis años hasta que terminó la Segunda Guerra Mundial. Una vez acabada, volvieron a Londres y Lionel continuó el desarrollo de su carrera profesional como muestra su bibliografía (Harris, 1974: 20 y sigs.). Sin embargo, los intereses de Lionel nunca se limitaron al campo profesional, sino que cubrieron amplios espectros del saber, desde el estudio del comportamiento de masas y los modos de prevenir guerras, hasta la investigación científica de diversos aspectos de las obras de Shakespeare (como por ejemplo su autoría), pasando por una gran afición a los juegos de ajedrez. Además, le apasionaba la música clásica —en especial Mozart y Bach, que era el favorito de su mujer—, las matemáticas, el arte en general y la artesanía de la madera en particular. Le encantaban los niños y disfrutaba construyendo mecanismos y rompecabezas artesanales para ellos (Berg, 1998: 104-105). Él y su mujer eran extremadamente hospitalarios y acogían en su propia casa a muchos estudiantes y profesionales necesitados de un techo, como sucedió con la familia Lax. Lionel compartía muchos de estos intereses con sus hijos y una muestra de ello es la dedicación de Jonathan al ajedrez, la de Shirley a la genética o algunos de los artículos publicados junto a Roger, en los que se muestran geometrías imposibles o acertijos para niños (Penrose y Penrose, 1957; 1958a; 1958b). Aun así, lo que más cautivó a Roger Penrose de su padre fue la continuidad que había entre lo que hacía por trabajo y lo que hacía por diversión: Lo importante de mi padre es que no había fronteras entre el trabajo y lo que hacía por diversión. Eso me lo contagió. Él hacía rompecabezas y juguetes para sus hijos y nietos. Tenía una leñera en la parte trasera de la casa donde cortaba piezas de madera con su pequeña sierra de pedal. Recuerdo que una vez hizo una regla de cálculo con unas 12 piezas diferentes, de distintos formatos, que podíamos combinar en formas complicadas. Más adelante, pasaría mucho tiempo de su vida haciendo modelos de madera que se reproducían a sí mismos —lo que hoy denominamos vida artificial. Eran mecanismos simples que, si se juntaban, provocaban que otros trocitos se uniesen del mismo modo por sí solos. Sentado en su leñera, cortaba estos elementos de madera en grandes cantidades (Kruglinski, 2009: 55).
Sin duda, todos estos recuerdos paternos, fuertemente grabados en la memoria de Roger Penrose, constituyen una parte importante del bagaje de actitudes y aptitudes que le acompañarán e influirán en su vida. Me detendré ahora en una breve descripción biográfica y bibliográfica del físico-matemático inglés, dejando para el siguiente capítulo el estudio de las líneas fuertes de su pensamiento. 3. Pasión por las matemáticas El primer año de la familia Penrose en el condado de Essex fue recibido con el nacimiento de Roger, el 8 de agosto de 1931. Fueron tiempos de serena normalidad, de alegre vida familiar y, en el caso de Lionel, de intensa dedicación profesional. Sin embargo, su investigación tenía fecha de caducidad y sus progresos científicos le acabarían llevando, junto a su familia, primero a los Estados Unidos y después a London, Ontario, Canadá. Este último traslado se debió solo en parte a una nueva oferta de trabajo, ya que la perspectiva del inicio de la Segunda Guerra Mundial en el viejo 17
continente desempeño un papel crucial en la decisión. En London, Roger empezó a ir a la escuela, aunque sin mucho éxito y con especiales dificultades para las matemáticas. De hecho, su interés por las matemáticas se despertará en el ámbito familiar, no en el escolar. A su padre y a su madre les apasionaba la geometría5 y de algún modo se la contagiaron también a su hijo6, pero el responsable más directo del interés de Roger por las matemáticas y la física sería su hermano Oliver7. Me atrevería a sugerir, incluso, que el período canadiense supuso para Roger Penrose no solo el despertar de su pasión por los números sino también un modo de ver las matemáticas donde hay mucho espacio para la intuición. Conviene recordar que, durante meses y siendo muy joven, tuvo que esforzarse mucho en comprender las matemáticas hasta que de repente empezó a verlas y pasó de ser el más lento de la clase a ser el alumno aventajado8. Tras el final de la Segunda Guerra Mundial, la familia Penrose volvió a Londres y Lionel encontró trabajo como catedrático (Galton Professor) de Human Genetics en el University College London hasta su jubilación. Allí es donde Roger continuó sus estudios, primero en la escuela y después en el College; en parte, porque los hijos de los profesores estaban exentos de pagar la matrícula. Al terminar el College, Roger obtuvo el grado de bachiller en ciencias matemáticas con la más alta calificación (First Class Honours). Sin embargo, no le había resultado fácil recorrer ese camino. Entre medias tuvo que abandonar el estudio de la biología, asignatura que le gustaba pero no podía cursar junto con las matemáticas, y sobreponerse a cierta resistencia familiar que deseaba que estudiase medicina9. Antes de ingresar en el College y ante la insistencia de Roger por cursar matemáticas, su padre, Lionel, dispuso que uno de sus colegas le hiciese un examen especial. El examen consistió en doce preguntas a las que Roger Penrose podía responder a lo largo de todo un día. Lo normal es que hubiese respondido bien a una o dos preguntas pero, cuando resolvió los doce problemas correctamente en unas horas, Lionel aceptó que su hijo estudiase matemáticas (Thorne, 1995: 425). Estas pequeñas dificultades que se interpusieron en el camino de Roger Penrose no son sino una manifestación más de su pasión por las matemáticas y de su tenacidad para perseguir aquello que despertaba su interés intelectual. 4. Unos años intensos En 1952 Roger ingresó en la Universidad de Cambridge, la misma en que su padre cursó medicina y su hermano Oliver física. Allí se matriculó como estudiante de grado en matemáticas puras y siguió interesándose por otras áreas del saber propias del ámbito familiar. Siempre conservó un interés por la medicina y la psicología, heredado de su padre, así como una profunda inclinación hacia la física y la cosmología, compartida con su hermano y acrecentada tras escuchar unas charlas radiofónicas a cargo de Fred Hoyle (Penrose, 2010a: 66). Sus primeras publicaciones sobre matemáticas no tardaron en llegar. En 1953 escribió su primer artículo y solo dos años después, siendo todavía estudiante, realizó su 18
contribución más significativa de esta época: demostró cómo calcular una matriz inversa con un sencillo procedimiento. Dicho método, conocido como la matriz inversa de Moore-Penrose, se sigue usando en la actualidad como un práctico instrumento matemático del álgebra matricial (Penrose, 1955). Durante el curso siguiente y sin dejar de lado la publicación de artículos, Roger trabajó como profesor adjunto de matemáticas puras en Bedford College (Londres)10. Al terminar ese curso, recibió una beca de tres años como investigador en el St. John’s College de Cambridge. Con su regreso a Cambridge se produjo también una reorientación investigadora hacia el álgebra geométrica: nuestro autor trabajó inicialmente bajo la supervisión de William Hodge y, a partir de 1958, bajo la de John Arthur Todd. Durante esos intensos años, entre 1957 y 1959, Penrose obtuvo el doctorado en matemáticas por su trabajo en algebra geométrica (Penrose, 1957), comenzó a profundizar en física cosmológica, gracias a tres asignaturas que curso en Cambridge y a la influencia de Dennis Sciama11, y se casó con Joan Isabel Wedge, con quien tuvo tres hijos. Veamos estas facetas de su vida. En primer lugar, en el campo del álgebra geométrica y a modo de entretenimiento, Roger abordó el problema del teselado (tiling problem). Buscó un conjunto de formas que cubrieran una superficie sin generar ningún patrón repetitivo12. Es lo que se conoce como cuasi-simetría. En la cuasi-simetría, mediante un conjunto finito de teselas se cubre completamente un área sin repetir un orden. Algo similar a un puzle en el que a primera vista parece haber un orden regular y, sin embargo, cuando se observa detenidamente, se aprecia que no lo hay. En su búsqueda de patrones cuasi-periódicos, Penrose encontró una primera solución al problema del teselado que requería miles de formas diferentes. Tras años de estudio consiguió reducir el número a seis y finalmente a dos, como se observa en la figura.
19
Además, como colofón de su esfuerzo descubrió que el problema del teselado era computacionalmente irresoluble: no existía ningún método informático, por muy sofisticado que fuese, capaz de encontrar la solución. Por tanto, el método personal que Penrose había seguido para alcanzar ese descubrimiento tampoco podía ser computacional13. Según nuestro autor, para resolver el problema, le debieron influir algunas ideas matemáticas de Kepler, mediante alguna intuición heurística no explícita (García Prada, 2001: 12). De modo análogo, Penrose también sugiere que sus resultados pudieron influir en el descubrimiento físico que Shechtman hizo de cuasi-cristales formados por teselados aperiódicos (Steinhardt, 1996)14. El descubrimiento contra pronóstico de este tipo de cristales en la naturaleza constató, una vez más, la estrecha relación entre matemáticas y física. Supuso que en la naturaleza se observaba un comportamiento ordenado, con una base matemática sencilla, descubierto mediante cierta intuición fundamentalmente inaccesible al tratamiento computacional. Para Roger este descubrimiento fue un motivo de satisfacción y, a la vez, supuso una reafirmación personal en el curioso paralelismo matemático que subyace en el mundo físico. En línea con la resolución por entretenimiento de problemas geométricos se encuentran las publicaciones que Roger Penrose realizó junto a su padre entre 1957 y 1958. De estos artículos, a medio camino entre creación geométrica y problemas de recursividad, el más conocido es el relacionado con los objetos imposibles, donde por primera vez aparecen el triángulo y la escalera de Penrose. Para la creación de estos objetos, también conocidos como el triángulo imposible y la escalera sin fin, Roger reconoce una influencia recíproca con el artista holandés M. C. Escher, quien desempeñó primero el papel de inspirador y después el de forjador en imágenes de esos objetos15:
20
En mi segundo año como estudiante de grado en Cambridge, asistí al Congreso Internacional de Matemáticas en Amsterdam. Allí recuerdo que uno de los profesores tenía un catálogo en cuya portada aparecía un cuadro de Escher, Día y noche, el de los pájaros que vuelan en direcciones opuestas y en un lado es de noche mientras que en el otro es de día. Recuerdo que me quedé intrigado y le pregunté de dónde lo había sacado. Me dijo, «Ah, bueno, hay una exposición de un tal Escher que te podría interesar». Así que fui y me quedé impresionado con los extraños y maravillosos grabados y litografías de la exposición. Nunca había visto nada igual. Entonces intenté dibujar algunas imágenes imposibles por mí mismo y es cuando surgió lo que denominé un tri-bar. Se trata de un triángulo que parece un objeto en tres dimensiones, pero que en realidad no puede ser tridimensional. Se lo mostré a mi padre y él realizó otros objetos y edificios imposibles. Después los publicamos en un artículo de la Revista Británica de Psicología reconociendo la aportación de Escher (...) Él utilizó dos objetos de este artículo. Uno fue el tri-bar, en su litografía Cascada, y el otro fue la escalera imposible que mi padre había diseñado. Escher la utilizó en Ascendiendo y descendiendo, con unos monjes dando vueltas y más vueltas por las escaleras. Además, en una ocasión que estuve con Escher le entregué un puzle con unas teselas que formaban un patrón repetitivo, pero solo si se conseguía que doce piezas encajasen entre sí. Él resolvió el puzle y me escribió para preguntarme cómo estaba hecho, en qué se basaba. Entonces le mostré una tesela con forma de ave que formaba ese patrón y la incorporó en la que me parece que es su última obra, Fantasmas (Kruglinski, 2009: 55).
En esta larga cita Penrose entremezcla comentarios sobre los objetos imposibles con alusiones a los teselados. Tiene su lógica ya que ambos forman parte de lo que Penrose hacía por diversión. Pero además, tanto los objetos imposibles como el teselado aperiódico, poseen otro rasgo en común que me interesa resaltar desde el principio de este libro. Ese rasgo, sobre el que se volverá más adelante, es la no-localidad. La no-localidad consiste en la existencia de cierto orden en un ámbito superior que, sin embargo, no se aprecia en una observación meramente local. Así los objetos imposibles si se miran por partes y de cerca son objetos y construcciones que podrían existir en la realidad pero, vistos en conjunto, se observa que son imposibles. A su vez, en el teselado aperiódico un estudio local no permite apreciar cuál es el patrón que siguen, aunque desde un nivel superior se sepa que existe un orden. En los capítulos cuarto y quinto de este libro se analizará qué pueden hacer los ordenadores ante este tipo de observaciones de nivel superior. El segundo aspecto que enuncié al hablar del período entre 1957 y 1959 era el despertar de la atracción de Penrose por la cosmología. El interés de nuestro autor por las cuestiones físicas ya se había visto alentado desde temprana edad por su hermano Oliver, pero en este período recibirá un significativo impulso con el auge de la teoría cosmológica del modelo estacionario de Bondi-Gold-Hoyle. Esta teoría, que le resultó atractiva por la belleza de su formulación matemática y por la solidez de sus argumentos, se le resistía cuando intentaba entenderla en sus puntos más oscuros. Con el deseo de aclarar estas dudas, Penrose acudió a Dennis Sciama, compañero de despacho de su hermano Oliver en Cambridge (Thorne, 1995: 425-426). Sciama era un físico que se dedicaba a la cosmología y que defendía fervientemente el modelo estacionario. Con él pudo profundizar en los entresijos de la teoría y de él recibió la recomendación de asistir a diversos cursos sobre cosmología y mecánica cuántica. En esos cursos Penrose pudo conocer de primera mano a algunos de los principales exponentes de estas teorías (Penrose, 2010a: 66). El interés de Penrose por la física le llevó a conseguir una beca de investigación de la 21
OTAN que cubrió sus gastos durante los cursos 1959 a 1961. En esta ocasión viajó a los Estados Unidos y allí se dedicó a investigar en las universidades de Princeton, Syracuse y Cornell e inició la publicación de sus artículos sobre cosmología. Durante los dos siguientes cursos volvió a Inglaterra y trabajo como investigador asociado en el King’s College de Londres, y durante el curso siguiente se trasladó a la Universidad de Texas, en Austin, como profesor visitante de matemáticas. Si se ponen en paralelo estos cambios de residencia con las publicaciones de Penrose, se observa que en los períodos estadounidenses tienen lugar las publicaciones sobre física y cosmología, mientras que en el período británico se mantienen las publicaciones sobre matemática pura (Penrose, Whitehead y Zeeman, 1961). Por último y en tercer lugar, también la vida familiar de Penrose experimentó cambios sustanciales al final de la década de los 50. En 1959, Penrose contrajo matrimonio con la norteamericana Joan Isabel Wedge con quien tuvo sus tres primeros hijos y de la que se divorciaría en 1980. En la actualidad y desde 1988, está civilmente casado con Vanessa Dee Thomas, que es profesora de matemáticas en Abingdon School, en el condado de Oxford. Recientemente, en 2000, Roger Penrose ha vuelto a ser padre16. 5. Maduración de una vida En 1964, tras 7 años de cambios constantes, Roger Penrose fue nombrado profesor adjunto en Birkbeck College y tres años después fue promovido a catedrático de Matemáticas Aplicadas, puesto en el que permaneció hasta 1973. Con ese nombramiento llegaría la estabilidad, tanto de residencia como de áreas de investigación. A partir de este momento, nuestro autor intensificó sus esfuerzos en aplicar sus conocimientos matemáticos y geométricos, primero a la física cosmológica y después a la mecánica cuántica. Como fruto de ese esfuerzo desarrolló algunas teorías nuevas entre las que se encuentran el primer teorema de la singularidad y la teoría de twistores. En el otoño de 1964 Roger Penrose comenzó a estudiar con profundidad el fenómeno del colapso gravitatorio. Este interés fue estimulado por las conversaciones que mantuvo junto al físico John A. Wheeler sobre un curioso objeto estelar (actualmente denominado cuásar) descubierto por Maarten Schmidt (Penrose, 2010a: 99). Su estudio le llevaría a formular al año siguiente el primer teorema de la singularidad para después completarlo junto con Stephen Hawking, hasta postular la existencia de singularidades en el interior de los agujeros negros. La aportación inicial de Roger Penrose se apoyaba en métodos topológicos para afirmar que en condiciones de existencia de una superficie atrapada —como las de una inmensa estrella que está muriendo— se tenía que acabar produciendo una singularidad por colapso gravitacional, en la que el espacio-tiempo dejase de ser continuo y la relatividad general clásica no se pudiese aplicar17. Los resultados de esta investigación supusieron un acicate para salir en busca de una teoría unificada que combinase la relatividad y la teoría cuántica. En este intento por explicar lo que sucede en las singularidades Penrose consideró que los efectos cuánticos debían desempeñar un papel 22
muy especial, porque la cuántica era la única teoría física de suficiente entidad para explicar aquello que escapaba a la relatividad. Una parte de su intento por unificar la relatividad con la teoría cuántica será la teoría de twistores, pensada en 196318, elaborada en 1967 y perfeccionada posteriormente. Esta teoría es el proyecto más ambicioso de Penrose, el que más dedicación le ha supuesto y del que se siente más orgulloso (García Prada, 2001: 15). En él, con una asombrosa e ingeniosa combinación de métodos algebraicos y geométricos, el físico-matemático inglés pretende traducir la teoría de la relatividad a términos que puedan dialogar con la mecánica cuántica. Para ello, considera que el espacio y el tiempo son estructuras secundarias que emergen a partir de un nivel de realidad más profundo, donde gobernarían leyes cuántico-gravitatorias. La teoría de twistores fue inicialmente acogida con gran entusiasmo pero, ante la aparición de las teorías de supercuerdas, se vio postergada hasta un segundo o tercer puesto en la investigación científica. Esto sucedió, en parte, porque las teorías de supercuerdas eran más prometedoras y, en parte, porque, tal y como se proponían a comienzos de este siglo, las teorías de supercuerdas no eran compatibles con la teoría de twistores19. Sin embargo, en 2003, tras una conversación con Penrose, Edward Witten ha propuesto un nuevo modo de combinar la teoría de cuerdas con la teoría de twistores que ha reactivado la investigación en esta área (Witten, 2004). Hasta aquí llega nuestra primera aproximación a las teorías físicas de Penrose. Para hacerse una idea es suficiente con lo que se ha explicado aunque, más adelante, será necesario profundizar en algunas de ellas. Por el momento, deseo terminar el presente capítulo deteniéndome brevemente en el reconocimiento académico que la carrera de Penrose ha suscitado en los últimos años y en el prestigio que ha alcanzado como ensayista científico. 6. Compartir el saber La estabilidad residencial que Roger Penrose obtuvo a partir de 1964 fue compaginada, entre 1966 y 1969, con trabajos de visitante a tiempo parcial en diversos centros universitarios estadounidenses, como Yeshiva, Princeton y Cornell. Además, desde 1983 hasta 1987, fue Lovett Professor en la Rice University de Houston y posteriormente Distinguished Professor of Physics and Mathematics en la Universidad de Syracuse, hasta que en 1993 fue nombrado Francis and Helen Pentz Distinguished Professor of Physics and Mathematics en la Universidad del Estado de Pensilvania. Entre los reconocimientos que Roger Penrose ha recibido se encuentra el de miembro de la Royal Society of London en 1972; nombramiento que comparte con su padre y su hermano Oliver. A este le sucedió un año más tarde su nombramiento como Rouse Ball Professor of Mathematics en la Universidad de Oxford, puesto en el que permaneció hasta que se jubiló y del que ahora es catedrático emérito. En 1998, el mismo año de su jubilación, fue nombrado Gresham Professor de Geometría en el Gresham College y socio extranjero de la Academia Nacional de las Ciencias de los Estados Unidos. 23
Durante sus primeros años en Oxford siguió realizando una intensa y extensa labor científica y comenzó a interesarse por las bases físicas de la consciencia. La combinación de intereses por las matemáticas, la física y la consciencia le llevarían a publicar en 1989 su best seller, The emperor’s new mind: concerning computers, minds, and the laws of physics. Con este ensayo no solo saltó a la palestra de la divulgación científica sino que, al año siguiente, recibió el Rhone-Poulenc Science Book Prize, como mejor ensayo de divulgación científica. A este primer éxito le sucedería en 1994 su segundo libro, Shadows of the mind: a search for the missing science of consciousness, que es una continuación y profundización en algunos de los argumentos desarrollados en The emperor’s new mind. Con este libro Roger Penrose no buscó una amplia divulgación sino dar una respuesta más científica a las críticas recibidas. Su objetivo fue demostrar la consistencia de su argumento contra la inteligencia artificial, afinando los trazos más gruesos y aclarando los puntos más criticados (García Prada, 2001: 13). También en ese mismo año, Roger Penrose mantuvo un interesante debate junto con Stephen Hawking sobre la naturaleza del cosmos en el Isaac Newton Institute of Mathematical Sciences de la Universidad de Cambridge. El debate fue transcrito y publicado dos años después bajo el título de The nature of space and time. De ese debate merece la pena extraer una frase en la que Penrose resume de modo acertado su posición y la de Hawking: Al comienzo de este debate Stephen dijo que se considera un positivista mientras que yo soy un platónico. Me satisface que se considere un positivista, pero pienso que el punto esencial es que yo soy un realista. Si se compara este debate con el famoso debate entre Bohr y Einstein, que tuvo lugar hace unos setenta años, pienso que Stephen desempeñaría el papel de Bohr, mientras que yo ¡el de Einstein! Einstein sostenía que debería existir algo así como un mundo real, no necesariamente representado por la función de onda, mientras que Bohr subrayaba que la función de onda no describe un micro-mundo real sino solo los conocimientos que son necesarios para hacer predicciones (Hawking y Penrose, 2010: 134-135).
En cuanto a los reconocimientos y sin salirnos de 1994, Roger fue nombrado caballero por sus servicios a la ciencia, al igual que lo había sido su tío Roland por sus servicios al arte. Posteriormente, en 2000 recibió la Orden del Mérito y en 2004 la Medalla Morgan de la Sociedad Matemática de Londres. Con motivo de esa entrega se señalaron algunas de sus contribuciones a la ciencia: Su profundo estudio de la Relatividad General ha contribuido a nuestra comprensión de los agujeros negros. Su desarrollo de la Teoría de Twistores ha originado una bella y valiosa aproximación a las ecuaciones clásicas de la física matemática. Sus teselados de superficies están en la base de los cuasicristales recién descubiertos20.
También, cuando en 2005 recibió la Medalla Copley de la Royal Society —el premio con más solera a los logros científicos— Martin Rees señalaba algunas de las contribuciones de nuestro autor que habían llevado al reconocimiento: Roger ha desarrollado originales y significativas ideas científicas durante medio siglo. Su obra manifiesta una excepcional intuición geométrica y física. Ha aplicado nuevas técnicas matemáticas a la teoría de Einstein, lo que llevó al renacimiento de la teoría de la gravitación en los 60. Sus novedosas ideas sobre el espacio y el tiempo, así como su concepto de twistores son, cada vez, más influyentes. Además,
24
también sus pasatiempos han tenido un impacto intelectual, como se ve en las figuras imposibles popularizadas por Escher o en los patrones no repetitivos del teselado de Penrose. Su influencia y estímulo se ha extendido a un amplio público mediante sus conferencias y sus célebres libros21.
Roger Penrose también ha recibido el Adams Prize de la Universidad de Cambridge; el Wolf Foundation Prize for Physics, junto con Hawking, por su contribución a la comprensión del universo; el Dannie Heinemann Prize de la American Physical Society y del American Institute of Physics; la Royal Society Royal Medal; la Dirac Medal y la Medal of the British Institute of Physics; la Eddington Medal of the Royal Astronomical Society; el Naylor Prize de la London Mathematical Society; el Albert Einstein Prize and Medal de la Albert Einstein Society... pero no voy a hacer un listado de todos, porque con los que se han señalado parece suficiente para darse cuenta de la profundidad y el alcance de su labor científica. Por último, conviene resaltar la constante preocupación pedagógica de Roger Penrose. Una muestra de ello es que el 18 de Enero de 2006 recibió el Communications Award of the t Policy Board for Mathematics (JPBM) como reconocimiento de los excepcionales logros en la comunicación de matemáticas a no matemáticos. Es la consecuencia de su preocupación por traducir a términos accesibles para el público interesado lo que hacen los físico-matemáticos. En esta línea se insertan también los dos últimos libros que ha publicado. En 2004 salió a los mercados The Road to the Reality que es un extenso repaso de la física y la matemática necesaria para el conocimiento actual del universo; y en 2010 vio la luz Cycles of Time, en el que se propone una nueva teoría sobre el origen del big bang y la posibilidad de ciclos de tiempo previos al big bang. El prestigio y las publicaciones de Roger Penrose a la vez que han adquirido un matiz divulgativo —hasta el punto de llegar a escribir una novela de ciencia ficción junto con Brian W. Aldiss (1999)— no le han alejado de la ensayística y de la publicación científica. Una buena prueba son la cantidad de artículos publicados en los últimos años, así como el hecho de que haya aparecido una colección de sus obras completas hasta octubre del año 2003 (Penrose, 2010b). Esta colección de seis volúmenes será previsiblemente ampliada con lo que Roger Penrose ha seguido publicando. Terminamos este capítulo que nos ha introducido someramente en la vida de Roger Penrose con la sensación de que queda mucho por profundizar. Así es. De todos modos dejaré ya por sentada tanto la influencia familiar en la dedicación científica de nuestro autor, en especial de su padre, como su prestigio científico. En el pensamiento de Penrose también cabe resaltar tanto la influencia directa de algunos mentores, véase Albert Einstein o Dennis Sciama, como la influencia indirecta de las ideas de otros autores, como Kepler o Escher, que sirvieron de catalizadores heurísticos. Además, en el presente capítulo se han mostrado algunos de los temas centrales en nuestro autor como son: el valor de las matemáticas y de la geometría al hacer física o su comprensión de la ciencia como búsqueda de la realidad. En cuanto a los intereses de Penrose como científico han aparecido algunos que se han explicado con heterogénea profundidad, pero quedan muchos que todavía no se han 25
tratado. A modo de enunciado se pueden señalar: el teselado aperiódico y su relación con los cuasi-cristales; la teoría de twistores y su relación con la gravedad cuántica; las redes de spin y su relación con el tratamiento continuo-discontinuo de la materia; los diagramas de Penrose para el estudio de las singularidades y su relación con las estrellas, los agujeros negros y el big bang; la reducción de estado o colapso de función de onda y su relación con la consciencia; y algunos más que poco a poco se irán afrontando. De momento terminaré esta breve aproximación biográfica y bibliográfica para comenzar un nuevo tema sobre los presupuestos metodológicos, científicos, filosóficos y epistemológicos del pensamiento de Penrose. 1 En Penrose, 1994a: 352 se explica alguno de los descubrimientos hechos entre los dos hermanos. 2 Sorprende el cercano testimonio de Lionel que hizo Anita Lax, hija de Renata Laxova, cuando tenía 15 años (Harris, 1974: 19). 3 Las dos ramas de la familia, tanto por parte de Lionel como de Margaret, eran cuáqueros desde hacía más de 200 años (Watt, 1998a: 137). 4 Desde un punto de vista más humano —y aunque trata muy someramente muchos de sus logros científicos— quizá la biografía de Lionel más completa sea Smith, 1999. 5 Como lo manifiesta, por ejemplo, el interés de Lionel por los objetos imposibles y el hecho de que Margaret se casara en segundas nupcias con un matemático de esta área. 6 «I asking him —I was around 9 years old— about whether you could fit regular hexagons together and make it round like a sphere. And he said, “No, no, you can’t do that, but you can do it with pentagons’, which was a surprise to me”. He showed me how to make polyhedra, and so I got started on that» (Kruglinski, 2009: 55). 7 «[Oliver] was two years older than I was, but four years ahead in school. He knew a lot about mathematics at a young age and took a great interest in both mathematics and physics» (García Prada, 2000: 17). 8 «I was unbelievably slow. I lived in Canada for a while, for about six years, during the war. When I was 8, sitting in class, we had to do this mental arithmetic very fast, or what seemed to me very fast. I always got lost. And the teacher, who didn’t like me very much, moved me down a class. There was one rather insightful teacher who decided, after I’d done so badly on these tests, that he would have timeless tests. You could just take as long as you’d like. We all had the same test. I was allowed to take the entire next period to continue, which was a play period. Everyone was always out and enjoying themselves, and I was struggling away to do these tests. And even then sometimes it would stretch into the period beyond that. So I was at least twice as slow as anybody else. Eventually I would do very well» (Kruglinski, 2009: 56). 9 «I an occasion when we had to decide which subjects to do in the final two years. Each of us would go up to see the heaster, one after the other, and he said “Well, what subjects do you want to do when you specialise next year”. I said “I’d like to do biology, chemistry and mathematics” and he said “No, that’s impossible — you can’t do biology and mathematics at the same time, we just don’t have that option”. Since I had no desire to lose my mathematics I said “Mathematics, physics and chemistry”. My parents were rather annoyed when I got home; my medical career had disappeared in one stroke» (García Prada, 2000: 17). 10 Esta institución fue fundada en 1849 por Elizabeth Jesser Reid como un College de educación universitaria dirigido a mujeres y es la primera de este tipo que se fundó en el Reino Unido. 11 «One was a course by Hermann Bondi on general relativity which was fascinating; Bondi had a wonderful lecturing style which made the subject come alive. Another was a course by Paul Dirac on quantum mechanics, which was beautiful in a completely different way; it was just such a perfect collection of lectures and I really found them extremely inspiring. And the third course, which later on became very influential although at the time I didn’t know it was going to, was a course on mathematical logic given by Steen. I learnt about Turing machines and about Gödel’s theorem, and I think I formulated during that time the view I still hold, that there is something in mental phenomena, something in our understanding of mathematics in particular, which you cannot encapsulate by any kind of computation. That view has stuck with me since that period. (...) [Sciama] was very influential on me. He taught me a great deal of physics, and the excitement of doing physics came through; he was that kind of person, who conveyed the excitement of what was currently going on in physics...» (García Prada, 2000: 18). 12 «Tiling problems have always been a doodling side interest of mine, just for fun; if I got bored with what I was doing I’d try and fit shapes together, for no particular scientific reason. Although I supposed that there was some connection with my interest in cosmology, in that there seem to be large structures in the universe that are very complicated on a large scale, whereas one believes that they should be governed by simple laws at root. So I
26
tried to find a model where we have simple structures that produce great complication in large areas; I had an interest in types of hierarchical design» (García Prada, 2001: 12). «My interest in the tiles has to do with the idea of a universe controlled by very simple forces, even though we see complications all over the place. The tilings follow conventional rules to make complicated patterns. It was an attempt to see how the complicated could be satisfied by very simple rules that reflect what we see in the world» (Kruglinski, 2009: 56). 13 En el presente trabajo se identifican los conceptos computacional y algorítmico, como hace Penrose, ya que un algoritmo es el procedimiento computacional que usa un ordenador para obtener la solución a un problema. Por tanto, aunque entre ambos conceptos existe una ligera diferencia semántica (el algoritmo hace más referencia al aspecto estático y la computación al aspecto dinámico), los dos se refieren al modo de resolver problemas de un ordenador. 14 Por este descubrimiento, realizado en 1984, y por sus posteriores investigaciones en cuasi-cristales, Daniel Shechtman recibió el premio Nobel de química en 2011. 15 «As a student in 1954, Penrose was attending a conference in Amsterdam when by chance he came across an exhibition of Escher’s work. Soon he was trying to conjure up impossible figures of his own and discovered the tri-bar —a triangle that looks like a real, solid three-dimensional object, but isn’t. Together with his father, a physicist and mathematician, Penrose went on to design a staircase that simultaneously loops up and down. An article followed and a copy was sent to Escher. Completing a cyclical flow of creativity, the Dutch master of geometrical illusions was inspired to produce his two masterpieces» (Kumar, 2010). 16 «In addition to all this, I have a new son (Maxwell Sebastian. Max, for short) who was born on 26 May 2000» (García Prada, 2001: 17). 17 «I proved [it] was a theorem which was published in 1965 in Physical Review Letters, where I showed that if a collapse takes place until a certain condition holds (a qualitative condition which I called the existence of a trapped surface), then you would expect some type of singularity. What it really showed is that the space-time could not be continued, it must come to an end somewhere, but it doesn’t say what the nature of that end is, it just says that the space-time cannot be continued indefinitely» (García Prada, 2000: 19). 18 «The main object of twistor theory is to find the appropriate union between general relativity and quantum mechanics. I suppose I had that view over thirty years ago (actually, 1963) before I talked about this singularity issue and the asymmetry, and so on. I’d already felt that one needs a radically different way of looking at things, and twistor theory was originally motivated by such considerations. Since we can’t just ‘quantise’, we need other guiding principles» (García Prada, 2000: 20). 19 Respecto a las posibilidad de conexiones entre estas teorías, Penrose decía en una entrevista: «I think there probably are. It’s not something that has been deeply explored, and the groups of people who work on these subjects are more-or-less dist. There have been some attempts to bring the theories together, but I think that the right vehicle for doing so hasn’t come about yet. I wouldn’t be at all surprised to find that in the future some more significant link between these two areas is found, but I don’t see it right now» (García Prada, 2000: 21). 20 http://www-history.mcs.st-and.ac.uk/Biographies/Penrose.html accedido en abril de 2013. 21 http://royalsociety.org/News.aspx?id=1202 accedido en abril de 2013.
27
Capítulo II Bases filosóficas La capacidad de iración22 y la adaptación flexible a los nuevos descubrimientos forman parte del estilo de pensar de Roger Penrose. Con honestidad cambia de opinión cuando lo considera acorde con las nuevas contribuciones de la ciencia y así lo reconoce tanto al inicio de su trayectoria como en los años sucesivos. De este modo, ite que ha cambiado tanto su visión sobre el origen del universo, desde que al principio quedase fascinado por la belleza matemática de la teoría del estado estacionario (Penrose, 2010a: 66), como su propuesta sobre una actividad cuántica en el cerebro humano, desde su primer enfoque expresado en La nueva mente del emperador23. Junto con esta capacidad de adaptación, Roger Penrose también reconoce el límite de sus ideas y frecuentemente las presenta como un acercamiento heurístico a una solución que quizá no se encuentre por esa vía. Por ejemplo, al hablar de las teorías de supercuerdas sostiene que proponer la existencia de más de cuatro dimensiones espaciotemporales es un error; y aventura que quizá la solución esté en la línea de las teorías de supercuerdas pero con cuatro dimensiones, base fundamental de su teoría de twistores24. De este modo intenta aportar ideas que guían su pensamiento a la vez que reconoce sus límites (Penrose, 1999b: 24). Estas actitudes (capacidad de iración, flexibilidad para adoptar los descubrimientos científicos y transparencia para señalar las limitaciones de las propias propuestas) son necesarias en todo buen científico y hacen que, por contraste, resalten las ideas de fondo que permanecen estables bajo un enfoque concreto. En el caso de Penrose estas ideas de fondo se refieren a planteamientos científicos pero, sobre todo, a elementos básicos de su modo de pensar y de hacer ciencia. Así, por ejemplo, defiende que la aproximación científica a la realidad genera un conocimiento verdadero cada vez más estable; o que las matemáticas están ahí; o también que la ciencia permite conocer la realidad. Se inclina así hacia posturas como las de Einstein, Schrödinger o Dirac (Penrose, 2010a: 189), mientras se aleja de las de Bohr o Hawking. Que estas ideas de fondo permanezcan más o menos estables no solo remite a la objetividad del método científico en general, sino también a la interpretación subjetiva que cada científico hace del método y de los resultados. Es decir, las ideas de fondo remiten a una filosofía, entendida de modo coloquial, como aproximación personal (subjetiva) a la totalidad de la realidad (objetiva)25. En los próximos apartados se intentará exponer cuáles son los elementos fundamentales de la filosofía de nuestro autor, tal y como los explica; y ocasionalmente se insertarán aclaraciones personales para sacar a la luz ciertos esquemas y conexiones implícitas. Si bien Penrose hace pocas elaboraciones filosóficas explícitas, no por eso deja de ser un científico que traspasa las fronteras de la ciencia en busca del sentido último de las cosas; y que, por lo tanto, se comporta como un auténtico filósofo. 28
1. El método científico En el presente apartado se expondrán los elementos más significativos de la comprensión que Roger Penrose tiene del método científico. Dejaré de lado algunas características importantes del método, que no son objeto de atención por parte del físico inglés, para centrarme en sus observaciones. Desde este enfoque me aproximaré primero al conocimiento como condición de posibilidad de la actividad científica para posteriormente describir el inicio, el desarrollo, la apertura y los límites de dicha actividad. Los que defienden la validez del método científico se apoyan frecuentemente en sus innegables logros. Penrose comparte esa apreciación y concluye que esos logros afirman un mínimo de realismo y de causalidad ahí fuera (Penrose, 1999b: 196)26. Ese realismo y esa causalidad, además de fundamentar la actividad científica y su método, también son condición de posibilidad de otros modos de conocer como la filosofía o el sentido común. Esos modos alternativos de conocer la realidad serían necesarios para alcanzar una visión más completa del mundo27, aunque el método más fiable seguiría siendo el científico. Antes de proseguir me gustaría aclarar que si el conocimiento fuera eminentemente pragmático entonces se podría afirmar —como sostiene Penrose— la primacía de la ciencia experimental sobre otros métodos, porque da resultados comprobables y permite dominar la realidad. Algo que no es tan obvio en la filosofía. Sin embargo, si se parte de que la realidad está ahí entonces es más fácil defender la validez de otros modos de aproximación que permiten contemplar o irar la realidad sin necesidad de intervenir. En este caso no se defiende la eficacia controladora de una construcción teórica sino una riqueza del conocimiento que no se auto-limita a lo experimental, ni a los resultados. En última instancia supone un predominio del conocimiento en sí sobre la utilidad práctica. La postura de Penrose pretende ser intermedia. A la vez que defiende la prioridad del método científico sobre el resto de métodos por su utilidad, no reduce la utilidad a mero pragmatismo sino que resalta su dimensión teórica desveladora de la realidad. Además, por esta utilidad teórica, el método científico no se debería detener ante preguntas difíciles, sino que debería buscar y encontrar respuestas incluso a preguntas fundamentales sobre el origen del universo, el origen de la consciencia o el origen de la vida. Para Penrose las únicas preguntas a las que la ciencia experimental nunca podrá aportar respuesta alguna serán las preguntas sobre el bien y el mal, porque son exclusivas de una aproximación moral. Lo que no queda claro es si este conocimiento moral es relativo o puede ser equivalente al científico. Desde mi punto de vista y si se me permite una comparación con el fútbol, Penrose acentúa demasiado dos aspectos. En primer lugar, a la hora de buscar respuestas, sobrecarga al método científico con responsabilidades que le exceden y que son propias del conocimiento en su conjunto. Y en segundo lugar, ensalza demasiado los talentos individuales del método científico respecto a otros modos de conocer. Personalmente me inclino por valorar más el conjunto del conocimiento frente a la individualidad del 29
método científico. Este método sería un jugador más dentro del equipo, quizá el que tiene más talento para marcar, para conseguir resultados, pero en el conjunto del conocimiento todos los métodos juegan y cada uno desempeña su papel. Cada uno de los distintos métodos, según Penrose, aportaría unas respuestas que serían complementarias y, por lo tanto, con una mayor variedad de métodos se podría obtener un conocimiento más completo. Sin embargo, en algunos casos, esas contribuciones podrían dificultar la investigación en lugar de contribuir a ella. Así por ejemplo, se podría desistir de formular en clave científica algunas preguntas difíciles que encuentran respuesta satisfactoria en otros tipos de conocimiento28. Esto, para Penrose, sería un error. Un ejemplo de este tipo de error sería que la fe en un Dios creador limitase la investigación científica sobre el origen del universo29. Esta observación me parece acertada, pero también se puede hacer una lectura en sentido contrario: conocer los entresijos físicos del origen del universo no conlleva afirmar que Dios no ha creado el universo. Un planteamiento aut-aut entre explicación científica y explicación divina de la realidad implicaría que se tiene una compresión muy pobre de Dios: como una causa más entre las causas y no como Causa Primera de todo lo creado30. En resumen, desde mi punto de vista convendría matizar la neta prioridad que Penrose da al método científico e integrarlo mejor con el resto de métodos de conocimiento. A la vez considero que su enfoque tiene varios aspectos positivos. Uno que deseo resaltar ahora es que la confianza que nuestro autor deposita en el método científico remite a una confianza en el conjunto del conocimiento humano. 1.1. ¿Es posible conocer? Pensar, según Penrose, ha sido siempre una prerrogativa humana que nos ha permitido trascender nuestras limitaciones físicas. Un ejemplo de esta trascendencia es la creación de herramientas y máquinas que han obtenido logros difícilmente alcanzables para el ser humano. Eso hace que ante la aparente superioridad puntual de las máquinas nuestro orgullo no resulte herido, ni nuestra hegemonía parezca ser amenazada (Penrose, 1999b: 23). Sino que el progreso fomenta nuestro orgullo como seres humanos, al ver lo que somos capaces de hacer con las máquinas. Es una manifestación más de nuestro dominio, fruto de nuestra capacidad de pensar. Esa capacidad se fundamenta en que el hombre es un ser consciente capaz de comprender, algo que según Penrose estaría totalmente ausente en los ordenadores (1999b: 41). Quizá las máquinas puedan tener cierto dominio porque son capaces de manejar más datos que un ser humano, pero es un dominio sin comprensión, es un dominio no-humano, es un conocimiento inconsciente. Por lo tanto, para intentar saber cómo es el conocimiento humano será fundamental profundizar en qué es estar consciente, qué es ser un ser consciente, y cómo es posible que se dé la consciencia en los seres humanos. Estos interrogantes constituyen un verdadero reto sobre el que la física tiene algo que decir. Penrose llegará a afirmar —sin 30
entrar de momento en consideraciones más profundas— que las máquinas no pueden ser conscientes porque están hechas con una física distinta a la de los seres humanos. Lo veremos más adelante. Nos encontramos por tanto ante una realidad que está ahí fuera y que puede ser conocida porque en ella existe una causalidad que se puede desentrañar conscientemente a través de la elaboración de juicios31. Esta afirmación es coherente con el realismo metafísico y gnoseológico de Penrose, a la vez que remite al progreso en el conocimiento de lo real. Dicho conocimiento siempre puede alcanzar un mayor contenido de realidad: lo que, en el caso de la ciencia experimental, permitirá un mayor dominio, contendrá parte de la realidad ya conocida y abrirá nuevas áreas de investigación. Un ejemplo clásico de este progreso lo constituyen las teorías de la relatividad de Einstein en relación con la mecánica newtoniana. En este caso, el conocimiento de la realidad ha sido aclarado, perfeccionado y profundizado, a la vez que se han abierto nuevos campos de investigación. Por tanto, hay más realidad conocida tanto extensiva como intensivamente32. Una vez resaltada esta capacidad de comprender la realidad, que va más allá de la capacidad funcional o pragmática de hacer teorías y obtener resultados correctos, la pregunta que se plantea es: ¿cuál es el punto de partida del científico? Para Penrose ese punto de partida es doble. Está constituido tanto por las teorías consolidadas que han sido aceptadas por la comunidad científica (Penrose, 1999b: 199-203)33 como por los resultados que aportan los nuevos experimentos. A la vez, ese doble punto de partida no es una base inamovible, sino que tiene la solidez de las placas tectónicas: las teorías recibidas se revisan mediante la elaboración de nuevos experimentos y los datos experimentales están sujetos a reinterpretación. Hay un continuo flujo de teorías, experimentos e interpretación, donde el ser humano juega el papel fundamental. En ese a la realidad, el ser humano formula las teorías, prepara los experimentos, interpreta los datos y juzga la oportunidad de qué es lo que hay que cambiar: la teoría, los experimentos o la interpretación. De modo que las teorías y los experimentos no constituyen solo el punto de partida, sino también un punto de continuo retorno mediante la interpretación y el juicio. La revisión de una teoría dependerá del juicio científico sobre lo fundamentales que sean los datos aportados por los experimentos. Con este enfoque, es lógico que Penrose formule sus teorías asociándolas a experimentos. Así, en sus publicaciones más recientes sobre mecánica cuántica, sobre el origen del universo o sobre las bases físicas de la consciencia, aparecen propuestas de experimentos que en algunos casos se podrán llevar a cabo en unos pocos años, mientras que en otros habrá que esperar a que progrese la técnica34. Por eso mismo, Penrose rechaza algunas teorías que no son experimentalmente comprobables, como las del multiverso, y califica otras como interesantes elucubraciones porque no postulan ningún experimento. Nuestro autor también tiene claro que no todos los datos experimentales fundamentan una teoría con la misma solidez y reconoce que mientras algunos de sus experimentos servirían para fundamentar o desacreditar una teoría, hay otros que solo 31
darían indicios de viabilidad de la teoría35. Hasta aquí podríamos calificar lo explicado, en terminología kuhniana, como el período de ciencia normal, en el que la investigación se mueve dentro de un paradigma consensuado que sirve de modelo y que se consolida o retoca con nuevos experimentos36. Pero además, nuestro autor señala la aparición de anomalías en el paradigma vigente. Anomalías que empiezan a ser de entidad porque se observa la proliferación de nuevas teorías y eso es un síntoma de debilidad del paradigma. Esta postura de Penrose, señalando la crisis del paradigma actual y apuntando hacia un nuevo escenario de la física, no implica que defienda una revolución científica o un período de ciencia extraordinaria al estilo de Thomas Kuhn. De igual modo, tampoco responde al esquema popperiano de refutación del paradigma actual, ni supone la existencia de experimentos cruciales. Más bien sugiere una mejora del paradigma mediante una relectura de los datos ya conocidos que integre los últimos avances de la ciencia física37. Nuestro autor, por tanto, apunta a un cambio de enfoque, a reinterpretar los experimentos, a estudiar qué se ha podido pasar por alto, integrándolo todo conforme al método científico que tan buenos resultados ha dado. Para conseguir este cambio de enfoque Penrose resalta la importancia de los conocimientos heurísticos, del sentido común y de la intuición matemática del hombre de ciencia. Veremos poco a poco estos aspectos, pero antes me detendré en considerar qué entiende Penrose por conocer la realidad. 1.2. ¿Qué es conocer la realidad? Uno de los argumentos transversales que ha aparecido en secciones anteriores es el realismo. Para algunos autores se trataría de una cuestión poco relevante38 mientras que para Penrose es esencial (2006: 1371). Por eso, conviene que él mismo aclare qué entiende por realidad: Hablo de la realidad de los objetos físicos: esta mesa, este bolígrafo, la Tierra (...) [y] distingo tres mundos de la realidad. Por un lado, el de la realidad física; por otro, el de la experiencia mental, y por último, el mundo platónico de los absolutos matemáticos. Así que concibo tres tipos distintos de realidad (Alfieri, 2007: 125).
Este esquema de tres mundos está inspirado en el mundo de las ideas de Platón, en el mundo mental de Berkeley y en el esquema de los tres mundos de Popper39. Sin embargo, se trata de un esquema propio que Penrose expone en tres libros sucesivos (1994a: 411-420; 1999a: 79 y sigs.; 2006: 61-66). Aun así, no se ciñe a una terminología muy clara e introduce ligeros cambios con una mayor profundización. Por lo tanto, me centraré en su explicación más reciente, la que se encuentra en El camino a la realidad. Como disposición previa, antes de explicar los tres mundos, Penrose pide al lector que amplíe su concepto de «existencia real». En este concepto deberían caber no solo las cosas físicas sino también las estructuras matemáticas, porque parecen existir antes de ser descubiertas. Si bien no poseen una existencia espacio-temporal como los objetos 32
físicos, según Penrose, son atemporales, estaban ahí y el hombre las descubrió. Una vez itido esto, en la realidad habría tres tipos de existencia diferentes: la matemático-platónica, la física y la mental. De este modo, la existencia de un concepto matemático se fundamentaría en su consistencia matemática; la existencia de los elementos físicos sería espacio-temporal e implicaría algún tipo de percepción sensible; y la existencia mental sería la propia de las ideas o pensamientos40. Estos tres tipos de existencia, propias de cada uno de los tres mundos, constituirían la única realidad. Por lo tanto, aunque los mundos estén separados entre sí, se interconectarían de algún modo. Y esas interconexiones constituyen para Penrose tres misterios41 que hay que investigar: 1. El misterio que relaciona el mundo físico con una pequeña parte del mundo matemático-platónico que le sirve de fundamento. 2. El misterio que relaciona el mundo mental con una pequeña parte de las estructuras físicas, que le sirven de soporte físico. 3. Y finalmente, el misterio que relaciona el mundo matemático-platónico con una pequeña fracción de la actividad mental. Estos misterios interconectan los distintos mundos precisa y unívocamente de tal modo que: todo el mundo físico estaría gobernado por una pequeña parte de las matemáticas; todo el mundo mental estaría enraizado en una pequeña parte de la física; y todas las verdades matemáticas serían alcanzables por la razón, aunque no toda la actividad mental se emplee para hacer matemáticas. Además, cada mundo emergería del anterior, tal y como se muestra en el siguiente esquema42.
Hasta aquí las ideas expresadas por Penrose requerirían de aclaración. El esquema resulta demasiado oscuro y ni siquiera manifiesta una dificultad obvia: vista así, la realidad es causa sui. Sin embargo, Penrose no mostrará más claridad respecto a este esquema, sino que insistirá en que el esquema solo pretende expresar sus prejuicios43. Al final del presente trabajo volveré sobre este punto y recalcaré que este esquema no es el 33
más apto para comprender la realidad en su conjunto. Pero de momento seguiré describiendo su punto de vista, con la claridad que permita el autor en cada momento. Ante las críticas recibidas por su esquema, Penrose itió algunos cambios. Así aceptó la posibilidad de una acción física que no esté gobernada por las matemáticas, o de una actividad mental44 que no tenga como substrato las estructuras físicas, o de unos enunciados matemáticos verdaderos cuya verdad sea, en principio, inaccesible mediante la razón y la intuición. Esta postura vendría representada por el siguiente esquema, donde los mundos (esferas) no son abarcados por los misterios (conos con flechas).
Sin embargo, Penrose considera que estas modificaciones son superfluas ya que su primer esquema sería capaz de expresar bien los tres misterios: el misterio de cómo las leyes matemáticas pueden aplicarse al mundo físico con tanta precisión, belleza y sofisticación; el misterio de que en una materia física adecuadamente organizada, como el cerebro humano, se pueda evocar el conocimiento consciente; y el misterio de que las mentes humanas sean capaces de tener intuiciones matemáticas complejas o captar con sencillez los números enteros. Profundizar en los tres mundos sin dejar de lado estos misterios es tarea del científico, ya que, no obstante el físico se dirija esencialmente al mundo físico, no puede obviar las relaciones con los otros dos mundos. «El que suceda algo muy enigmático no significa que nunca seamos capaces de comprenderlo» (Penrose, 1999a: 111). En este camino a la realidad, ambicioso y difícil, el científico debe preguntarse sobre el qué del objeto que investiga y no centrase solo en cómo se comporta. Además, la pregunta por el qué le remitiría inmediatamente al por qué45 y abriría las puertas de la filosofía. Sin embargo, como advierte Penrose, hasta ahora apenas se ha avanzado siquiera en el intento de desvelar el primero de los misterios: no se comprende bien la relación entre la realidad matemática y la realidad física. 1.3. Sentido común y apertura a la filosofía 34
Una vez afrontada la cuestión sobre qué es la realidad para Roger Penrose, recuperaré el hilo argumental. Vuelvo por tanto a la profundización del conocimiento como un tender hacia un mayor contenido de realidad mediante diversos métodos y enfoques. El científico desde su punto de partida busca un mayor contenido de realidad y en su tarea no se limita a lo experimental, sino que reclama una apertura a otros modos de conocer y en última instancia a las preguntas filosóficas. Por lo tanto, un mayor contenido de realidad reclama otros modos de aproximarse a la realidad, entre los que nuestro autor incluye el sentido común, la moralidad o la filosofía. Antes de ver cada uno de ellos quizá sea útil una metáfora entre el modo de conocer y la luz. Siguiendo esa metáfora, una diversidad en el modo de conocer equivale a una diversidad en las gamas del espectro de luz. Así, al igual que algunas bombillas emiten con más intensidad en unos tonos que en otros, un modo de conocer se centra más en algunos aspectos de la realidad que en otros. Esto hace que con una determinada iluminación o modo de conocer predomine una tonalidad. Supongamos ahora que una aproximación científica a la realidad es equivalente a una iluminación artificial con bombillas incandescentes. En ese caso, si se aumenta la cantidad de iluminación sin cambiar el tipo de bombilla, la tonalidad se conservará. Lo que según la metáfora significa que con cuanta más intensidad se emplee el método científico mayor será el conocimiento de la realidad, pero siempre con una determinada tonalidad. Otro modo de aumentar el conocimiento sería usar distintos métodos, lo que equivale a utilizar distintos tipos de bombillas (incandescentes, vapor de mercurio, fluorescentes...). Así se cubre un espectro de luz más amplio y se atenúa el predominio de una tonalidad. Si la metáfora se lleva todavía más lejos, lo que realmente interesaría es conocer la realidad con luz natural. O incluso, como el espectro de luz es mucho más amplio que el espectro visible, se podría completar con la ayuda de infrarrojos o de ultravioletas. Como se puede apreciar, la metáfora del conocimiento como iluminación es bastante rica y se podría seguir explotando, pero no deseo sujetarme en exceso a ella. El último punto que me gustaría resaltar es que para Penrose la primera luz con que vemos la realidad es el sentido común46. Un sentido común que siempre debe estar presente en toda actividad humana, también en la ciencia, porque para conocer la realidad es más esencial que la actividad científica. Ese sentido común lleva a fiarse de lo que recibimos, de que la realidad está ahí, de que no somos engañados cuando conocemos, de que nos podemos equivocar pero también nos podemos corregir... y esa confianza en nuestra percepción inicial de las cosas es esencial para hacer ciencia. No se parte de la duda cartesiana. Por eso, a Penrose le gusta conectar el conocimiento científico con el sentido común y tener una imagen de lo que sucede. A la vez no le satisface lo excesivamente abstracto (Penrose, 2006: 1175) y le llama la atención que algunos físicos elaboren teorías que se alejan mucho de la percepción ordinaria (Penrose, 2006: 1163). Si bien el sentido común llevaría a aceptar teorías científicas bien fundamentadas que inicialmente podían parecer 35
lejanas, para Penrose, en ningún caso esas teorías podrían ser extrañas. La armonía de la actividad científica tendría una continuidad con el sentido común, con notas distintas pero no disonantes. Algo similar dirá Penrose del criterio estético, de la simplicidad y de la belleza de las teorías matemáticas. Se trata de criterios que no pueden suplantar al método científico, pero que están presentes en las teorías correctas. Las teorías correctas poseen cierta belleza intrínseca y no pueden ir contra cierto sentido común razonable. Como contrapunto a esta postura, algunos autores defienden la necesidad de ir contra el sentido común para liberarse de clichés y prejuicios que dificulten hacer verdadera ciencia. Así por ejemplo Hofstadter afirma que el concepto de «yo» es en última instancia una convención social, una ilusión ficticia sobre la que nos hemos puesto de acuerdo y de la que nos resulta casi imposible liberarnos. En el fondo, el «yo» se refiere a una consciencia que es un extraño bucle, mera consecuencia de las leyes físicas, y que se asocia a la grandeza de sentimientos (Hofstadter, 2008: 376, 393, 425-432). Este sería un ejemplo de una teoría extraña, alejada de la percepción ordinaria. Para Penrose, según el sentido común no solo percibo mi «yo» sino que también puedo percibir el «yo» de otras personas conscientes. Me podría equivocar al negar que alguien esté consciente, pero casi siempre acertaré al afirmar que alguien está consciente. «Por lo tanto debe haber realmente algún modo de comportamiento que es característico de la consciencia (incluso aunque no sea siempre manifestado por la consciencia) y al que somos sensibles a través de nuestras intuiciones de sentido común» (Penrose, 1999b: 506). También Rosenblum y Kuttner, apoyándose en las teorías actuales sobre mecánica cuántica, apelan a la necesidad de poner en duda tres intuiciones de sentido común para poder comprender lo que dice la física. Según ellos, en la mecánica cuántica sería la observación la que crea la realidad física observada. Por lo tanto, habría que dejar de suponer que dos objetos no pueden estar a la vez en el mismo sitio, lo que según ellos equivale a poner en duda el principio de no contradicción. Además, también habría que dejar de pensar que lo que sucede aquí no puede afectar simultáneamente en algún lugar muy lejano. Por último tampoco podríamos creer que exista un mundo real ahí fuera con independencia de que lo contemplemos o no (Rosenblum y Kuttner, 2010: 18)47. Sería discutible afirmar que algunas de estas posturas vayan realmente contra el sentido común y, además, no es el objeto del presente trabajo. Pero quisiera recalcar la importancia que para Penrose tiene interpretar los datos experimentales a la luz del sentido común. Así se evitaría crear teorías, como las de Rosenblum y Kuttner, donde todo es posible salvo itir que pueda haber un error en las teorías o en la interpretación que se hace de ellas. El sentido común constituye la primera luz con que vemos las cosas y conviene fiarse de él. Esa luz es esencialmente correcta y no se debe apagar nunca, aunque de vez en cuando, en la apreciación inicial de la realidad, pueda inducir a error. Esa confianza en el sentido común y el hecho de que la mecánica cuántica no tenga hasta ahora una formulación muy bella le llevan a afirmar que: «La mecánica cuántica actual no tiene una ontología creíble, de modo que debe ser modificada para que la física 36
del mundo tenga sentido» (Penrose, 2006: 1150). Tras estos párrafos sobre el sentido común, me centraré ahora en la moralidad como modo válido de aproximarse a la realidad. Para ello me serviré del siguiente esquema, que es una ulterior modificación del esquema inicial de los tres mundos.
En esta imagen el mundo platónico de Penrose ya no está constituido solo por estructuras o conceptos matemáticos. Sigue situado encima de los otros dos mundos, para resaltar que es el más fundamental, pero ha sido enriquecido con los absolutos platónicos de belleza y moralidad (Penrose, 2006: 1377). Entre las auras del mundo platónico, aparece la belleza que rodea a la verdad matemática y que se extiende a la relación de la verdad con el mundo físico48. Refleja de este modo el prejuicio de Penrose según el cual las teorías matemáticas verdaderas que describen el mundo son también bellas. Con el aura de la moralidad se pretenden reflejar también algunos de los prejuicios de Penrose en relación al conocimiento del bien y el mal. Una primera idea es que la moralidad no se asocia con del mundo físico, mientras que sí mantiene una relación con el mundo mental, al igual que la verdad y la belleza. A la vez se diferencia de estas en que la moralidad parece de algún modo abierta hacia algo más amplio que el mundo mental. Dada la inclinación de Penrose a plasmar geométricamente sus ideas, resulta bastante razonable que haya querido expresar sus prejuicios filosóficos en un esquema. Por eso, cada detalle de este esquema resultaría significativo: hacerlo de un modo o de otro conlleva unas consecuencias muy distintas sobre la subjetividad u objetividad de la moral, sobre la bondad del mundo físico... De todos modos no las analizaré con más detenimiento porque nuestro autor no se detiene en aclararlas con mucha precisión. Aun así me gustaría señalar su conexión con la doctrina clásica de los trascendentales, que ha 37
sido elaborada durante muchos siglos y posee una indudable riqueza y precisión filosófica para describir la realidad (Aertsen, 2003). Para terminar este apartado consideraré el concepto que Penrose tiene sobre la filosofía. Con frecuencia subraya que a él solo le competen las respuestas científicas y siempre evita cualquier tipo de alusión religiosa49. Pero a medio camino entre ciencia y teología se encuentra la filosofía. Y con relación a este campo del saber sí que se encuentran algunas alusiones en nuestro autor, amén de que todo su planteamiento de fondo tiene un enfoque filosófico. Ante una demanda filosófica sobre la respuesta que daría la física a la pregunta «por qué hay algo y no más bien la nada», nuestro autor responde: No lo sé. En un sentido matemático se puede contestar este interrogante hasta cierto punto. Porque un concepto matemático existe si es consistente. Así que si las reglas, las normas son consistentes y coherentes entre sí, entonces decimos que esa entidad existe. Pero claro, este es el sentido matemático de la existencia. Se podría pensar que la existencia física es más o menos así, pero la verdad es que no estoy seguro. Necesitamos saber más acerca de qué es lo que constituye la existencia en el sentido físico del término. Mi sospecha es que tendrá que ver con la percepción consciente, porque la pregunta sobre si existe un universo es posible porque soy consciente (Alfieri, 2007: 130-131).
Por tanto nuestro autor no rechaza la pregunta, ni se encierra en un reduccionismo fisicista (Penrose, 2006: 1396), sino que ite que no hay una respuesta clara. Algo parecido le sucederá en otros momentos cuando llegue a calificar como obras de Dios aquellas realidades en las que de su estructura sale mucho más de lo que se introdujo (Penrose, 1999b: 134). A la vez, consciente de que solo quiere dar respuestas científicas, Penrose intenta no extralimitarse en sus contestaciones. Y cuando se le pregunta sobre la contingencia o necesidad de la existencia del universo responde que esa pregunta le lleva a los límites de la física y que no pasa nada por desembocar en la filosofía pero prefiere no dar una respuesta50. En ese difícil equilibrio por no decir más de lo que como científico puede decir, Penrose se formula varias preguntas sobre el sentido de la vida y manifiesta así la necesaria apertura a la actitud filosófica: Me parece claro que estas meditaciones y murmuraciones a las que nos entregamos cuando (quizá temporalmente) nos hacemos filósofos (...) son el «equipaje necesario» que deben llevar los seres que son conscientes (...). Es cuando vemos que otros se comportan con esta extraña conducta filosófica cuando nos quedamos convencidos de que estamos tratando con individuos, distintos de uno mismo, que también tienen mentes (Penrose, 1999b: 501).
En resumen, podría calificar el método científico de nuestro autor como «integrador». Por un lado, porque es un método que no se detiene ante los problemas. Por otro, porque subraya una continuidad histórica del conocimiento, donde no hay rupturas con el pasado aunque pueda haber saltos. En tercer lugar, porque hay cierta conexión misteriosa entre los tres mundos que según Penrose constituyen la realidad. Y por último, porque defiende una integración gnoseológica con el sentido común como precursor y orientador y con la filosofía como continuador y catalizador de la ciencia hacia respuestas que esta no puede dar. 38
En esta línea integradora, Penrose también sostiene que «en la cultura tecnológica de hoy día, es más importante que nunca que las cuestiones científicas no se separen de sus implicaciones morales» (Penrose, 2006: 67). Sin embargo, amén de esta consideración y de otras que denotan cierta apertura a la trascendencia, se echa en falta una reflexión más explícita sobre el valor que, tanto el comportamiento moral como la religión, pueden tener para la actividad científica. Esta diferencia respecto a la filosofía se puede deber a que, mientras la filosofía está en o con la ciencia experimental, la religión y el comportamiento moral estarían al otro lado del puente tendido por la racionalidad filosófica, sin un o directo. Por lo tanto, mientras que en sus planteamientos sobre la ciencia se observan los supuestos filosóficos tanto ontológicos como epistemológicos, sería pretencioso afirmar que hable de supuestos éticos51; y, aunque no separe la moral de la actividad científica ni la considere un límite sino algo necesario, tampoco reflexiona sobre la fructífera orientación que supone para la actividad científica. 1.4. Los límites Quizá la primera limitación consciente con la que un científico se encuentra en su trabajo es la precisión. Se trata de un límite importante ya que el poder explicativo de la ciencia radica en la exactitud (Penrose, 1999b: 200). Sin embargo, hay algunos límites más significativos: aquellos de los que el científico no es consciente. Hasta ahora se han mostrado algunas limitaciones del método científico y, sin ánimo de ser exhaustivos, se pueden añadir algunas más señaladas por Penrose. Para facilitar su comprensión las dividiré en esenciales o circunstanciales. Las primeras siempre estarán ahí, mientras que las segundas pueden resolverse parcialmente con el tiempo. Entre las limitaciones esenciales se pueden incluir: aquellas preguntas a las que el método científico no puede responder; o los tipos de respuestas válidas que no puede dar, como las filosóficas o religiosas; o también que, con el progreso de la ciencia, cada vez son más las preguntas sin respuesta. Por otro lado, entre las limitaciones circunstanciales señaladas por Penrose se encuentran: que los científicos no se preocupan por las preguntas fundamentales; que la investigación actual no permite la existencia de investigadores aislados y es impulsada por las teorías que más inversiones atraen; o que las dificultades técnicas y económicas dificultan la realización de experimentos importantes (Penrose, 2006: 1373). Algunas de estas limitaciones circunstanciales podrían ser puntualmente mejoradas en el futuro, pero el conjunto de ellas aumentará en la medida en que aumenten las fronteras de la actividad científica. Por tanto, existen unas limitaciones en el método, por su modo sesgado de conocer la realidad, que existirán siempre. Es importante conocerlas, para no caer en reduccionismos. Junto con estas, también existen unas limitaciones coyunturales que, conforme desaparezcan, abrirán un campo más amplio de nuevas limitaciones. Quizá por eso nuestro autor, más que señalar los límites del método científico, prefiere subrayar la capacidad de profundización y ensanchamiento sin límites que tiene su uso y el hecho de que en la práctica se está comenzando a conocer cómo es el mundo. En este intento del 39
método científico por profundizar en el conocimiento de la realidad, Penrose resalta el papel esencial de las matemáticas. 2. Las matemáticas La armonía que tantas veces se observa entre las matemáticas y la realidad física constituye el primero de los tres misterios señalados por Penrose. Se trata del misterio más explorado, por el uso de las matemáticas en la investigación científica, y también del misterio que más influencia ha ejercido en el pensamiento de nuestro autor. Debido a esa íntima conexión de las matemáticas con el mundo físico, Penrose rechaza tanto el formalismo matemático, que trabaja con símbolos sin necesidad de conectarlos con la realidad52, como el intuicionismo, para el que las matemáticas son una creación mental53. Nuestro autor defiende que las matemáticas están ahí y se llega a ellas mediante cierta intuición directa: descubriendo más que inventando. Como se verá más adelante, desde este enfoque que conecta las matemáticas con la realidad, Penrose extrae conclusiones sobre la importancia de la no-computabilidad o de las proposiciones matemáticas verdaderas indecidibles, para aplicarlas a la realidad. Además, se aleja de posiciones mecanicistas, señala la necesidad de que en la física existan aspectos no-algorítmicos y sugiere la conexión de esos nuevos aspectos con la actividad consciente. Pero antes de llegar a estas conclusiones conviene explicar cómo entiende Penrose la relación de las matemáticas con el mundo mental y con el mundo físico. Ya vimos que, según el esquema de los tres mundos, las matemáticas no están dentro de la mente sino que emergen misteriosamente de cierta actividad mental; y que la realidad física emerge de una pequeña parte de las matemáticas54. Sin embargo, me parece que este esquema es una elaboración posterior que se origina en la experiencia de Penrose como investigador y en su comprensión gnoseológica y ontológica de las matemáticas. Conviene recordar la experiencia vital que supuso para Penrose resolver el problema del teselado aperiódico y descubrir posteriormente su conexión con los cuasi-cristales; amén de tener en cuenta que en su primer ensayo no se habla del esquema de los tres mundos. Por tanto, sostengo que el esquema de los tres mundos de Penrose es posterior a su declarado platonismo matemático (Berto, 2009: 147; Davies, 1996: 131-133) y, por eso, conviene enfocarlo desde esta comprensión matemática. 2.1. Formalismo y realismo Roger Penrose afronta el dilema de la realidad matemática preguntándose sobre la posibilidad de la existencia real de los objetos matemáticos. Toma como punto de partida la percepción común de que esos objetos son meras idealizaciones mentales hechas por los físico-matemáticos en su deseo de conocer la realidad55: Una opinión común entre muchos físicos de hoy es que la mecánica cuántica ¡no nos ofrece ninguna imagen de la realidad! De acuerdo con esta opinión, el formalismo de la mecánica cuántica es tan solo eso:
40
un formalismo matemático. Este formalismo, como argumentarán muchos físicos cuánticos, no nos dice nada sobre la realidad cuántica del mundo, sino que meramente nos permite calcular probabilidades para realidades alternativas que podrían ocurrir (Penrose, 2006: 1049-1050).
Desde este punto de partida, Penrose se pregunta si los objetos matemáticos pueden ser algo más que construcciones arbitrarias de la mente humana; y sostiene que en esos conceptos parece existir una realidad profunda que va más allá de las construcciones mentales de un matemático particular. Es como si el pensamiento matemático estuviese guiado por alguna verdad externa, que tiene realidad por sí misma y que solo se revela parcialmente. Como ejemplo para apoyar su postura, Penrose apela al conjunto de Mandelbrot56 y reclama para él una existencia real. En este conjunto, tras una sencilla fórmula, se esconde una estructura de complejidad inabarcable, como se observa en las imágenes. Tanto para el hombre como para los ordenadores, los límites del conjunto de Mandelbrot se van descubriendo poco a poco. Las características de sencillez de la fórmula, belleza y complejidad del resultado y continuo descubrimiento de lo que se esconde detrás de la formula, implican para Penrose que el conjunto de Mandelbrot ya estaba ahí.
Algo similar opina Penrose de los números complejos. Estos tendrían una realidad profunda y atemporal que está ahí y que se observa, por ejemplo, en los fractales naturales57 o en la mecánica cuántica. La estructura de los números complejos poseería una magia inherente que se va descubriendo poco a poco (Penrose, 1999b: 131-133). Por lo tanto, y volviendo un poco atrás, ante las matemáticas cabrían al menos dos posturas básicas: la de pensar que son solo construcciones mentales creadas por los matemáticos, pero que no tienen auténtica realidad; o la de sostener que se están descubriendo verdades objetivas, cuya existencia es independiente de la actividad matemática58. Nuestro autor se adhiere a la segunda postura pero, a la vez, afirma que la cuestión no es sencilla. Si bien es cierto que en algunas ocasiones se descubren estructuras matemáticas en las que sale mucho más de lo que se introdujo (las califica 41
como obras de Dios), también es cierto que en otras ocasiones se inventan construcciones matemáticas artificiales para conseguir algún fin muy específico (obras del hombre). Por lo tanto, Penrose acepta que haya cierta construcción de las matemáticas, pero siempre remitiendo a una existencia real. En otras áreas de la actividad humana, como el arte o la ingeniería, sucedería algo similar. Junto al trabajo ordinario, se darían innovaciones que tendrían más de inspiración que de transpiración; serían más descubrimiento que invención. Sin embargo y a pesar de estas aclaraciones, para Penrose las matemáticas tendrían una unidad y unicidad mayor que en el arte o la ingeniería. Por eso, se adhiere al platonismo matemático, donde los objetos y conceptos no son construcciones que existen en la mente sino realidades inmateriales y atemporales59. El platonismo matemático, tal y como lo entiende Penrose, remite a un artículo escrito por Kurt Gödel en 1932, en el que se afirma que los matemáticos solo pueden hacer teorías que se aproximen a las verdades matemáticas objetivas, sin llegar a conocerlas completamente60. Gödel sostiene que hay un fuerte paralelismo entre teorías viables de los objetos y conceptos matemáticos, por un lado, y las teorías viables de los objetos y propiedades físicas, por otro. Al igual que los objetos y las propiedades físicas no son construidos por el hombre ni se reducen a entes de razón, tampoco los objetos y conceptos matemáticos son construidos por el hombre, ni se reducen a entidades mentales. Los objetos y los conceptos matemáticos son tan objetivos como los objetos y propiedades físicas. Además, mediante la intuición matemática se tiene una percepción de los objetos y conceptos matemáticos, de modo análogo a como percibimos los objetos y propiedades físicas. Esta intuición matemática puede equivocarse, corregirse y mejorar, al igual que la percepción física puede ser errónea y corregirse. La diferencia de los objetos y propiedades físicas con los objetos matemáticos residiría en que estos últimos no existen en el espacio ni en el tiempo, ni se crean a instancias del espacio o del tiempo. Lo que Gödel denomina verdades objetivas remite a los objetos matemáticos del segmento inferior del Mundo de las Ideas de Platón. En ambos casos se trata de verdades objetivas universales e inmutables, sin principio ni fin, que residen en un mundo al que solo se puede acceder por medio del pensamiento —en el caso de los objetos matemáticos— y que se reproduce de manera imperfecta en el mundo sensible. Frente al realismo platónico se situa el formalismo matemático, que tiene en David Hilbert61 a su máximo exponente; y cuya propuesta es definida por Penrose en los siguientes términos: La idea del programa de Hilbert consistía en encontrar para cualquier área bien definida de las matemáticas, una lista de axiomas y reglas de inferencia suficientemente amplia que incorporara todas las formas de razonamiento correcto apropiadas para dicha área. (...) Si se acepta que semejante amplio sistema de axiomas y reglas de inferencia nos ha sido ya dado para la aritmética, entonces disponemos de un criterio definido para la ‘corrección’ de la demostración matemática de cualquier proposición aritmética. Existía la esperanza de que tal sistema de axiomas y reglas fuera completo, en el sentido de que nos permitiera en principio decidir la verdad o falsedad de cualquier enunciado matemático que pueda formularse dentro del sistema (Penrose, 1999b: 143-144).
42
Hilbert quiso desarrollar un sistema que incluyese todos los tipos de razonamiento matemáticamente correctos porque, de conseguirlo, se tendría un área bien definida de las matemáticas libre de contradicción. Este sistema completo permitiría conocer la verdad o falsedad de cualquier nuevo enunciado matemático, sintácticamente correcto, formulado en el interior del sistema. Por tanto, estaría perfectamente encerrado en sí mismo y sería inatacable. Las proposiciones bien definidas serían verdaderas o falsas sin necesidad de preocuparse por su significado externo. Toda proposición bien formulada sería verdadera cuando su afirmación fuese demostrable dentro del sistema y falsa cuando se demostrase su negación. En este sistema cerrado, completo e inatacable, el lenguaje natural quedaría sustituido por un conjunto de signos que obedecería a reglas y operaría sobre relaciones. Los enunciados matemáticos, expresados mediante una sucesión de signos, se apoyarían en unos axiomas cuya verdad es evidente62 y, a través de las reglas de inferencia, harían derivar unas proposiciones de otras sin remitir necesariamente al significado del lenguaje, sino reduciéndose a operaciones con signos. El formalismo matemático constituiría así un tipo de nominalismo, donde el requisito indispensable es que no hubiese contradicciones. Contra la propuesta de Hilbert, Gödel formuló en 1931 sus teoremas de incompletitud. Según estos teoremas, en un sistema matemático formal —en concreto, en la aritmética, aunque se puede generalizar— no es posible demostrar o refutar toda proposición bien definida sin caer en una contradicción. Dicho con otras palabras, dentro del sistema se pueden construir proposiciones verdaderas que no tengan demostración. La consecuencia derivada de estos teoremas es que el concepto de verdad matemática no se puede encapsular en ningún esquema formalista. Y su fuerza argumental reside en el hecho de que los teoremas de incompletitud están formulados desde dentro del sistema formal. Ahora bien, una vez quedan demostrados los teoremas, es lógico presuponer que, desde otros ángulos y con otros conceptos, también se pueden formular otros argumentos contra la posibilidad de construir un sistema formal. Es lo que hace Penrose: En efecto, ¿cómo vamos a decidir qué axiomas o reglas de inferencia adoptar en un caso cualquiera cuando tratamos de establecer un sistema formal? Nuestra guía en la decisión de las reglas a adoptar debe ser siempre nuestra comprensión intuitiva de lo que es autoevidentemente verdadero, dados los significados de los símbolos del sistema. ¿Cómo vamos a decidir qué sistemas formales son razonables para ser adoptados —es decir, que están de acuerdo con nuestras ideas intuitivas sobre autoevidencia y significado — y cuáles no? Ciertamente, la noción de autoconsistencia no es adecuada para ello. Podemos tener muchos sistemas autoconsistentes que no son razonables en este sentido, en los que los axiomas y reglas de inferencia tienen significados que rechazaríamos como falsos, o quizá no tienen significado en absoluto. Autoevidencia y significado son conceptos que seguirían siendo necesarios aun sin el teorema de Gödel (Penrose, 1999b: 152).
Luego, no desde una argumentación formalista como la de Gödel sino desde una argumentación realista, Penrose señala las carencias del formalismo. A la vez, resalta que la comprensión intuitiva, la autoevidencia y el significado de los conceptos matemáticos son necesarios porque la verdad matemática es más que una construcción humana (Penrose, 1999b: 153). 43
Dando un paso más, al igual que Gödel, Penrose identifica el carácter absoluto de la verdad matemática con la existencia platónica de los conceptos matemáticos. Entraríamos de este modo en un amplio tema de debate que no es directamente objeto del presente trabajo. De momento es suficiente con haber visto la crítica que Penrose hace del formalismo para intentar ver ahora qué entiende por intuición. Para ello distinguiré este tipo de conocimiento de la corriente matemática conocida como intuicionismo. 2.2. Intuición matemática El intuicionismo es una corriente que difiere en bastantes puntos del enfoque matemático clásico63. Según esta corriente, iniciada por el matemático holandés Brouwer en 1924, los objetos matemáticos serían productos de la mente humana y su existencia equivaldría a que se pudiesen construir64. De este modo, la verdad de una afirmación matemática solo se podría probar mediante una construcción mental. Es decir, el intuicionismo solo aceptaría la existencia de aquellos objetos matemáticos que puedan ser construidos paso a paso en el pensamiento del matemático individual. Mientras que la matemática clásica aceptaba cualquier estructura que se pudiese definir consistentemente, el intuicionismo solo atribuye a los objetos matemáticos aquellas propiedades que puedan ser inmediatamente captadas por la intuición intelectual del matemático. Esta intuición difiere del concepto de intuición directa usado por Penrose. Mientras que la intuición directa de Penrose es platónica, los intuicionistas utilizan el concepto en sentido kantiano. Para los segundos, el aspecto fundamental de la actividad matemática no es la existencia real de los objetos matemáticos que se pueden captar sino la intuición en sí misma, porque en ella se dan las condiciones para construir el objeto matemático. La matemática es concebida por el intuicionismo como una actividad de construcción introspectiva, que se realiza sin palabras ni símbolos, por mera intuición. El lenguaje y la lógica solo sirven para comunicar con los demás y para registrar los resultados de la propia actividad psicológica (Mosterín y Torretti, 2010). Una de las consecuencias de este planteamiento es que para los intuicionistas el principio del tercero excluso no sería válido. Según este principio la disyunción entre una proposición y su negación sería siempre verdadera (A v ¬A); luego, todo enunciado bien formulado sería verdadero o falso. Sin embargo, los intuicionistas conciben la verdad como prueba y la falsedad como refutación. Luego para ellos, entre demostrar A o demostrar ¬A, cabe una tercera postura que es la no demostración, en la que se encuentran todos aquellos enunciados que no han sido probados ni refutados: estos enunciados no son ni verdaderos ni falsos (Iemhoff, 2012). Con este enfoque se observa que para los intuicionistas tampoco son válidas las argumentaciones que usan el método de reductio ad absurdum. Dicho método consiste en demostrar que una proposición matemática es verdadera probando que si no lo fuera conduciría a una contradicción. 44
A Penrose, estas apreciaciones del intuicionismo, aun siendo interesantes, le resultan extremas, porque rechazan métodos tan fructíferos como el de reductio ad absurdum o principios tan fundamentales como el del tercero excluso, que constituiría una verdad matemática autoevidente. Frente al intuicionismo, Penrose defiende que los objetos matemáticos tienen una existencia atemporal por sí mismos, sin depender de las construcciones mentales ni de los objetos físicos particulares (Penrose, 1999b: 157). Aun así, acepta la corriente matemática del constructivismo, que no se asocia directamente con el intuicionismo, porque sería compatible con la matemática clásica65. Lo que no aclara es cómo relacionar constructivismo con platonismo matemático. Según mi parecer la construcción matemática quedaría dentro del mundo mental; una vez que la mente ha alcanzado los objetos matemáticos mediante la intuición, cabría la construcción. El modo en que la mente alcanza los objetos matemáticos, según Penrose, tiene lugar mediante una inspiración matemática que se produciría por intuición directa, como una súbita irrupción en un mundo platónico (Davies, 1996: 223). Tal intuición, exclusiva de los seres humanos, permitiría encontrar nuevas realidades en el mundo platónico, para luego tener una comprensión más plena de la realidad física66. Como ejemplo para señalar en qué consiste la intuición directa, Penrose afirma que casi todo su pensamiento matemático es visual, en términos de conceptos no verbales67. Además, cita a varios autores que describen su pensamiento en términos similares y señala la riqueza de las diferencias entre pensamiento verbal y no verbal, pensamiento analítico y geométrico, pensamiento elaborado e intuitivo (Penrose, 1999b: 527). Posteriormente, basándose en su experiencia personal sobre la transmisión de las ideas matemáticas entre científicos, llega a la conclusión de que la mente, al percibir una idea matemática, toma o con el mundo platónico de los conceptos matemáticos, irrumpe en él. Y cuando los matemáticos se comunican es porque cada uno tiene un camino directo a la verdad matemática a través de un proceso de visión. La mente posee la capacidad de ese o directo con un mundo platónico. Un mundo que es común para todos y que existe en sí. Por tanto, las verdades matemáticas serían verdades necesarias que, más que descubrirse, se recuerdan al estilo platónico (Penrose, 1999b: 531). Dejaré aquí esta breve aproximación al esquema mental de Penrose sobre las matemáticas, tanto en su aspecto ontológico (platonismo) como gnoseológico (intuición directa). A mi modo de ver, ambos aspectos de las matemáticas, ontológico y gnoseológico, constituyen el punto de partida para el posterior desarrollo del esquema de los tres mundos de Penrose. Un esquema que no pretende representar la realidad de modo estático, sino dinámico, y que se completa desde otros ángulos, distintos al matemático. 3. Una realidad dinámica Si se retoma el esquema de los tres mundos con sus tres misterios, se aprecia que está 45
constituido por dinamismos en dos niveles. Por un lado, se observa un dinamismo global cíclico que, en un nivel inferior, está integrado por tres tipos de dinamismos, según las relaciones entre cada par de mundos. En el apartado anterior se ha explicado uno de los dinamismos: el de la mente que mediante intuición directa llega a conocer el mundo platónico de las matemáticas. Ahora, en el presente apartado, explicaré muy someramente los otros dos. El primero de estos dinamismos es estudiado por la actividad científica y se debe al paralelismo que hay entre las matemáticas y el mundo físico; mientras que el segundo está constituido por la selección natural y el principio antrópico débil (Barrow y Tipler, 1989) y se debe a las condiciones del mundo físico que permiten la aparición de seres conscientes. Si bien es cierto que Penrose no asocia la selección natural ni el principio antrópico con su esquema de los tres mundos, aun así me parece una conclusión que subyace en su esquema. Por eso, aunque nuestro autor no profundiza mucho en estas cuestiones y sus afirmaciones son genéricas, las he querido incluir para completar el cuadro con el que Penrose se aproxima a la realidad. 3.1. Matemáticas y realidad física Paul Davies comenta en una de sus obras que para Einstein la realidad se podía captar con puros razonamientos. Así, mediante construcciones puramente matemáticas se podían descubrir las leyes que conectan los conceptos y que constituyen la clave para entender los fenómenos naturales (Davies, 1996: 152). Esta postura, compartida parcialmente por Penrose, implicaría que los fundamentos del comportamiento físico están descritos de forma precisa y sofisticada por las matemáticas (Penrose, 2006: 1373), no porque el mundo matemático emerja del mundo físico, sino porque el mundo matemático está en la base del mundo físico (Penrose, 1999a: 14-15). Esta relación estrecha entre matemáticas y física ha permitido el progreso del conocimiento científico. Un progreso que se ha dado gracias al equilibrio entre la elaboración matemática de teorías y la observación precisa de resultados en experimentos físicos controlados. Esta mutua simbiosis, según Penrose, también manifiesta que la coherencia y la estética matemática no constituyen un criterio suficiente para considerar una teoría como buena; y que no toda realidad matemática tiene una aplicación en el mundo físico (Penrose, 2006: 1356). Por tanto, visto desde la realidad física, existiría una constante correlación con las matemáticas, que estaría en la base del dinamismo físico; mientras que, visto desde las elaboraciones matemáticas, se requeriría una constante confrontación con la realidad, mediante los experimentos, para cotejar si esa elaboración matemática tiene un reflejo en la realidad física. En la base del mundo físico, según Penrose, hay unas estructuras matemáticas que lo dinamizan. Esas estructuras y leyes, muchas veces recursivas, que se ocultan a nuestra comprensión, son las que se intentan conocer mediante la actividad científica68. Pero lo que me interesa ahora subrayar es que, para Penrose, el dinamismo del conocimiento matemático no es el mismo que el de la realidad física. Por eso, se requiere de los experimentos, para ver si lo captado mediante intuiciones o elaboraciones matemáticas 46
tiene aplicación real. La dinámica del conocimiento científico remite, por un lado, a las teorías elaboradas a partir de las matemáticas y, por otro, a los experimentos aplicados al mundo físico. A su vez, de modo análogo a como la actividad científica es movida y ha sido movida por el dinamismo de la actividad matemática, asimismo la actividad consciente de los seres humanos es movida y ha sido movida por cierto dinamismo interno del mundo físico y por la selección natural. Esta última afirmación requiere de muchas matizaciones, algunas de las cuales espero resolver en el siguiente apartado. 3.2. Selección natural y principio antrópico Penrose hace una clasificación de las teorías científicas en tres tipos: soberbias, útiles y tentativas. Entre las teorías soberbias solo incluye algunas teorías físicas, porque son las únicas que tienen suficiente alcance y precisión como para calificarlas como tales69. Con estos criterios define como soberbias la geometría euclídea, las teorías de la estática y de la dinámica, el esquema newtoniano y la teoría de Maxwell, las teorías de la relatividad especial y general de Einstein, la mecánica cuántica y la electrodinámica cuántica. A la vez, la única teoría no física que se podría acercar a la calificación de soberbia es la teoría de la selección natural propuesta por Darwin y Wallace (Penrose, 1999b: 199 y sigs.). Por eso, Penrose no repara en emplearla como método heurístico para interrogarse sobre los seres humanos. Así por ejemplo, se interroga sobre la ventaja selectiva que supondría tener consciencia o sobre la existencia de algún propósito divino o misterioso —un propósito teleológico aún no revelado a nosotros— que se oculta bajo el aspecto de la selección natural: A mi modo de ver, hay todavía algo misterioso en la evolución, con su aparente «andar a tientas» hacia algún propósito futuro. Al menos, parece que las cosas se organizan ellas mismas algo mejor de lo que deberían hacerlo solo sobre la base de la evolución por ciego azar y selección natural (...) Parece que hubiera algo en el modo de trabajar de las leyes de la física que permitiría que la selección natural sea un proceso mucho más eficaz de lo que sería con leyes arbitrarias (Penrose, 1999b: 516).
Luego nuestro autor no se contenta con aceptar la existencia de cierta selección natural ciega e irracional. Sino que más bien se inclina a pensar que debe existir cierto principio antrópico. Un principio, según el cual, la naturaleza del universo estaría fuertemente condicionada por la exigencia de que existan seres conscientes que lo conozcan (Penrose, 1999b: 502-503). En este punto, me parece que Penrose analiza la relación entre selección natural y principio antrópico de modo similar a su comprensión del teselado aperiódico. La selección natural sería el aspecto local de cómo se organizan las teselas, que resulta insuficiente para explicar el orden último del sistema; mientras que el principio antrópico sería el orden superior, no local, que en última instancia gobierna el aparente «andar a tientas» de la selección natural. Por lo tanto, dentro de este esquema, el principio antrópico sería no-algorítmico. Me parece que así se entiende mejor la siguiente cita donde Penrose se inclina a favor de una selección natural orientada por ese principio 47
antrópico, que estaría en un nivel superior: Soy un creyente convencido en el poder de la selección natural. Pero no veo cómo la selección natural por sí sola pueda hacer evolucionar algoritmos que pudieran tener el tipo de juicios conscientes sobre la validez de otros algoritmos que parece que nosotros tenemos (Penrose, 1999b: 513).
Esta afirmación y la anterior abren las puertas hacia una organización del mundo físico que remite a una finalidad70 a la que, sin embargo, Penrose no hace referencia explícita sino meras alusiones implícitas al tratar el argumento antrópico. Según el principio antrópico, formulado inicialmente por Brandon Carter71, el universo que percibimos a nuestro alrededor debe ser de tal naturaleza que produzca y acomode seres que puedan percibirlo. La versión débil del principio, tal y como se formuló inicialmente, sostenía que los seres vivos debían encontrarse en algún lugar del universo donde hubiera condiciones adecuadas para la vida. Por lo tanto, se denomina «débil» porque no pone muchas condiciones: podrían existir otros universos, u otros lugares en el universo actual, con condiciones para albergar vida consciente. Frente a esta postura, la versión «fuerte» del principio afirma que los seres vivos solo podrían existir en un mundo donde las constantes de la naturaleza y la localización espaciotemporal fuesen favorables. Para que exista vida consciente las constantes universales solo podrían ser las actuales, en nuestra localización espacio-temporal e incluyendo el conjunto de todos los universos posibles con otras constantes universales. Es decir, se denomina «fuerte» porque restringe más las condiciones (Penrose, 1999b: 538-539; 2006: 1016-1018). Los argumentos formulados a partir del principio antrópico, según Penrose, aunque poseen un significado genuino, están plagados de incertidumbres. Por eso, no los desprecia pero solo habla de ellos, y con cautelas, en tres ocasiones: la primera cuando explica el big bang inflacionario; la segunda al considerar la cuestión de las constantes cosmológicas y los multiversos; y la tercera al observar la ventaja selectiva que supone la aparición de la consciencia en los seres vivos. En este apartado haré breves alusiones al segundo y al tercero, porque el primero nos llevaría demasiado lejos. Cuando Penrose habla de las constantes universales, se muestra contrario a la versión fuerte del principio antrópico. Le parece que es un modo de evitar la investigación científica sobre el porqué de las constantes del universo. Esta versión diluiría el problema en una multitud de universos con distintas constantes o situaría la respuesta en un creador que puso las constantes así desde el inicio. Además, el argumento sería deficiente porque no se puede saber qué pasaría con otras constantes (Penrose, 2006: 1019). En este contexto, nuestro autor defiende que las constantes físicas fundamentales estarían determinadas por criterios matemáticos todavía desconocidos. Por lo tanto, aunque se desconoce su causa, se podría investigar hasta encontrarla. A mi parecer, en este enfoque está la clave de su concepción del principio antrópico: son las matemáticas las que estarían en la base del principio antrópico que orienta el universo con el fin de que aparezcan seres conscientes. Seres que, a su vez, intuyen los conceptos matemáticos. 48
Aun así, lo que Penrose no advierte es que una vez encontrado el fundamento matemático de las constantes, seguiría en pie la pregunta por el porqué. Por otro lado, partiendo del hecho de que existen seres conscientes, Penrose considera que el universo en el que habitamos está seleccionado, de entre todos los universos posibles, para que alguna criatura lo pueda observar. En este caso su postura es más cercana a la de un principio antrópico débil, según el cual, en este lugar del universo y en este momento se dan las condiciones para la existencia de vida consciente, lo que no impide que también se pueda dar en otros lugares o en otros momentos con otras constantes. El origen de las tesis sobre el principio antrópico en Roger Penrose parece remontarse a su mentor, Dennis William Sciama, a quien dedicó El camino a la realidad y quien afirmaba: El universo que conocemos está en sintonía con el nacimiento de la vida, con la evolución del hombre y de su inteligencia. Todos los parámetros cosmológicos, astronómicos, físicos y químicos aparecen finamente modulados en función de nuestra especie. ¿Casualidad? ¿La mano de Dios? Yo prefiero creer que el nuestro sea solo uno de los infinitos universos existentes, cada uno con sus propias características e inaccesibles entre ellos. En este, nuestro universo, se ha formado el hombre. En otros universos, tal vez, existen criaturas diversísimas de nosotros. De otro modo, ¿cómo es posible pensar que reglas físicas y matemáticas simples y fundamentales, si no tienen nada que ver con mi existencia, puedan conducir mi persona? (Alfieri, 2007: 127).
Ante este planteamiento responde nuestro autor en una entrevista con unos términos que resumen bastante bien su postura: Existen cuestiones significativas comprendidas en el principio antrópico que cabría discutir. En realidad, la dificultad radica en que uno no sabe lo que es un ser consciente. Y es un poco lo que Sciama dice en la cita que usted acaba de mencionar [la que acabo de citar]. Si existiera otro universo, con otras leyes, podría ser que los seres que surgieran fueran bastante diferentes de nosotros. Así que es muy difícil aducir, como algunos hacen, que otros universos necesariamente tienen que existir. ¿Sabe? Hay gente que diría que los parámetros de la naturaleza están afinados hasta tal grado, que o bien el universo fue diseñado por alguna clase de dios, o existen todos estos universos alternativos. Y la verdad es que yo mismo no estoy demasiado convencido de que sea absolutamente necesario que exista esta multiplicidad de universos (Alfieri, 2007: 128).
Antes de terminar este apartado me gustaría indicar un matiz más, que también señala nuestro autor. El punto de partida es que cualquier universo que pueda ser observado debe ser capaz de soportar la mentalidad consciente, puesto que la consciencia desempeña el papel final como observador. Esta finalidad puede proporcionar vínculos o restricciones sobre las leyes o los parámetros físicos del universo. Por consiguiente el principio antrópico sostendría que el universo que los seres conscientes observamos debe operar con leyes y parámetros compatibles con dichas restricciones. La pregunta sería entonces ¿qué hay detrás del principio antrópico?: ¿unas constantes fundamentales diseñadas junto con el mundo?, ¿o unas relaciones matemáticas sencillas, que vinculan unas constantes con otras, y que guían la evolución hasta la aparición de observadores conscientes? (Penrose, 2006: 1378-1379). Para nuestro autor existen unas condiciones externas necesarias para la existencia de seres conscientes. Esas condiciones están facilitadas según cierto principio antrópico y 49
acompañadas de un dinamismo interno de selección natural que solo se puede desencadenar en esas condiciones; todo ello fundamentado en las matemáticas. Aun así como el mismo Penrose reconoce: «No estoy del todo seguro de cuál es mi propia postura sobre la materia, aunque con frecuencia se confía demasiado en este principio cuando se intenta dar apoyo a lo que para mí son propuestas teóricas implausibles» (Penrose, 2010a: 173). Termino así este segundo capítulo dedicado a conocer algunos elementos básicos del pensamiento de Roger Penrose. Por el camino he procurado profundizar en su esquema de los tres mundos con sus tres misterios, tanto desde un punto de vista estático como dinámico. A la vez, han sido patentes las dificultades de esa tarea, en parte por las limitaciones propias de este trabajo y en parte porque los argumentos de Penrose no están trabados sino que son expresión aproximada de sus prejuicios. Aun así, confío en que se haya despertado el interés por descender más a los detalles de las tesis de Penrose. Es lo que haré en los próximos capítulos. Comenzaré con una aproximación a la comprensión física del universo, en el tercer capítulo, para estudiar en los siguientes los aspectos más relacionados con las matemáticas y la consciencia. 22 Para profundizar sobre el papel de la capacidad de iración en la ciencia experimental se puede consultar Artigas, 1999a. 23 Penrose lo explica con sus propias palabras en una entrevista: «The other thing which happened was that I somewhat shifted my viewpoint on quantum state reduction, in relation to gravity. The viewpoint I’d held for quite a long time, and which is expressed in The Emperor’s New Mind, is more or less that if you have too big a discrepancy between two states, then they don’t superpose and the state reduces. This discrepancy is to be measured in of space-time geometry; I called it the one graviton criterion. It is to do with how many gravitons come into this difference between the two states. »Now in work that I did subsequently, and also in work that had been done by others (particularly Diósi, a Hungarian, and Ghirardi in Italy) who had developed different ideas in connection with quantum state reduction, it seemed to me that I needed to modify the view that I had before. I think it’s quite a significant modification. Basically, when you have two states that are significantly different from each other, then their superposition becomes unstable, and there is a calculable time scale involved in how long it takes for the superposition to ‘decay’ to one state or the other. The details are probably a bit too technical for here (...)» (García Prada, 2001: 14). 24 La teoría de twistores, desarrollada por Penrose, no es una teoría nueva sino una reformulación matemática de las teorías de Einstein que no introduce cambios físicos, pero que puede orientar en la búsqueda de soluciones (Penrose, 2006: 1341-1342). 25 Así emplea Penrose el término filosofía. 26 Véase Artigas, 1999a: 29-36, para una fundamentación más detallada del realismo y la causalidad que subyacen bajo la ciencia experimental, también en el caso de la mecánica cuántica. 27 En especial el de un acercamiento moral que no excluye ni compite con la aproximación científica. Pero veremos más adelante dónde sitúa Penrose la moralidad. 28 Una postura parecida se puede encontrar en Ruse (2010), aunque este autor se refiere solo a dos tipos de aproximaciones, una científica y otra religiosa, ambas válidas y complementarias, que no dialogan entre ellas. También Polkinghorne (2005; 2007) distingue entre respuestas teológicas y cuestiones científicas, al poner en paralelo estos dos modos de conocimiento partiendo de un Dios que ha escrito dos libros, el de la Escritura y el de la Naturaleza. A la vez, Polkinghorne se muestra a favor de cierto God-of-the-gaps que puede aportar información, no energía, en los procesos caóticos de la naturaleza. En el caso de Penrose, me parece que se limita a afirmar el valor de la aproximación científica y a defenderla de precipitadas soluciones filosófico-religiosas, sin que necesariamente caiga en un dualismo entre razonamiento científico y razonamiento filosófico-religioso, ni niegue el valor de este último, ya que hay preguntas propias de cada aproximación (preguntas científicas o preguntas morales) y preguntas comunes que pueden tener respuesta con los dos acercamientos, como las preguntas fundamentales. 29 En Penrose, 2006: 1025 se presenta el falso dilema de considerar si el big bang es un acto divino o si hay
50
que buscar alguna teoría científica matemática para explicarlo. 30 Habría mucho que aclarar sobre este punto. Para una profundización con terminología científica de este argumento sobre la causalidad divina, se puede leer Silva, 2009. 31 Un aspecto capital de las argumentaciones de Penrose es la relación entre consciencia y formación de juicios, como él mismo explica y reconoce (Penrose, 1999b: 36). 32 Artigas (1999b), en el final del segundo capítulo, desarrolla más ampliamente esta idea al considerar la retroacción del progreso científico. 33 Estas teorías, que tienen distintos grados de fiabilidad o solidez, Penrose las divide en tres tipos: soberbias, útiles y tentativas. 34 Penrose explica el experimento FELIX, cuya finalidad es probar la teoría de Reducción Objetiva del vector de estado en mecánica cuántica (Penrose, 2006: 1144-1145); apunta hacia un estudio más profundo de la radiación de fondo para apoyar con datos la teoría de la Cosmología Cíclica Conforme (CCC) sobre el origen del universo (Gurzadyan y Penrose, 2010; 2011; Penrose, 2010a: 221); y comenta algunos experimentos que se podrían hacer en relación con el estudio de las bases físicas de la consciencia (Penrose, 2006: 1381-1382). 35 Por ejemplo el experimento FELIX, respecto a la teoría de la reducción objetiva del vector de estado, sería una prueba sólida. Mientras que unos resultados positivos en los estudios de radiación de fondo, en relación con su teoría CCC, podrían manifestar la existencia de eones previos pero no serían suficiente para fundamentarla. Para una exposición más detallada véase Penrose, 2006: 1365-1369. Ahí se explica cómo se hace ciencia y cómo se refuta una teoría errónea. Además, se considera que existen teorías serias casi inmunes a la refutación o a la confirmación, como la que postula una constante K = 0 en cosmología inflacionaria. Por último, Penrose también explica cómo se reelaboran las teorías ante la aparición de nuevos datos. 36 Para una profundización véase Diéguez Lucena, 2005, en especial el capítulo 5. Aunque nuestro autor no se puede incluir en el esquema kuhniano, sí que se encuentran puntos de o y, por eso, me parece interesante usar su terminología de un modo flexible. 37 En Penrose, 2006: 1061 hace un resumen de cómo se debería dar ese cambio sustancial de teoría, sin meros retoques, a la vez que reconoce que sus indicaciones son retoques. 38 Por ejemplo, Stephen Hawking afirma: «I don’t demand that a theory correspond to reality because I don’t know what it is. Reality is not a quality you can test with litmus paper. All I’m concerned with is that the theory should predict the results of measurements. Quantum theory does this very successfully» (Hawking y Penrose, 2010: 81). 39 A los mundos físico y mental de Berkeley, Popper añade un tercer mundo, el mundo de la cultura o «mundo III», que se enriquece a partir del mundo mental («mundo II») de las personas. El mundo de la cultura correspondería con el conocimiento objetivo (ciencia, historia, filosofía, teología...), mientras que el mundo mental tendría que ver con el conocimiento subjetivo de las personas (percepciones, emociones, pensamientos, intenciones...). Penrose reemplaza este «mundo III» con un mundo matemático platónico, creando un esquema distinto, porque a su vez, ese mundo platónico fundamenta el mundo físico (Penrose, 1999a: 13-15, 79-82). También en Lombo y Russo, 2005: 220-223 se puede encontrar una explicación más detallada del esquema popperiano. 40 En este contexto los términos de la existencia espacio-temporal y existencia mental no están bien definidos, mientras que el concepto de consistencia matemática es una noción sintáctica con un contenido preciso. La noción de consistencia matemática constituye uno de los elementos centrales de las pruebas matemáticas. Para una profundización se puede leer Shapiro, 2000. 41 «These are deep issues and we are yet very far from explanations. I would argue that no clear answers will come forward unless the interrelating features of all these worlds are seen to come into play. No one of these issues will be resolved in isolation from the others. I have referred to three worlds [Platonic world, Physical world and Mental world] and the mysteries that relate them one to another. No doubt, there are not really three worlds but one, the true nature of which we do not even glimpse at present» (Penrose, 1994a: 420). La cursiva es mía. 42 Algunas de las imágenes que se muestran en este libro han sido extraídas de los libros de Penrose con un carácter pedagógico, de modo análogo a como algunos textos suyos que se han citado. 43 Al tratarse de un autor inglés es probable que el término «prejuicio» contenga una carga semántica relacionada con los Idola de Bacon. Francis Bacon en Novum Organum sostenía la necesidad de abandonar todos los prejuicios y actitudes preconcebidas, los Idola, para poder hacer ciencia. En el fondo de este planteamiento estaba su método experimental inductivo que mejoró notablemente las hipótesis científicas. Bacon pensaba que si se eliminaba toda noción preconcebida del mundo, se podía estudiar la realidad mediante observaciones controladas y realizar generalizaciones cautamente. Los científicos por tanto debían ser escépticos y sus hipótesis se debían validar por la observación y la experiencia sensible. Sin embargo, no parece que Penrose acepte las tesis
51
de Bacon ya que en ese caso tendría que rechazar sus prejuicios en lugar de mostrarlos. 44 Mentalidad es el concepto usado en la traducción para referirse al término mentality. Sustancialmente son términos cuyo contenido semántico es el mismo en castellano que en inglés. Sin embargo, según el Diccionario de la Real Academia de la Lengua Española, la primera acepción en castellano se refiere a la «cultura y modo de pensar que caracteriza a una persona, a un pueblo, a una generación...». En este trabajo se usará el término siempre conforme a su segunda acepción: «capacidad, actividad mental», que es la que se corresponde con el significado que le quiere dar nuestro autor. Es el mundo de las percepciones conscientes. 45 «¿Por qué cuanto más sondeamos la naturaleza, más nos dirigimos al mundo platónico de las ideas matemáticas?» (Penrose, 2006: 1375-1378). 46 Para una profundización filosófica sobre el sentido común se puede consultar la obra de Antonio Livi: «La verdad de las certezas del sentido común resulta indudable. Por el contrario las verdades alcanzadas por la ciencia —en este caso, la filosofía— son siempre más o menos, a tenor de los diferentes casos, susceptibles de ser puestas en duda. Por tanto, en la certeza, en cuanto tal, el sentido común goza de un primado que jamás se le podrá arrebatar» (Livi, 1995: 261). 47 Me parece que el concepto de sentido común que usan estos autores no es el mismo que el de Penrose. En Penrose el concepto es más clásico-natural, mientras que en estos autores hace referencia a lo científicamente aceptado. Se puede entender mejor a qué me refiero cuando en Rosenblum y Kuttner, 2010: 48-52, se señalan cinco premisas newtonianas de sentido común que quedan comprometidas por la mecánica cuántica: Determinismo o paradoja del libre albedrío (inicialmente se evita la paradoja separando la consciencia-libertad de la materia y dejando esta última para la física pero, hoy en día, se pone en duda por la influencia del observador consciente); Realidad física (se pone en duda por la influencia del observador consciente en el experimento cuántico); Separabilidad (se pone en duda por la presencia de acciones instantáneas, sin la intervención de fuerzas físicas, que violan esta separabilidad); Reduccionismo (la mecánica cuántica sirve como apoyo de posturas antireduccionistas al señalar la importancia de la consciencia); la física newtoniana es una explicación suficiente (con la aparición de las teorías de la relatividad se observa que no lo es). 48 Respecto a esta relación Penrose hablará no solo de las reglas ocultas o influencias que hay tras la elegancia de las matemáticas, sino incluso de milagros matemáticos. Pero considerará que se trata solo de orientaciones para conocer la verdad, no de guías seguras. También señalará que la belleza de las teorías científicas solo la pueden captar los que las conocen bien y que la ciencia a partir de ciertos niveles tiene bastante de arte (Penrose, 2006: 1389-1392). 49 Sobre todo para evitar que constituyan un atajo ante preguntas que la ciencia todavía no sabe responder y se evite así la formulación de la pregunta en categorías científicas. Un ejemplo en relación a si el universo ha sido creado por Dios se puede ver en Penrose, 2006: 1011. 50 Transcribo alguna de las respuestas de la entrevista que se encuentra en Alfieri, 2007: —Esto llevaría a otra pregunta: ¿es contingente el universo o necesariamente tenía que existir? —Con sus preguntas me está llevando a los límites de la física. Creo que voy a empezar a utilizar un comodín. —Quizás desembocamos en la filosofía. —Bueno, vale, no pasa nada. Lo que no sé es si contestaré a ciertas preguntas. En este caso voy a optar por pasar, como se permite hacer a los concursantes en algunos programas de televisión. 51 Para una explicación más detallada de los supuestos ontológicos, epistemológicos y éticos de la ciencia se puede consultar el capítulo II de Artigas, 1999b. 52 «The guiding idea behind formalism is that mathematics is not a body of propositions representing an abstract sector of reality but is much more akin to a game, bringing with it no more commitment to an ontology of objects or properties than ludo or chess» (Weir, 2011). 53 «Intuitionism is based on the idea that mathematics is a creation of the mind. The truth of a mathematical statement can only be conceived via a mental construction that proves it to be true, and the communication between mathematicians only serves as a means to create the same mental process in different minds» (Iemhoff, 2012). 54 Me parece que en la postura de Penrose este concepto se puede aproximar a la cosmovisión emergentista de K. Popper, por la influencia de este autor en su concepción de los tres mundos. Para una profundización se puede consultar Corcó Juviña, 1995. 55 En la base de este impulso se intuye el éxito newtoniano al aplicar las matemáticas como herramienta para conocer la realidad física. 56 El conjunto de Mandelbrot es el más conocido de los conjuntos fractales. Fue descubierto por el matemático Benoît Mandelbrot en la década de los 70. Este conjunto se define en el plano complejo del siguiente modo:
52
Sea c un número complejo cualquiera. A partir de c, se construye una sucesión por inducción: z0 = 0 es el término inicial zn + 1 = zn2 + c es la relación de inducción Si esta sucesión queda acotada, entonces se dice que c pertenece al conjunto de Mandelbrot, y si no, queda excluido del mismo. 57 Un fractal es un objeto geométrico cuya estructura básica, fragmentada o irregular, se repite a diferentes escalas. 58 Para una profundización en filosofía de las matemáticas se puede consultar Benacerraf y Putnam, 1964. Y para una descripción más amplia de las distintas posturas filosóficas básicas se puede consultar Horsten, 2008. 59 «Platonism about mathematics (or mathematical platonism) is the metaphysical view that there are abstract mathematical objects whose existence is independent of us and our language, thought, and practices. Just as electrons and planets exist independently of us, so do numbers and sets. And just as statements about electrons and planets are made true or false by the objects with which they are concerned and these objects’ perfectly objective properties, so are statements about numbers and sets. Mathematical truths are therefore discovered, not invented» (Linnebo, 2011). 60 Un resumen del platonismo matemático de Gödel se puede leer en Horsten, 2008 o en el capítulo 9 de Berto, 2009. Y para una compresión más amplia del platonismo se puede leer Linnebo, 2011. 61 Para una acercamiento más detallado a la postura de Penrose sobre la verdad matemática, el platonismo y el intuicionismo, se puede leer «Verdad, demostración e intuición directa» (Penrose, 1999b). 62 Por ejemplo en el sistema formal de Hilbert para la aritmética los signos son 0, sucesor, x... y los axiomas son: 1. 0 es un número natural. 2. Si x es un número natural el sucesor de x es un número natural. 3. El 0 no es sucesor de ningún número natural. 4. Para todo x e y si sus sucesores son iguales entonces x e y son iguales. 5. Dada una propiedad, si 0 tiene esa propiedad y si para un número natural cualquiera la tiene él y su sucesor, entonces todo número natural tiene la propiedad. 63 Para confrontar la postura de Brouwer con el formalismo se puede leer «Intuitionism and formalism» (Benacerraf y Putnam, 1964: 66-77). 64 «According to intuitionism, mathematics is essentially an activity of construction. The natural numbers are mental constructions, the real numbers are mental constructions proofs and theorems are mental constructions, mathematical meaning is a mental construction... Mathematical constructions are produced by the ideal mathematician, i.e., abstracted from contingent, physical limitations of the real-life mathematician. But even the ideal mathematician remains a finite being. She can never complete an infinite construction, even though she can complete arbitrarily large finite initial parts of it» (Horsten, 2008). 65 «Constructive mathematics is distinguished from its traditional counterpart, classical mathematics, by the strict interpretation of the phrase «there exists» as «we can construct». In order to work constructively, we need to re-interpret not only the existential quantifier but all the logical connectives and quantifiers as instructions on how to construct a proof of the statement involving these logical expressions. (...) In Brouwer’s philosophy, known as intuitionism, mathematics is a free creation of the human mind, and an object exists if and only if it can be (mentally) constructed» (Bridges, 2013). «Intuitionism shares a core part with most other forms of constructivism. Constructivism in general is concerned with constructive mathematical objects and reasoning. From constructive proofs one can, at least in principle, extract algorithms that compute the elements and simulate the constructions whose existence is established in the proof. Most forms of constructivism are compatible with classical mathematics, as they are in general based on a stricter interpretation of the quantifiers and the connectives and the constructions that are allowed, while no additional assumptions are made. The logic accepted by almost all constructive communities is the same, namely intuitionistic logic. »Many existential theorems in classical mathematics have a constructive analogue in which the existential statement is replaced by a statement about approximations. (...) Large parts of mathematics can be recovered constructively (...)» (Iemhoff, 2012). El texto en cursiva, que no está en el original, indica como Penrose pueda rechazar el intuicionismo, porque es solo una construcción mental, y itir cierto tipo de constructivismo que sea compatible con las matemáticas clásicas.
53
66 «According to Plato, mathematical concepts and mathematical truths inhabit an actual world of their own that is timeless and without physical location. Plato’s world is an ideal world of perfect forms, distinct from the real world, but in of which the physical world must be understood. It also lies beyond our mental constructions; yet, our minds do have some access to this Platonic realm through an ‘awareness’ of mathematical forms and our ability to reason about them. We shall find that whilst our Platonic perceptions can be aided on occasion by computation, they are not limited by computation. It is this potential for the ‘awareness’ of mathematical concepts involved in this Platonic access that gives the mind a power beyond what can ever be achieved by a device dependent solely upon computation for its action» (Penrose, 1994a: 50). 67 Los conceptos no verbales se tienen en la mente mediante visualización, en lugar de a través del lenguaje. Así por ejemplo, los conceptos de proporción y el perímetro puede ser entendidos y aplicados a través de imágenes mentales, sin necesidad de expresarlos en palabras. De este modo se puede definir el razonamiento abstracto no verbal como la habilidad de una persona para entender una información dada y encontrar soluciones a los problemas por medio de razonamiento visual o práctico, sin necesidad del uso de lenguaje. 68 Desde mi punto de vista cabría preguntarse hasta qué punto las matemáticas pueden dar razón del dinamismo o, en todo caso, describirlo. 69 Por alcance entiende que sea una teoría básica de alguna ciencia y por precisión que se ajuste con poco error a la realidad. 70 Tratar el tema de la finalidad se escapa a las pretensiones de nuestro autor y a las de este trabajo. Sin embargo, para profundizar en este tema se puede consultar Artigas, 2002; McMullin, 1998, y el capítulo XI, «Origen y sentido de la naturaleza», de Artigas, 2008. 71 En 1973 durante un simposio en Cracovia en el que se conmemoraba el 500 aniversario del nacimiento de Copérnico.
54
Capítulo III Fundamentos físicos Durante siglos, las palabras universo o mundo se han asociado con un cosmos que inicialmente se limitaba al sistema solar rodeado por cuerpos estelares y con la tierra en el centro. En la época de Galileo este paradigma se desplazó desde el geocentrismo al heliocentrismo y en el siglo XIX creció hasta las dimensiones de nuestra galaxia. Sin embargo, el universo seguía siendo fundamentalmente estático. Cuando en 1915 Albert Einstein formuló su teoría de la relatividad general todavía quiso garantizar esa estabilidad, por eso añadió una constante cosmológica a sus ecuaciones; y durante los años 50 aún se mantenía vigente la teoría del estado estacionario formulada por Hermann Bondi, Thomas Gold y Fred Hoyle. Era la visión común entre los científicos. Pensaban que el universo había existido siempre con su forma actual. Sin embargo, cuando Edwin Hubble llegó a la conclusión de que el universo estaba en expansión ya se había empezado a abrir paso un nuevo paradigma. El descubrimiento del desplazamiento al rojo de las galaxias, junto con la contribución previa de Friedmann y Lemaître, abrieron las puertas hacia un universo en crecimiento. La contribución de nuevos resultados científicos, como la explicación de la radiación del cuerpo negro por Max Planck o el descubrimiento de la radiación de fondo, ayudó a consolidar un nuevo modelo estándar en cosmología (Albright, 2000: 173-175). Todos estos progresos fueron posibles gracias a la acumulación de innumerables avances científicos y técnicos. La ciencia permitió y permite que seamos más conscientes de lo que conocemos, de lo que ignoramos y de lo que difícilmente conoceremos. De hecho, como observadores, solo vemos una pequeña parte del pasado: el universo real es más grande que el universo visible porque solo se puede observar la parte de universo que permite nuestro cono de luz (más adelante se explicará este concepto). Así por ejemplo, no se conoce lo que está sucediendo ahora en el sol, pero se podrá conocer en unos minutos, cuando se reciba la información que trae la luz hacia la tierra. Sin embargo, la información que la luz se lleva en la dirección contraria permanecerá siempre oculta, porque, desde nuestra posición de observadores, escapa a la velocidad de la luz. Aun así, sigue siendo mucho lo que se conoce y lo que se puede conocer. El paradigma actual de la investigación física se apoya sobre cuatro teorías fundamentales: la relatividad especial, la relatividad general, la mecánica cuántica y la teoría cuántica de campos72. Estas teorías hacen referencia a lo grande, a lo pequeño, al origen y al desarrollo del universo. Marcan los límites de la física conocida y son áreas de constante investigación y especulación. A la vez, mantienen una estrecha relación entre sí y son el fundamento para los nuevos desarrollos teóricos.
55
Cada una de estas teorías depende de otras teorías previas y, a pesar de su llamativa precisión73, no están exentas de dificultades. La teoría cuántica de campos suele dar soluciones de tipo infinito que requieren de un proceso de normalización matemática. La relatividad general predice la existencia de singularidades en el espaciotiempo. Y la mecánica cuántica convive con el problema de medida. Quizá esos problemas se deban a que las teorías sean incompletas y se necesite de una nueva teoría que, adecuadamente, integre y amplíe las actuales (Hawking y Penrose, 2010: 44-45). En estrecha relación con esas cuatro teorías, el paradigma actual incluiría la segunda ley de la termodinámica y la teoría estándar del big bang. Penrose no las considera como teorías soberbias, pero sí importantes: la segunda ley de la termodinámica, más que una teoría, sería una ley fundamental de la naturaleza; mientras que la teoría del big bang, no reuniría las notas de alcance y precisión propias de una teoría soberbia. Aun así se trataría de una teoría útil cada vez más consolidada. En este capítulo repasaré con brevedad la contribución de esas teorías a la comprensión actual del universo y algunos de los problemas a los que se enfrentan. Para Penrose esas dificultades, más que incómodas perturbaciones, constituyen auténticas oportunidades para una visión más amplia. En cualquier caso, la extensión del tema es netamente superior a las pretensiones de este libro. Por eso, me centraré en los aspectos que afectan a la comprensión que Penrose tiene del universo y a la interpretación que hace de las teorías. 1. Teorías de la relatividad 1.1. Antecedentes Las teorías de la relatividad74 fueron fruto de la genialidad de Einstein y de las contribuciones de Poincaré y Lorentz. En su origen remiten a tres antecedentes que se van a considerar brevemente: la teoría de la relatividad galileana, el principio de equivalencia y la velocidad constante de la luz. 1.1.1. La relatividad galileana Galileo observó el comportamiento de distintos animales y objetos físicos tanto en 56
tierra firme como dentro de un barco que se movía sin vaivenes a una velocidad uniforme. Se dio cuenta de que no se podía distinguir entre el comportamiento físico en un caso y en el otro, por lo que tampoco podía saber si el marco de referencia estaba en reposo. Esto significa, según el teorema de la relatividad de Galileo, que las leyes físicas permanecen totalmente invariantes si pasamos de un sistema en reposo a un sistema en movimiento. Por tanto, como señala Penrose, no hay un significado absoluto para el «estado de reposo»: la expresión «el mismo punto del espacio en dos instantes diferentes» carece de significado absoluto. No hay necesariamente un espacio absoluto que sirva de fondo estable para el transcurrir del tiempo y tampoco sabemos si la tierra o el universo están en reposo (Penrose, 2006: 528-531). Sin embargo, Newton, que conocía y compartía estas intuiciones de Galileo, necesitó adoptar un «espacio absoluto» como marco de referencia75 para describir el comportamiento de sus leyes. La extraordinaria precisión de su teoría contribuyó a que se olvidase la intuición de Galileo. Hubo que esperar un par de siglos para que Einstein la retomase con una nueva perspectiva. 1.1.2. El principio de equivalencia El segundo de los antecedentes de la teoría de la relatividad es el principio de equivalencia76. Según Penrose, también se remonta a Galileo, quien, en esta ocasión, observó el comportamiento de los objetos en caída libre y llego a la conclusión de que en un medio sin resistencia todos los cuerpos caen con la misma aceleración. En terminología newtoniana eso significa que el campo gravitatorio no depende de la masa —masa inercial y masa gravitacional se identifican— sino que solo depende de la aceleración gravitatoria, lo que en última instancia remite a las características del espaciotiempo77. La nueva perspectiva con la que Einstein retoma la teoría de la relatividad considera como movimiento inercial el de las partículas en caída libre. Si esas partículas son el marco de referencia, sobre ellas no actúa ninguna fuerza, ni siquiera la gravitatoria. En un sistema de referencia en caída libre se anula la fuerza gravitatoria efectiva (Penrose, 2006: 535-539). Por tanto, para Einstein, un objeto en reposo no es inercial; mientras que, para Newton, un objeto en reposo sí era inercial y un objeto en caída libre no era un movimiento inercial. Con esta nueva perspectiva desaparece la fuerza de la gravedad pero no su acción: la gravedad deja de ser una fuerza pero sus efectos espaciotemporales se mantienen. Einstein dedujo que la gravedad provocaba dos efectos sutiles en los objetos sometidos a ella78. El primero de ellos es el efecto de marea (a): se denomina así por su similitud con la acción gravitatoria de la luna sobre el agua de los océanos y provoca una distorsión del objeto sin reducción de volumen79. El segundo es un efecto de compresión hacia el centro gravitacional (b): este efecto es el que hace caer a los objetos y provoca una reducción de volumen (Penrose, 2006: 543). 57
Por lo tanto, la nueva perspectiva de Einstein aplicada al principio de equivalencia muestra cómo son los efectos del campo gravitatorio; mientras que el principio de relatividad mostraba que las leyes de la física son ciegas a la distinción entre reposo y movimiento uniforme. Aun así todavía falta considerar el tercer antecedente de la teoría de Einstein: la finitud de la velocidad de la luz. 1.1.3. La velocidad de la luz La necesidad de una velocidad máxima de propagación para cualquier tipo de información (velocidad máxima de la luz) está postulada por la teoría del electromagnetismo: según las leyes de Maxwell, las ondas electromagnéticas se propagan a la velocidad de la luz. Si este dato se pone en paralelo con el principio de relatividad surge una paradoja: ¿cómo pueden conservarse las leyes de Maxwell en sistemas de referencia que se mueven a distintas velocidades? ¿A qué velocidad viajarían las ondas electromagnéticas si el sistema de referencia se moviese a la velocidad de la luz? Esta paradoja indica que las ecuaciones de Maxwell no satisfacen la relatividad galileana. Pero además, como las ecuaciones de Galileo-Newton solo se habían probado a baja velocidad, resultaba que, para velocidades cercanas a las de la luz, las leyes que previsiblemente se debían emplear eran las leyes de Maxwell. ¿Cómo salir de este dilema? ¿Se podían compatibilizar de algún modo las leyes de Maxwell con el principio de relatividad? ¿O, si no, que había que corregir? Para explicar la solución a este dilema seguiré la perspectiva adoptada por Penrose en sus ensayos. Nuestro autor enfoca la respuesta desde un punto de vista geométrico, obviando el modo histórico en que se resolvió80. Para ello se apoya en la idea del espaciotiempo tetradimensional expuesta por Minkowski en 190881. De este modo introduce un elemento gráfico, el cono de luz o cono de Minkowski, que facilita la comprensión de la solución. 1.2. Conos de luz y paradoja de los gemelos Un cono de luz representa en el eje vertical el paso del tiempo y en el plano horizontal dos de las tres dimensiones espaciales. Cada suceso instantáneo es un punto del cono y la 58
existencia temporal de cada partícula se representa con una línea de universo dentro del cono.
El centro p del cono es el suceso actual. Las superficies del cono (conos nulos) se forman mediante las historias de fotones que viajan a la velocidad de la luz. El cono nulo inferior se forma mediante los rayos de luz del pasado que llegan al suceso actual y determina la parte de pasado que se puede ver. Mientras que el cono nulo superior indica el movimiento de los fotones hacia el futuro —como si fuese el destello luminoso de una explosión que se produce en p— y delimita el movimiento de las partículas con masa. De este modo, el hecho de que una partícula no pueda viajar por encima de la velocidad de la luz se expresa gráficamente en que sus líneas de universo siempre tienen que estar dentro del cono de luz (a). Salvo que se trate de una partícula sin masa, que viaja a la velocidad de la luz, en cuyo caso se sitúa sobre el cono nulo (b).
59
El esquema de los conos podría inducir a pensar que existe un tiempo absoluto —el representado por el eje vertical del cono— y que los fotones experimentan el paso del tiempo82. Sin embargo, no es así. La componente vertical del cono es solo la medida del tiempo en reposo, mientras que sobre el cono nulo no se experimenta el paso del tiempo. Los fotones, que viajan a la velocidad de la luz, y por lo tanto están sobre el cono nulo, no envejecen. Para ilustrar mejor esta idea puede ayudar la «paradoja de los gemelos». En geometría euclídea la longitud de un lado cualquiera del triángulo es siempre menor que la suma de los otros dos. Mientras que en geometría mikowskiana la longitud del lado mayor es siempre mayor que la suma de los otros dos. Imaginemos ahora que formamos un triángulo con líneas de universo. El lado más largo será el camino recorrido por una persona que está en la Tierra (AC) y los otros dos lados el camino recorrido por su gemelo que viaja por el espacio (AB + BC) a una velocidad mayor.
Cuando los gemelos se reencuentran en C, el viajero espacial ha envejecido menos que el que se ha quedado en la Tierra. Hasta el punto de que si se hubiera movido siempre a la velocidad de la luz, no habría envejecido nada83. Dicho con otras palabras, entre dos puntos del cono de luz, la recta —es decir, el movimiento uniforme— es el camino más largo84. Por tanto, si la velocidad de la luz es constante y la percepción del tiempo transcurrido depende del observador, entonces también cambia el concepto de simultaneidad. Los sucesos que en el pasado parecen simultáneos para un observador, no lo serán para cualquier otro observador que no se desplace a su velocidad (Penrose, 1999b: 248-260). No existiría un ahora estable. Lo más cercano a ese concepto sería el espacio simultáneo de un observador en el espaciotiempo. Pero este depende del movimiento del observador. Lo que para un observador pertenecería al pasado, para otro todavía no ha ocurrido (Penrose, 1999b: 379).
60
Como se observa en el esquema, el plano de simultaneidad del caminante A se inclina hacia la trayectoria de A, conforme a la ortogonalidad lorentziana que rige en el espaciotiempo tetradimensional. De modo que los sucesos simultáneos a X son distintos según se trate del caminante A o del caminante B. Estas ideas permiten intuir cómo es la concepción actual del espaciotiempo y cómo se debe observar la realidad física para profundizar en ella. Explicaré ahora brevemente cómo esta nueva visión deriva de la relatividad. 1.3. Relatividad especial y relatividad general La relatividad especial, propuesta en 1905 por Albert Einstein en su artículo Zur Elektrodynamik bewegter Körper («Sobre la electrodinámica de cuerpos en movimiento»), es una teoría sobre la estructura del espaciotiempo85. Como se ha apuntado, generaliza el principio de la relatividad de Galileo para un marco de referencia inercial según el principio de equivalencia e incorpora el principio de que existe una velocidad que es constante para todos los observadores inerciales. Esto significa que la nueva teoría aúna dos postulados que en la mecánica clásica no eran conciliables entre sí: en la relatividad especial las leyes de la física son las mismas para todos los observadores con movimiento uniforme relativo entre ellos; y a la vez, la velocidad de la luz es la misma para todos los observadores86. Por otro lado, la relatividad especial también modifica el tratamiento que la mecánica clásica hace del espacio y del tiempo. Ambos se dejan de considerar como parámetros separados en un esquema euclídeo. Y se adopta un espaciotiempo tetradimensional regido por una transformación lorentziana, donde el espacio y el tiempo se pliegan hasta tocarse cuando se alcanza la velocidad de la luz. El nuevo esquema87 también modifica el concepto de velocidad de la luz. Lo que antes se percibía como un límite, es más bien una característica fundamental del modo 61
en que el espaciotiempo está constituido. Aun así, a efectos prácticos, se sigue percibiendo ese límite: ninguna partícula masiva puede ser acelerada hasta la velocidad de la luz en el vacío. La nueva teoría se denominó especial porque aplicaba el principio de la relatividad solo a marcos de referencia inerciales. Posteriormente Einstein desarrollo la relatividad general para aplicar el principio a cualquier marco de referencia, no solo a los que seguían un movimiento uniforme. Con esa nueva teoría, que generalizó la relatividad especial al incluir los efectos gravitatorios de marea y de atracción, se consiguió la mejor descripción de la dinámica general del universo hasta la actualidad. La relatividad general fue desarrollada por Albert Einstein entre 1907 y 1915 y supone una generalización de la relatividad especial88. Si la relatividad especial se restringía a espaciostiempos planos, la relatividad general incluye los efectos gravitacionales provocados por la curvatura del espaciotiempo. Sin embargo, al igual que la curvatura de la tierra no afecta a muchos aspectos de la vida cotidiana, tampoco la curvatura del espaciotiempo se considera relevante a pequeña escala. En un contexto local la relatividad especial es una buena aproximación a la relatividad general. Una vez que la relatividad general estuvo formulada en su forma final, se advirtió que había tres pruebas derivadas de la observación que debían apoyar la teoría: El perihelio de la órbita de Mercurio avanza, o gira, de una forma que no podía ser explicada por la influencia gravitatoria newtoniana de los otros planetas: la teoría general de la relatividad predice exactamente el avance observado. Las trayectorias de los rayos luminosos son curvadas por el Sol, y esta fue la razón de la famosa expedición para observar el eclipse de 1919, dirigida por Arthur Eddington y que encontró un resultado coherente con la predicción de Einstein. La tercera prueba era la predicción de que los relojes se hacen más lentos en un potencial gravitatorio: es decir, un reloj próximo al suelo atrasa con respecto a un reloj situado en lo alto de una torre. Este efecto también ha sido medido experimentalmente. Estas nunca fueron, sin embargo, pruebas muy impresionantes: los efectos eran siempre muy pequeños y varias teorías diferentes podrían haber dado los mismos resultados (Penrose, 1999a: 28).
Sin embargo, en los últimos años la relatividad general todavía se ha visto más confirmada. Los efectos de «lente gravitatoria» y «retardo temporal», derivados de la teoría, se usan como una herramienta cotidiana en la astrofísica moderna. Además, la teoría se ha convertido en parte del marco estándar de la teoría del big bang y, tras el descubrimiento del pulsar binario Hulse-Taylor, cada vez se está más cerca del descubrimiento directo de las ondas gravitatorias predichas por Einstein. Por último, el descubrimiento de singularidades en el espaciotiempo, como los agujeros negros, ha servido para consolidar la teoría y para manifestar que todavía no está completa89. 1.4. Singularidades en el espaciotiempo Roger Penrose ha sido uno de los grandes estudiosos de la teoría de la relatividad general y de las singularidades90 que se forman en el espaciotiempo einsteniano. Durante los años 60 desarrolló y, con la ayuda de Hawking, completó algunos de los teoremas más fundamentales sobre las singularidades91. Estos teoremas predicen singularidades en dos situaciones. Una en el futuro, debida al 62
colapso gravitacional de estrellas u otros cuerpos masivos. Y otra en el pasado, al comienzo de la expansión del universo. Ambas se explicarán más adelante junto con la segunda ley de la termodinámica. Por el momento basta señalar que la predicción de singularidades —y la posterior constatación de su existencia— significa que la teoría general de la relatividad no es una teoría completa92. Las singularidades constituyen un auténtico reto para la investigación. Según Hawking, profundizar en la singularidad del pasado significa ahondar por el camino hacia la gravedad cuántica, mientras que investigar en las singularidades futuras también supone profundizar en conceptos como el de «censura cósmica» desarrollado por Penrose. En cualquier caso los dilemas que se plantean apuntan hacia el modo en que la relatividad se puede reconciliar con la física cuántica para dar lugar a una nueva teoría. Termino este apartado describiendo una comprensión de la acción gravitatoria como curvaturas del espaciotiempo. Ese espaciotiempo se percibe como un continuo, curvado en algunas zonas y surcado por ondas gravitacionales, de modo análogo a los vórtices o a las olas que se forman en una superficie de agua lisa, pero con 4 dimensiones. Este esquema presenta singularidades en el espaciotiempo en las que no están vigentes las leyes de la física conocida y que apuntan hacia una nueva teoría que englobe también la física cuántica93. 2. Teoría estándar de la física cuántica La mecánica cuántica es el cuerpo de principios científicos que intenta explicar el comportamiento de la materia y sus interacciones con la energía a pequeña escala, aunque su alcance se extiende más allá. En su origen tuvo que ver sobre todo con la interacción electromagnética, que rige el comportamiento físico a escala atómica. Mientras que en la actualidad su estudio incluye también las interacciones nucleares fuerte y débil, que rigen el comportamiento a escala subatómica. Las interacciones débil y electromagnética se han unificado en la interacción electrodébil94. Hasta ahora el desarrollo teórico más prometedor de la física subatómica es la teoría cuántica de campos (QFT), que combina la mecánica cuántica (QM) con la electrodinámica de Maxwell y la teoría especial de la relatividad de Einstein (SR). Según Penrose dicha teoría cuántica de campos posee una precisión de 1:1011 y goza de un gran alcance explicativo: permite entender, entre otras cosas, el porqué de la estabilidad de los átomos, de las líneas espectrales de la radiación luminosa, de las fuerzas químicas que mantienen unidas a las moléculas y de la radiación del cuerpo negro, además de explicar el funcionamiento de los láseres, de los superconductores y de los superfluídos. Históricamente, la mecánica cuántica surge para dar solución a algunas dificultades de la teoría clásica. Existía un problema teórico ante la coexistencia de dos tipos de objetos inconsistentes entre sí: las partículas del esquema de Newton y el campo electromagnético de Maxwell. Mientras que los campos eran continuos, las partículas eran discretas. Sin embargo, el origen hacia el nuevo desarrollo teórico —fechado el 14 de diciembre de 1900— se encuentra en las investigaciones de Max Planck sobre la 63
radiación del cuerpo negro. Este fenómeno no se podía explicar en el marco de la física clásica. Para resolverlo Planck propuso que las oscilaciones electromagnéticas debían ocurrir en cuantos o pequeños paquetes de energía, determinados por la frecuencia de oscilación. Esto suponía una discretización a muy pequeña escala del campo electromagnético. Einstein hizo suya la nueva idea y propuso que la luz debía estar compuesta de partículas, a pesar de que Maxwell y Hertz ya habían demostrado que la luz consistía en oscilaciones del campo electromagnético. Con el tiempo, los experimentos avalaron ampliamente las dos posturas y la dualidad onda-partícula, que solo se había considerado para el caso de la luz, se generalizó a todas las partículas95. En la naturaleza tenía lugar un mundo consistente en el que partículas y ondas de campo eran la misma cosa96. Sin embargo, la teoría cuántica vigente surgió de dos esquemas posteriores: la «mecánica matricial» de Werner Heisenberg y la «mecánica ondulatoria» de Erwin Schrödinger. Ambos esquemas, que inicialmente parecían muy diferentes, resultaron equivalentes cuando Paul Dirac los englobó en un marco más general. Detengámonos a explicar algunas de las características de este esquema. 2.1. Dualidad onda-corpúsculo El experimento mecano-cuántico más clásico es el de la doble rendija. Para realizarlo se disponen distintos elementos conforme al esquema: una fuente que normalmente emite fotones (cuantos de luz) pero podría emitir partículas con masa (por ejemplo, electrones), la doble rendija y una pantalla.
La manifestación más evidente del comportamiento de la luz como partículas tiene lugar cuando en la pantalla se observa el resultado del experimento con una sola rendija: la luz se recibe en unidades de fotones localizados.
64
Sin embargo, cuando los fotones atraviesan la doble rendija, se observa en la pantalla un patrón de interferencia con zonas más claras y áreas más oscuras. Este patrón, que es significativo de un comportamiento ondulatorio, no solo se observa en experimentos con muchas partículas, sino también cuando los fotones o electrones son lanzados uno a uno. Lo que significa que cada cuanto tiene un comportamiento ondulatorio. Según la terminología acuñada, «atraviesa ambas rendijas a la vez».
Con el objetivo de aclarar este fenómeno se han realizado experimentos en los que se observa por cuál de las dos rendijas pasa el fotón. Para ello se coloca un detector de partículas en alguna de las dos rendijas. El resultado no deja de ser sorprendente. Si el detector —que revela el 50 por 100 de las partículas emitidas— se sitúa junto a una de las rendijas, el patrón de interferencia ondulatorio deja de aparecer en la pantalla; y si se quita, vuelve a aparecer. Además, si se coloca un detector que no es efectivo en el 100 por 100 de los casos, el resultado es intermedio entre el patrón de interferencia y el comportamiento corpuscular: más cercano al patrón de interferencia cuanto menos efectivo sea el detector. Este extraño comportamiento se asocia con la reducción del vector de estado o colapso de función de onda —que veremos más adelante— y se estudia matemáticamente con métodos estadísticos que emplean números complejos. Los diferentes comportamientos de las partículas —si pasa por una rendija u otra...— son calculados mediante amplitudes de probabilidad (similar a la probabilidad normal, pero con números complejos)97. De este modo se consigue una gran precisión de cálculo98, pero queda sin aclarar cuál es la naturaleza última de la partícula-onda. Veamos a 65
continuación las bases teóricas de ese cálculo. 2.2. El proceso de medida Un elemento central de la mecánica cuántica es el principio de indeterminación de Heisenberg99. Según este principio no es posible medir con precisión la posición y el momento de una partícula al mismo tiempo. Es más, existe un límite absoluto para dicha precisión. Cuanto más exacta es la medida de un parámetro, menor es la precisión de medida del otro100. Esta constatación experimental se podría interpretar de distintos modos: la indeterminación es una propiedad de la partícula; o es un problema de medida; o las categorías físicas que se usan no son aplicables a las partículas. Penrose parece que no se adhiere a ninguna de estas interpretaciones, sino que en principio prefiere considerar el estado cuántico de una partícula clásica como un paquete de ondas, tal y como se observa en el esquema de posición (x) y momento (p) para una partícula.
Bajo la descripción de la evolución temporal de una partícula como un paquete de ondas subyace otro elemento clásico de la mecánica cuántica: la ecuación de Schrödinger. En dicha ecuación se muestra cómo evoluciona la función de onda, encargada de describir el estado cuántico de una o varias partículas circunscritas a una zona. Se representa como y(x) donde x es la posición y y es la amplitud de probabilidad (probabilidad en números complejos) de que la partícula esté en x. La ecuación de Schrödinger proporciona por tanto una evolución de la función de onda perfectamente determinada, mientras que el principio de indeterminación de Heisenberg se apoya en probabilidades para obtener los mismos resultados. Ambos elementos se emplean cuando se realiza una medida en el nivel cuántico101. La explicación estándar de la mecánica cuántica establece la existencia de dos procesos distintos en el comportamiento de las ondas-partículas. El primero es un proceso de evolución continuo y determinado, U, gobernado por la ecuación de Schrödinger. El segundo es un proceso puntual e indeterminado, R, que aparece cuando se realiza «una medida» y su función es «amplificar» el resultado de la medida en el nivel cuántico hasta el nivel de la física clásica. En este procedimiento a partir de las amplitudes de probabilidad cuánticas (probabilidad en números complejos) se obtienen probabilidades clásicas para algún parámetro de la partícula. Por tanto, mediante R se introduce la indeterminación y la probabilidad en la teoría cuántica. 66
El primer proceso U determina el comportamiento cuántico ordinario. El segundo proceso R —reducción del vector de estado o colapso de la función de onda— no es determinista y estima la probabilidad de que encontremos un resultado u otro al realizar una medida. Son dos métodos distintos. «En efecto, U es completamente determinista, mientras que R es una ley de probabilista; U mantiene la superposición compleja cuántica, pero R la viola totalmente; U actúa de una forma continua, pero R es descaradamente discontinuo» (Penrose, 1999b: 317). Son las dos mitades del formalismo cuántico y ambas son necesarias para la armonía entre la teoría y los resultados experimentales; pero ¿qué sucede realmente cuando se realiza una medida? Para dar una respuesta hay que considerar que los actos de medida no son neutros: introducen una energía en el sistema. No se puede observar un fotón sin dejar de influir en él. Con esta idea se puede aventurar una explicación del experimento de la doble rejilla, a la luz del proceso U/R. De la fuente surgiría una partícula extendida en el espacio, que se comporta conforme a su función de onda asociada. La partícula extendida atraviesa las dos rendijas a la vez. Cuando llega a la pantalla la función de onda colapsa, porque se hace una medida de la posición. En ese instante no se puede conocer su momento porque se ha situado a la partícula con precisión. En un segundo momento, cuando se pone el detector para realizar una medida, la función de onda colapsa al pasar por donde está del detector. En ese instante se localiza la posición de la partícula como «sí o no, en esta rendija»; y, a partir de ese momento, la partícula se vuelve a propagar en el espacio desde la rendija que ha atravesado, conforme a su nueva función de onda. Cuando llega a la pantalla vuelve a colapsar, pero lo que colapsa es la función de onda nacida después de la medida anterior102. De todo esto no se deduce que la función de onda haya que interpretarla como una onda. Es algo más porque tiene un carácter holístico, no local, muy fuerte. Así que la imagen del paquete de ondas, ayuda a entender, pero «es completamente inadecuada para explicar el comportamiento cuántico tipo partícula» (Penrose, 2006: 692). Para entenderlo puede servir otro experimento. 2.3. Entrelazamiento cuántico y efectos EPR En lugar de usar una barrera con un par de rendijas, supongamos ahora que hay un 67
divisor de haz en el camino de la partícula (un fotón que llega a un «espejo semiplateado»). En ese caso la función de onda se «divide» en dos funciones de onda, cada una con su amplitud asociada103. Si pusiésemos dos detectores en los extremos de las dos nuevas trayectorias (t y r) que puede seguir el haz, la mitad de las veces detectaríamos que el fotón ha llegado a uno de los detectores y la otra mitad de las veces al otro. La función de onda se extiende en esas dos direcciones y colapsa en uno de los detectores.
Penrose prosigue su explicación apoyándose en la prueba de la bomba de ElitzurVaidman. Esta prueba, en su esquema básico, consta de un interferómetro de tipo MachZehnder que tiene un emisor de fotones, dos divisores de haz (los rectángulos blancos delgados), dos espejos (los rectángulos negros delgados) y dos detectores A y B. En el funcionamiento normal del interferómetro todos los fotones emitidos por la fuente llegan al detector A y ninguno al detector B.
Supongamos ahora que al interferómetro se le añade un detector C conectado a una bomba. Interferómetro y bomba se sitúan dentro de un compartimento de modo que no se sepa si el detector C está cortando el haz o no. Con este nuevo esquema, el resultado puede ser triple. En primer lugar, si el fotón se detecta en A, entonces no se puede saber si C está cortando el haz o no. En segundo lugar, si el fotón se detecta en C explota la bomba. Y, por último, si el fotón se detecta en B, entonces el detector C está cortando el 68
haz. La presencia de C modifica la función de onda, hace que la superposición de la función de onda colapse y la partícula defina cuál de las dos trayectorias va a continuar104. Con estos ejemplos se han mostrado algunos de los dilemas de la mecánica cuántica. Sin embargo, en los últimos años se ha enriquecido el conocimiento de la física cuántica y para tener una visión más completa sería interesante profundizar en otros conceptos. Además, estos experimentos no consideran otros fenómenos que aparecen cuando el sistema está formado por más de una partícula: el más característico de los cuales es el entrelazamiento cuántico. Según el entrelazamiento cuántico cualquier sistema de más de una partícula se debería tratar como una unidad holística, ya que dos partículas que en algún momento de su historia hayan estado en o permanecen entrelazadas. Lo que le sucede a una afecta a la otra. Este entrelazamiento conduce a algunos fenómenos enigmáticos entre los que se encuentran los efectos Einstein-Podolski-Rosen (EPR). Los efectos EPR presentan un universo donde todas las partículas están en constante influencia mutua. Según Penrose: Son aspectos bastante sutiles del mundo cuántico muy difíciles de demostrar experimentalmente de un modo convincente. Llama la atención que tengamos que dirigirnos a algo tan esotérico y oculto a la vista cuando, para sistemas de muchas partículas, ¡casi toda la ‘información’ en la función de onda concierne a tales cuestiones! (Penrose, 2006: 784).
El experimento EPR más sencillo se remonta al año 1951105. Su mentor fue David Bohm. En el experimento dos partículas gemelas de espín ½ (PI y PD) se crean a partir de un estado combinado de espín 0 y viajan en direcciones diametralmente opuestas, hacia la derecha y la izquierda106. Al final de cada trayecto hay un detector que mide la dirección en la que está el espín de la partícula. Los detectores están en posiciones distintas y cada par de partículas se crea con una dirección de espín distinta. Además, las partículas de cada par (PI y PD) mantienen entre sí una simetría especular.
Las medidas que se obtienen en los detectores son de sí o no, en función de si el espín —la dirección de giro— de la partícula se alinea mejor con la dirección de medida o con su perpendicular. De este modo, si conocemos las medidas en un detector y la diferencia en el ángulo de medida entre los detectores, se pueden calcular estadísticamente los resultados de las medidas en el otro detector. Así se comprueba si las partículas separadas (PI y PD) se comportan como entidades de tipo clásico, independientes entre sí, o como entidades cuánticas entrelazadas. En el 69
primer caso, el acuerdo o desacuerdo entre las medidas corresponde con los cálculos de la estadística clásica107. Mientras que en el segundo, el resultado estadístico responde a las desigualdades de Bell que están calculadas con base en el principio de indeterminación de Heisenberg. Los resultados de los múltiples experimentos EPR han confirmado sistemáticamente las predicciones estadísticas de la mecánica cuántica. Las dos partículas se comportan como si estuvieran entrelazadas, sin que sea posible una interacción física entre ellas porque se han separado a la velocidad de la luz. Según Penrose, este entrelazamiento cuántico presenta dos misterios completamente distintos, aunque interrelacionados. El primero es cómo interpretar los fenómenos y el segundo es por qué no percibimos con más frecuencia el entrelazamiento si está en todas partes. La mayoría de los autores se han centrado en buscar una explicación al primero (Rosenblum y Kuttner, 2010), mientras que Penrose prefiere poner el acento en el segundo. En los experimentos EPR sucedería algo parecido al colapso de la función de onda para una partícula. La medida en uno de los detectores modificaría el comportamiento en el otro. Lo que induce a pensar en un entrelazamiento universal y en una constante influencia mutua de todas las partículas. «Mi idea es que la propia naturaleza está activando continuamente efectos de procesos R, sin que haya ninguna intención deliberada por parte de un experimentador ni ninguna intervención de un ‘observador consciente’» (Penrose, 2006: 797). Según mi parecer, Penrose considera que en un experimento de laboratorio se crean partículas como si no hubiesen interaccionado con nada. Y después se deja evolucionar la partícula según su función de onda, sin que se influya en ella hasta que se decide hacer la medida. Sin embargo, en la realidad, no se podrían aislar las partículas para observarlas así y los colapsos de la función de onda —reducciones objetivas, según su teoría— serían constantes. En la práctica, la mayoría de los físicos parecen considerar que al realizar estos experimentos, los entrelazamientos previos de las partículas con el mundo exterior pueden ser ignorados, o promediados, sin que influyan en el resultado. Penrose considera que el problema está en la interpretación que se hacen de los resultados. Más que intentar interpretar el formalismo U/R habría que buscar una teoría más completa que supere la aparente dicotomía. La paradoja del proceso de medida sigue siendo un reto explicativo sin solución. Para terminar, en este apartado se ha hablado de crear partículas, pero no se ha explicado cómo se hace. Profundizar en este aspecto supone considerar la influencia que la teoría de la relatividad ha tenido en la mecánica cuántica. De este modo, abandonamos esta parte más especulativa para centrarnos en la imagen que las teorías cuánticas actuales dan del universo. 2.4. Relatividad y cuántica 70
Al inicio del presente capítulo se comentaba la relación de la relatividad especial con la mecánica cuántica pero, hasta ahora, no se ha hecho ninguna alusión a dicha relación. Además, tampoco se ha considerado el comportamiento de las partículas en el espaciotiempo, sino que se ha seguido el enfoque clásico, donde el tiempo se trata de forma diferente al espacio. Las partículas podían estar en distintos lugares del espacio pero todas moviéndose bajo una única coordenada temporal. La cuestión que surge ahora es qué pasaría si la mecánica cuántica se uniese con la relatividad especial o con la relatividad general. La respuesta a la primera pregunta ha dado lugar a las teorías cuánticas de campos (QFT) y la respuesta a la segunda apunta hacia la teoría de la gravedad cuántica (QG). La teoría cuántica de campos supone un giro en lo explicado hasta ahora, ya que se trata de una teoría de campos y no de partículas. Además, al unirse con la relatividad especial, la teoría cuántica de campos exige la existencia de antipartículas. Pero vayamos más despacio. Veamos primero por qué serían necesarias las antipartículas y dejemos para más adelante cómo se acaba llegando a la teoría cuántica de campos. Por la equivalencia entre masa y energía, que se aprecia en la ecuación E = mc2 de la relatividad especial, resulta posible la creación de partículas con masa. Basta con introducir una cantidad de energía suficiente, en una región apropiadamente pequeña y en las condiciones adecuadas, para que se pudiese crear una partícula de la masa correspondiente. Sin embargo, una partícula no solo tiene masa, sino también otras muchas propiedades, como son la carga eléctrica o el espín. Algunas de estas propiedades no se pueden crear simplemente a partir de la energía. Por ejemplo en el caso de la carga eléctrica se violaría la ley de conservación de la carga. De esta dificultad se dedujo la existencia de pares de partículas-antipartículas: se tienen que poder crear partículas a la vez que se conserva la simetría entre las propiedades que no pueden surgir de la energía. Los resultados experimentales han avalado esta intuición y hoy en día se crean pares de partículas-antipartículas108. La existencia de antipartículas ha llevado hacia un nuevo modelo de la física de partículas. De una parte porque existe un potencial para la creación de un número ilimitado de partículas; y de otra, porque en los últimos 80 años se han descubierto nuevas partículas y se ha postulado la existencia de otras. De entre las partículas/campos halladas en los últimos años no todas tienen la misma relevancia. Así por ejemplo, el descubrimiento de los bosones W+, W– y Z0 supuso una de las confirmaciones de la teoría de campos; y el reciente descubrimiento del «bosón de Higgs», al que se considera responsable de las masas que poseen las partículas, ha venido a completar la teoría cuántica de campos en su estructura esencial. En resumen, la teoría cuántica de campos supone un cambio de perspectiva. Ahora las entidades primarias son los campos cuánticos, mientras que las partículas aparecen como «excitaciones de campo»109. Por lo tanto, aunque se siga hablando de partículas —lo que invita a una percepción discreta de la realidad—, los campos parecen el elemento predominante y sugieren una realidad continua. Además, no hay que olvidar que cada 71
partícula nace entrelazada con su antipartícula y, a la vez, no cesa de interaccionar con otras partículas, conforme a las interacciones débil y fuerte, cuya naturaleza se explicará ahora. 2.5. Interacciones débil y fuerte Si la ecuación de Schrödinger se aplica a un fotón da lugar a las ecuaciones de campo de Maxwell; y si se aplica a un electrón da lugar a la ecuación de campo de Dirac. Esta última ecuación, tras ser analizada por Schrödinger en 1930, dio lugar a la predicción de un movimiento oscilatorio ultrarrápido en los electrones libres conocido como zitterbewegung. La hipótesis del zitterbewegung, que es asumida por Penrose, describe el comportamiento de un electrón como si la partícula estuviese compuesta de dos partes sin masa, donde cada una de ellas se está convirtiendo continuamente en la otra. Al no tener masa, esas hipotéticas partes se propagarían a la velocidad de la luz, como se observa en las simulaciones cuando se mide la velocidad puntual de un electrón. Sin embargo, las dos partes juntas producirían un zigzagueo y harían que la velocidad promediada del electrón sea menor que la velocidad de la luz (b). La diferencia entre la parte «zig» y la parte «zag» de la partícula es que el espín en un caso es levógiro y en el otro dextrógiro (a).
El movimiento real [del electrón] está compuesto de un número enorme de tales procesos individuales (de hecho, infinitos de ellos) todos superpuestos, y podemos considerar que el movimiento percibido del electrón es un tipo de «promedio» de aquellos. Incluso esto describe tan solo al electrón libre. Un electrón real estará experimentando continuamente interacciones con otras partículas (tales como los fotones, los cuantos del campo electromagnético). Todos estos procesos de interacción deberían incluirse también en la superposición global (Penrose, 2006: 849).
Esta hipotética visión zigzagueante de las partículas permitiría, según Penrose, explicar un fenómeno de asimetría observado en el comportamiento de la interacción débil. En el proceso de desintegración de una partícula —regido por la interacción débil — se observa que solo se producen interacciones con la parte zig de las partículas, nunca con la zag. Además, dichas interacciones no son puntuales sino que ocurren a través de 72
un campo denominado bosón vectorial. Es decir, el bosón interacciona con la parte zig de la partícula y después da lugar a partes zig de otras partículas. En la imagen se observa el proceso de desintegración de un neutrón que da lugar a un protón, un electrón y un antineutrino. En una fase intermedia previa a la aparición del electrón y el antineutrino aparece un bosón W, que es una de las partículas responsables de la interacción débil.
En la actualidad, estos aspectos hipotético-teóricos han encontrado una buena explicación en la teoría electrodébil de Weinberg, Salam, Ward y Glashow (Weinberg, 1999). Según la interpretación de Penrose de esta teoría, la interacción débil se produciría en la zig levógira de las partículas y en la zag dextrógira de su antipartícula asociada. Solo los componentes zurdos de las partículas y los componentes diestros de las antipartículas participarían en la interacción débil en el modelo estándar. Esto implicaría, por una parte, una ruptura de simetría en la paridad110 y, por otra, que partícula y antipartícula no serían completamente independientes. «Hasta donde se sabe (y según la teoría estándar), cada partícula de la naturaleza tiene una antipartícula» (Penrose, 2006: 857) y se puede considerar la antipartícula como la reflexión espaciotemporal de su partícula asociada. De todos modos, esto constataría pero no explicaría por qué se da en la naturaleza la asimetría en las interacciones débiles. Según la teoría electrodébil la asimetría se debe a que en los primeros instantes del universo se produjo una ruptura espontánea de simetría111. De este proceso surgieron cuatro partículas, tres de ellas con masa (los bosones W+, W– y Z0) y una sin masa (el fotón). Los bosones son los que intervienen en la interacción débil y el fotón en el electromagnetismo. Un aspecto fundamental de esta propuesta de ruptura de simetría es la existencia de una partícula/campo denominada partícula de Higgs, que sería el responsable de asignar la masa a todas las partículas 73
(también a sí mismo). El campo de Higgs sería constante y entraría en o con las demás partículas en las oscilaciones de zigzagueo, de un modo similar a como se representa en el esquema.
Hasta aquí algunas de las características del modelo estándar de la física de partículas. En concreto de la Electrodinámica cuántica (QED) —que es la teoría electromagnética cuantizada y que constituye la parte más precisa de todas las teorías que engloban la teoría cuántica de campos— y de la teoría electrodébil, que amplía el alcance de la QED incluyendo la interacción débil. La otra mitad del modelo sería la que corresponde con la interacción fuerte. A esta mitad se le denomina Cromodinámica cuántica (QCD) y se encuentra en un estadio menos desarrollado. Las partículas básicas de la electrodinámica cuántica (QED) son los fotones, los quarks, los leptones (neutrinos, electrón...), y sus antipartículas. A los que en la teoría electrodébil se añaden los tres bosones intermedios. Mientras que en la cromodinámica cuántica (QCD) las partículas básicas son los quarks y los ocho tipos de gluones. Los quarks se unen entre sí mediante gluones y dan lugar a los hadrones (protones, neutrones...) que son partículas de más masa. Si la interacción débil se asocia con los procesos de desintegración, la interacción fuerte tiene que ver con unión entre partículas. En la actualidad se trabaja en teorías de gran unificación (GUT) que engloben la teoría electrodébil con la interacción fuerte. Sin embargo, no hay ninguna teoría comúnmente aceptada. En el modelo estándar, a pesar de su indudable éxito, todavía existen muchas características no explicadas y en muchas ocasiones se investiga en simetrías previas o simetrías ocultas que se han roto después del big bang. 2.6. Soluciones de tipo «infinito» Después de esta breve e intensa descripción del modelo estándar de la física de 74
partículas es fácil tener la impresión de cierta falta de unidad. Es cierto que la brevedad de este trabajo no permite mostrar muchos aspectos de la teoría y, sin embargo, permanece la sensación de que es una teoría por completar. Aun así eso no ha impedido que la teoría cuántica de campos se haya consolidado como una parte nuclear de la física actual. En este proceso de consolidación ha tenido mucha relevancia la formalización matemática, cuyo objetivo ha sido el de salvar la distancia entre el aspecto continuo y el aspecto discreto del formalismo cuántico. Con los años se han elaborado requisitos teóricos muy rígidos que han permitido depurar la teoría para evitar las soluciones de tipo infinito y predecir de forma sorprendente el comportamiento de las partículas. Una de las primeras contribuciones de la teoría cuántica de campos es el procedimiento de segunda cuantización. Con este procedimiento se intenta convertir la función de onda en un operador creación112. Ese operador es el elemento matemáticoformal que permite crear una nueva partícula con una función de onda determinada. Una vez creada la partícula con su función de onda, se puede estimar su evolución con ayuda de amplitudes de probabilidad. Pero en la teoría cuántica de campos las amplitudes no son números complejos aplicados a partículas discretas sino una densidad de amplitud aplicada a campos continuos. No se trata por tanto de probabilidades discretas entre varias posibilidades sino de un infinito continuo de configuraciones alternativas. Esta diversificación de alternativas que se asocian con la densidad de amplitud, requiere de una técnica de integración conocida como integrales de camino de Feynman o suma de historias. Con esta técnica la superposición lineal compleja no se aplica solo a algunos estados cuánticos específicos sino a historias espaciotemporales enteras. Por tanto en el mundo cuántico no existirían solo algunos caminos concretos posibles, sino una superposición compleja de historias alternativas superpuestas. Este enfoque supone una visión más continua de la realidad. Sin embargo, la aplicación del esquema de Feynman presenta dificultades de divergencia e inestabilidad. Tiende a dar resultados infinitos113. Para paliar este problema surgen técnicas matemáticas de renormalización114 que, sin embargo, no terminan de eliminar ciertas dificultades subyacentes. Debería dejar claro que la compatibilidad entre la teoría cuántica y la relatividad especial que proporciona la teoría cuántica de campos es solo parcial —solo afecta a U— y es sobre todo de naturaleza matemáticamente formal. La dificultad de una interpretación relativísticamente (sic) consistente de los «saltos cuánticos» que ocurren con R, la que nos dejaron los experimentos de tipo EPR, no es ni siquiera esbozada por la teoría cuántica de campos (Penrose, 1999b: 366).
La falta de unidad de las teorías cuánticas, las dicotomías entre el aspecto discreto y continuo del formalismo cuántico y el proceso determinista/estadístico de medida (U/R), entre otros, hacen que Penrose sugiera la necesidad de una nueva física que supere las dicotomías. Por eso, aunque ira los resultados, le parece inadecuado apoyarse en la mecánica cuántica para hacer valoraciones sobre la realidad última. Prefiere apoyarse en el sentido común antes que suscribir la interpretación estándar de la «influencia del observador consciente» en el proceso de medida. Escoge ser cauto y esperar a que la 75
física aporte nuevos datos. Además, percibe que el formalismo cuántico no es adecuado para describir la realidad; o mejor dicho, aunque sea útil y permita obtener resultados, le falta unidad para constituir el tipo de matemática que puede subyacer bajo la realidad física. Una vez dicho esto, dejemos de lado las dificultades con las que se enfrenta la teoría y el formalismo cuántico para detenernos en otro aspecto fundamental de la física como es la asimetría temporal. Para ello se explicará el concepto desde la segunda ley de la termodinámica. 3. Termodinámica y asimetría temporal Las teorías físicas estudian la evolución temporal de los sistemas físicos y normalmente son simétricas respecto al tiempo. Permiten calcular el resultado a partir de las condiciones iniciales y las condiciones iniciales a partir del resultado. Aun así, existen algunos procesos temporales prácticamente irreversibles como son: la reducción del estado cuántico R, algunos aspectos de las singularidades o el comportamiento de algunos sistemas caóticos. Además, es una experiencia común que el tiempo siempre avanza. Aunque las ecuaciones sean reversibles y no exista un tiempo absoluto (debido a la relatividad), lo cierto es que tenemos una percepción asimétrica del tiempo y las ecuaciones físicas se usan conforme a esa percepción. En física, la ley más básica, que supone una generalización para explicar dicha asimetría temporal, es la segunda ley de la termodinámica. Así como la primera ley postula la conservación de la energía —la energía no se crea ni se destruye, sino que se transforma—, la segunda ley niega la disminución de la entropía en un sistema aislado —el calor fluye desde un cuerpo más caliente a otro más frío. 3.1. Entropía en general Para explicar el concepto de entropía y sus implicaciones, Penrose considera el ejemplo de un huevo que rueda por una mesa y cae al suelo. Se trata de un proceso irreversible en la práctica, en el que la energía se conserva, pero la entropía aumenta115. Dicha entropía, a nivel teórico y en términos generales, se puede definir como la medida del desorden manifiesto de un sistema; mientras que a nivel práctico bastaría con señalar que la entropía aumenta en los sistemas irreversibles. Sin embargo, estas explicaciones no son muy científicas116. La primera definición científica de entropía se remite a Boltzmann y expresa bien su aspecto aditivo. Boltzmann se sirve del concepto de espacio de fases para aclarar el concepto de la entropía. En un sistema clásico de n partículas, el espacio de fases es un espacio de 6n dimensiones cuyos puntos representan el conjunto de posiciones y momentos de las n partículas que contiene. Este espacio de fases se divide en subregiones constituidas por conjuntos de puntos cuyos estados son indistinguibles unos 76
de otros mediante observaciones macroscópicas. Es lo que se denomina un granulado grueso. Una vez hecha la división del estado de fases en subregiones de granulado grueso, la entropía de Boltzmann para una subregión es igual a k·log V. Donde k es la constante de Boltzmann y V el volumen de la subregión de granulado grueso donde está contenido el punto del espacio de fases cuya entropía interesa calcular. Esta formulación implica dos cosas. La primera es que si se unen dos sistemas independientes, cada uno con su entropía asociada, el sistema que englobe a ambos sistemas, debido a la relación logarítmica con el volumen del espacio de fases, tendrá una entropía igual (o mayor) que la suma de las entropías propias de cada sistema. Y la segunda es que, según la fórmula de Boltzmann, el aumento de entropía se asocia solo con el aumento del volumen espacial. Sin embargo, según la teoría de la relatividad, lo que aumenta en el universo no es solo el espacio sino el espaciotiempo. Luego la fórmula de Boltzmann, que no es relativista, requerirá de matizaciones. A estas implicaciones derivadas del concepto de entropía se añaden otras derivadas de la segunda ley de la termodinámica. La segunda ley implica que los sistemas provienen de estados con entropía más baja y evolucionan hacia un estado de equilibrio térmico en el que la entropía es máxima (a). Seguir una trayectoria desde el equilibrio térmico hasta la situación actual (b), supondría una disminución de la entropía, que iría contra la segunda ley de la termodinámica. Por tanto la entropía y la aleatoriedad aumentan con el paso del tiempo. Lo que significa que en el pasado la entropía y la aleatoriedad eran menores y en un pasado remoto mínimas.
Además, estas implicaciones, derivadas del concepto de entropía y de la segunda ley de la termodinámica, encuentran un reflejo en los datos experimentales. Así por ejemplo, se observa que el incremento de la entropía global del universo no es solo una consecuencia de la expansión del universo. Sostener la postura contraria encontraría dificultades a la hora de explicar la existencia de agujeros negros, donde la entropía es muy alta y el volumen espacial pequeño. En resumen, estas consideraciones llevan a Penrose al siguiente escenario. Desde el momento inicial del big bang se produce un constante aumento de entropía en el universo. Este aumento de entropía se puede dar de dos modos: conforme se da en los gases (tal y como lo describe la fórmula de Boltzmann) o debido a la acción de la 77
gravedad. En el primer caso, la entropía aumenta cuando los gases se distribuyen por un volumen más amplio (a). Por eso, en un universo en expansión la entropía aumenta. Mientras que en el segundo la entropía aumenta cuando la materia se concentra (b). Por eso, en la actualidad los agujeros negros son los mayores concentradores de entropía. En ambos casos parece que la entropía se relaciona con la configuración del espaciotiempo.
Luego existen algunos contextos donde la entropía tiene características especiales: el del origen del universo, donde la entropía y el volumen es mínimo, y el de los agujeros negros, donde la entropía es alta y el volumen pequeño117. Juntos a estos contextos, Penrose también quiere recordar la especificidad de los seres vivos, quienes desde un punto de vista termodinámico son estructuras muy ordenadas, porque para estar vivos necesitan mantener la entropía dentro de unos niveles bajos. Vamos a ver más detenidamente cada uno de estos tres casos: el origen del universo, los agujeros negros y los seres vivos. 3.2. ... y en particular 3.2.1. Entropía en el big bang La teoría del big bang se remonta al estudio de la ecuación de Einstein en un contexto cosmológico, llevado a cabo por Alexandr Friedmann en 1922 y por George Lemaître en 1927118. Esta propuesta recibió su primer apoyo experimental en 1929 cuando Edwin Hubble observó un desplazamiento al rojo de la luz procedente de las galaxias. Debido al efecto Doppler, esta observación indicaba que las galaxias se estaban alejando entre sí. Y a la vez, los datos concretos que apuntaban a esa expansión del universo también eran compatibles con un universo pequeño en su origen. Sin embargo, el apoyo más sólido para la teoría del big bang se produjo con el descubrimiento de una radiación de fondo que llena el espacio en todas las direcciones observables. Esta radiación («fondo de microondas»), descubierta por Penzias y Wilson en 1965 y predicha por George Gamow en 1948, está considerada como un vestigio del 78
desacoplo entre radiación y materia que tuvo lugar unos 300.000 años después del origen del universo. Su extraordinaria uniformidad (1:105) y sus características térmicas (temperatura de 2,7 grados Kelvin) coindicen apropiadamente con la imagen que se tiene del universo y están bien descritas por los modelos cosmológicos actuales. Además, dicha uniformidad en los instantes iniciales del universo está en el fundamento de la baja entropía del big bang y se asocia con la segunda ley de la termodinámica. Lo veremos más adelante. 3.2.2. Entropía en los agujeros negros Un agujero negro es una región del espaciotiempo, resultado de un colapso gravitatorio de materia, donde la atracción gravitatoria se ha hecho tan fuerte que ni siquiera la luz puede escapar (Penrose, 2006: 951; Thorne, 1995). La fuerza de la gravedad es de tal magnitud, que la velocidad de escape necesaria para salir del agujero negro es superior a la velocidad de la luz. Sin embargo, esta sencilla descripción no se corresponde bien con la complejidad de su proceso de formación. Para que se produzcan los agujeros negros juegan un papel relevante tanto el aumento de la densidad de materia, fruto de la gravedad, como el concepto de presión de degeneración119. Veamos estos aspectos tomando como punto de partida la futura evolución del Sol. Dentro de unos miles de millones de años, la parte exterior del Sol se expandirá hasta formar una gigante roja; mientras que en su interior se irá formando una enana blanca, fruto de la acción gravitatoria. La enana blanca, más densa, atraerá a la gigante roja que le circunda. Con el tiempo se compactará hasta alcanzar un tamaño similar al de la tierra y después se apagará poco a poco. La débil luminosidad de la enana blanca, debida a que solo emite energía térmica almacenada, se ira consumiendo hasta que teóricamente dé lugar a una enana negra. Una enana blanca está compuesta por átomos en estado de plasma. Sin embargo, en su núcleo ya no se producen reacciones termonucleares, como en las estrellas normales, por lo que no dispone de energía que equilibre la acción de la gravedad. A falta de este fenómeno de presión térmica, que evita el colapso gravitatorio de las estrellas normales, las enanas blancas se van comprimiendo. Esa compresión hace que la distancia entre sus átomos disminuya y que los electrones tengan menos espacio para moverse. Con el aumento de la densidad, cobran relieve los límites físicos impuestos por el principio de exclusión de Pauli para los electrones. Estos límites hacen que los electrones se muevan a mucha más velocidad, dando lugar a la presión de degeneración electrónica. Esta presión es la que en las enanas blancas se opone a la gravedad y evita un colapso mayor. Sin embargo, la presión de degeneración electrónica también tiene un límite de resistencia a la gravedad y se estima que para una estrella 1,44 veces mayor que el tamaño del sol, la configuración de enana blanca es solo un estadio intermedio. En el caso de una estrella que contenga aproximadamente entre 1,44 y 2,5 veces la masa solar, el proceso sería similar al de una enana blanca, pero llegaría un momento en que se superaría el límite de densidad y los átomos colapsarían. La acción de la gravedad 79
vencería la presión de degeneración electrónica y la estructura de electrones orbitando alrededor del núcleo ya no se podría soportar: los electrones degenerarían y caerían en los núcleos. En el momento en que se superase el límite y debido a este proceso de ruptura atómica, se liberaría una enorme cantidad de energía y se produciría una gran explosión conocida como supernova. En el centro de la supernova y fruto del colapso atómico aparecería una estrella de neutrones, denominada así debido a la abundancia de estas partículas. La aparición de neutrones se debe a que los electrones caen sobre los núcleos de sus átomos y los protones de los núcleos comienzan un proceso neutronización; es decir, los protones se recombinan con electrones para dar lugar a neutrones. A la vez, por acción de la parte repulsiva de la interacción nuclear fuerte, en los núcleos donde se ha dado la neutronización se produce una división de los núcleos dando lugar a un plasma de neutrones sueltos, característico de las estrellas de neutrones. Por lo tanto, en una estrella de neutrones, la acción de la gravedad es contrarrestada, en parte, por la resistencia que oponen los neutrones a ser degenerados y que es debida al principio de exclusión de Pauli aplicado a los neutrones; y en parte, por la presión ejercida por la parte repulsiva de la interacción nuclear fuerte entre bariones (protones, neutrones y otros fermiones formados por tres quarks). Sin embargo, esta resistencia a la acción de la gravedad también tiene un límite que depende de la masa de la estrella. Si la masa de la estrella fuese 2,5 veces mayor que la masa solar, entonces se produciría un nuevo colapso, al vencerse por la acción gravitatoria tanto la presión de degeneración de los neutrones como la presión de la interacción fuerte, y se formaría un agujero negro. En el centro del agujero negro, a una densidad más elevada, se iría concentrando la materia que va colapsando. A su alrededor y a bastante distancia, se formaría un horizonte de sucesos, que es el límite de no retorno de la luz. En ese horizonte, la velocidad de escape alcanza a la velocidad de la luz y, por eso, todo lo que atraviesa ese horizonte en dirección al agujero negro queda atrapado: se necesitaría una velocidad superior a la velocidad de la luz para poder escapar120. Sin embargo, ya antes de entrar, cualquier sustancia que se aproxime hacia el horizonte de sucesos sufriría intensamente el efecto de marea asociado a la gravedad. «Incluso las partículas individuales de las que está compuesta encontrarían pronto fuerzas de marea tan intensas que las desgarrarían —¿para dar qué?, ¡Nadie lo sabe!» (Penrose, 2006: 958). Durante este proceso que da lugar a los agujeros negros, se produce una constante influencia mutua entre las cuatro interacciones básicas y una progresiva desintegración de las partículas. Por eso, el estudio de este tipo de singularidad es una de las prioridades de la física actual. Se desea conocer algo de lo que sucede en los agujeros negros para desvelar el comportamiento de la materia a escalas subatómicas. Dentro de este esfuerzo, un aspecto llamativo que ya ha sido objeto de estudio es el cálculo de su entropía. La fórmula de la entropía (S) de los agujeros negros, por un lado, se relaciona con la geometría del agujero porque es proporcional al área (A) de su horizonte de sucesos121; y por otro, engloba constantes importantes de la mecánica cuántica, de la gravedad, de la relatividad. En concreto, para el cálculo de la entropía se utilizan la constante de Planck (ħ), la constante gravitatoria de Newton (G), la velocidad de la luz (c) y la constante de 80
Boltzmann (k). Lo que hace de los agujeros negros un interesante objeto de investigación en la búsqueda de una futura teoría que englobe la gravedad con la mecánica cuántica.
Los agujeros negros son los objetos de mayor entropía del universo y resulta sorprendente que, llegando a tener millones de masas solares en tan poco volumen, se puedan describir con apenas diez parámetros (masa, área, posición, velocidad del centro de masas y dirección de giro). Estos datos indican que los agujeros negros constituyen un gran estado macroscópico del espacio de fases; lo que en la fórmula de Boltzmann se corresponde con una altísima entropía. 3.2.3. La baja entropía de los seres vivos Para Penrose, la existencia de seres vivos conscientes y libres, capaces de conocer el mundo, de hacer matemáticas y de obrar libremente es un motivo de iración. Considera que constituyen la mayor singularidad y el mayor reto explicativo para la física: ¿cómo tiene que ser la física para que el universo pueda albergar seres como nosotros?, se preguntará. Dar una respuesta a esta pregunta es una tarea imposible, pero permite introducir en este breve apartado una explicación sobre el modo en que Penrose observa a los seres vivos desde la termodinámica. Es decir, cómo los seres vivos pueden constituir cierta excepción frente al aumento generalizado de entropía postulado por la segunda ley de la termodinámica. El punto de partida termodinámico es que son seres muy estructurados que se pueden considerar como sistemas abiertos capaces de reducir su entropía a costa del ambiente (Kauffman, 2004). La cuestión a resolver es cómo lo consiguen. Es un lugar común considerar que el sol suministra la energía necesaria para la existencia de la vida en la tierra. Sin embargo, para nuestro autor, el aspecto fundamental es cómo se realiza ese suministro de energía. Para que esa energía sea útil, se tiene que aportar en forma de baja entropía y desde un foco caliente sobre un fondo frío122. La Tierra recibe del sol fotones amarillos de alta frecuencia que, según la fórmula de Planck123, contienen más energía; y emite fotones infrarrojos de baja frecuencia que contienen menos energía. El balance de energía recibida-energía emitida tiene que estar en equilibrio para evitar un calentamiento global de la Tierra. Por eso, la cantidad de fotones recibidos —más energéticos— es mucho menor que la cantidad de fotones emitidos. Una cantidad menor de fotones implica una región de volumen menor en el espacio de fases y por tanto una entropía más baja. En resumen, la Tierra recibe una cantidad de energía en forma de pocos fotones con baja entropía y emite la misma cantidad de energía en forma de muchos fotones con alta entropía. En este intercambio las plantas se sirven de la fotosíntesis para reducir su entropía e introducen esa baja entropía en la cadena alimenticia para reducir la entropía del resto de 81
seres vivos. A su vez, la baja entropía del Sol procede de la uniformidad del gas a partir del que se formó, mediante la acción de la gravedad. Por lo tanto, el proceso general sigue siendo de aumento de entropía, aunque el esfuerzo por conservar baja la entropía sea una característica muy especial de los seres vivos en relación al conjunto del universo. Los seres vivos constituyen cierta singularidad dentro de la segunda ley de la termodinámica aunque no la contradicen al tratarse de sistemas abiertos. 3.3. El modelo estándar de cosmología Para terminar este apartado, centrado en el papel de la termodinámica y su relación con la asimetría temporal del universo, convendría hacer una recapitulación de lo que se ha apuntado hasta ahora. En primer lugar se ha explicado cómo entiende Penrose el concepto de entropía y después se han explicado el papel tan singular de la entropía en el big bang, en los agujeros negros y en los seres vivos. Ahora quedaría acudir a la visión que sobre la asimetría temporal nos puede aportar el conjunto de la cosmología. En la actualidad los modelos estándar de cosmología se conocen como modelos Friedmann-Lemaître-Robertson-Walker (FLRW)124. Sus inicios se remontan a la teoría del big bang, que postulaba un universo en expansión y pequeño en su origen. Esta teoría tuvo que abrirse paso frente a la teoría del estado estacionario125, pero no tardó en encontrarse bien apoyada por los datos experimentales. La teoría del big bang, además de tener en cuenta las contribuciones de la relatividad general, también consideraba que el espacio es esencialmente homogéneo e isótropo126. Esta percepción se ajusta con las observaciones a gran escala de la distribución de galaxias y con la naturaleza del fondo de microondas. De tal modo que en la actualidad todos los modelos FLRW aceptan como base común que el espacio es homogéneo e isótropo, que el universo está en expansión y que comenzó en una singularidad donde las condiciones eran muy diferentes de las condiciones actuales. A partir de ahí las teorías divergen en función del valor de la curvatura espacial (K) y del valor de la constante cosmológica (L)127. Si la constante cosmológica fuese nula, se podrían definir tres tipos de universo en función de la curvatura espacial. Si K es positiva, tras la expansión de universo, se produciría una contracción, con una singularidad final denominada big crunch. Si K es nula se llegaría a un estado de equilibrio donde el universo no crecería más. Y si K es negativa, la expansión alcanzaría un ritmo casi constante de crecimiento. En la actualidad estas posturas básicas no son apoyadas por la mayoría de los científicos. Los últimos datos observacionales parecen apuntar a que el universo es esencialmente plano y a que sufre una expansión acelerada. Estos datos supondrían que el espacio tiene curvatura (K) nula o casi nula y confirmarían la existencia de una constante cosmológica (L) positiva, pequeña pero distinta de cero. Por último, el descubrimiento, relativamente reciente, de conceptos como materia oscura o energía oscura, sobre los que se sabe muy poco, podrían modificar en breve la comprensión del proceso de expansión acelerada observado en el universo128. Aun así constatar la expansión del universo no supone que se esté explicando el 82
porqué. Queda saber la razón por la cual el universo se expande y la entropía aumenta. Lo difícil es determinar cuál es la causa de esos efectos. Dicha causa, según Penrose, se debe buscar en las extraordinarias condiciones iniciales del big bang, entre las que se encuentra la baja entropía inicial. Nuestro autor comparte la opinión mayoritaria de que se trataba de un big bang caliente, en el que durante los instantes iniciales se daba un «equilibrio térmico». En esas condiciones la entropía del sistema era pequeña debido a las reducidas dimensiones del universo, pero era la máxima que el sistema podía tener, debido a que se encontraba en equilibrio térmico. En ese equilibrio térmico el aumento de entropía parecería que solo se podría dar mediante la expansión (como sucede con los gases). Sin embargo, para Penrose hay otro dato fundamental: y es que la entropía también aumenta por acción de la gravedad. Nuestro autor conjetura que en esas condiciones iniciales los grados de libertad de la gravedad no estaban termalizados, es decir, no estaban en equilibrio térmico junto con el resto de campos. Esos grados de libertad fueron desatándose en los instantes iniciales y abrieron el cauce fundamental para el aumento de la entropía y para la expansión del universo. La gravedad parece tener un estatus muy especial, diferente del de cualquier otro campo. En lugar de compartir la termalización que en el universo primitivo se aplica a todos los demás campos, la gravedad permaneció aparte, con sus grados de libertad a la espera, de modo que la segunda ley entraría en juego a medida que estos grados de libertad empiezan a asumirse. Esto no solo nos da una segunda ley [cualquiera], sino que nos da una [segunda ley] de la forma concreta que observamos en la naturaleza. ¡La gravedad parece haber sido diferente! (Penrose, 2006: 981).
Esta parece ser la tesis fundamental de Penrose: la gravedad está en la base de la expansión del universo, define su dinamismo. La segunda ley entraría en juego conforme se asumen los grados de libertad de la gravedad y estaría en la base de la asimetría temporal. En último término remitiría a la geometría espaciotemporal o más bien a algún elemento sutil que todavía no conocemos. Esta postura distancia a nuestro autor de la opinión común de los cosmólogos. Le lleva a considerar la teoría de la inflación129 como incompleta —a pesar de reconocer que goza de buenas confirmaciones experimentales— y a presentar como alternativa la hipótesis de curvatura de Weyl junto con una nueva visión del universo denominada cosmología cíclica conforme130. Sin embargo, en el presente libro, no deseo detenerme en estos aspectos más especulativos de las teorías de Penrose. Se ha explicado lo suficiente para observar los aciertos y algunas lagunas del paradigma actual, así como la necesidad de apuntar hacia un nuevo paradigma que ayude a resolver algunos de los problemas encontrados. En resumen, a lo largo del presente capítulo se ha manifestado la preponderancia que la gravedad y las teorías de la relatividad tienen para Penrose en la comprensión del universo. El comportamiento de la gravedad y su relación con la geometría espaciotemporal estaría en la base del dinamismo del universo. Además, la mecánica cuántica necesitaría un nuevo formalismo matemático —y por tanto una reelaboración teórica— que supere las dicotomías y sea más acorde con la realidad última de la materia; un nuevo formalismo que le podría venir de su integración con la gravedad. 83
Aun así permanece la dificultad de comprender un universo cuya materialidad parece discreta mientras que su movimiento parece continuo. Se necesita un nuevo enfoque que unifique los elementos conocidos por la física actual. Esta crítica, que se apoya en los datos físicos y apunta hacia nuevas teorías como la gravedad cuántica, se completa en Penrose con una crítica matemática al paradigma actual. Es lógico que sea así, ya que para Penrose matemáticas y física se encuentran íntimamente entrelazados. Desde dentro de su esquema de los tres mundos Penrose se pregunta cómo debe ser el mundo físico y las matemáticas que subyacen en él para para que el universo pueda albergar seres conscientes y libres, capaces de conocer (las matemáticas, el mundo físico y a sí mismos) y capaces de obrar conforme a su libertad. Buscando una respuesta, en el siguiente capítulo consideraré la crítica matemática que Penrose hace para subrayar la necesidad de una nueva física. Esa nueva física debería ayudarnos a comprender el enigma de la existencia de seres conscientes y libres en el universo. 72 En física es frecuente aludir a estas teorías mediante sus abreviaturas en inglés: quantum theory (QT) o quantum mechanics (QM), special relativity (SR), general relativity (GR), y quantum field theory (QFT). «We can think of these four theories as being characterized by the fundamental roles of the three basic constants of Nature: Newton’s gravitational constant G, the velocity of light c, taken in reciprocal form c–1, and Dirac’s form of Planck’s constant ħ. When G, c–1, and ħ are taken to be all zero, we obtain Galilean-Newtonian physics (with the gravitational field represented as just another force). Special relativity is characterized by c–1 being a nonzero finite constant quantity, but G and ħ being put to zero. Einstein’s general relativity comes about when both c–1 and G are nonzero constants but still ħ = 0, where the driving physical idea is the fundamental principle of equivalence between the effects of acceleration and of a uniform gravitational field. (...) Quantum theory is characterized by the presence of the fundamental nonzero constant ħ, but G = c–1 = 0, whereas for quantum field theory we have nonzero constants ħ and c–1, but still G = 0» (Penrose, 2000a: 221). 73 Actualmente los datos experimentales indican que la teoría más precisa es la relatividad general. Según Penrose (1999a, 31), la relatividad general tiene una precisión de 1:1014, como mínimo, ya que dicho error parece debido a los sistemas de medida. Esta precisión, 1.000 veces superior a la precisión de la teoría cuántica de campos, se apoya en fuertes evidencias observacionales. La más importante se remonta a 1974. En ese año se descubrió el pulsar binario Hulse-Taylor (PSR 1913 + 16). Este pulsar está constituido por un par de estrellas de neutrones que giran en órbitas elípticas alrededor del centro común de masas. Una de ellas emite una pulsación cada 59 m. Desde que el sistema binario fue descubierto, su órbita ha ido disminuyendo con la precisión indicada y a un ritmo acorde con la pérdida de energía debida a la emisión de ondas gravitacionales, predichas por la relatividad general. Esta fuerte evidencia indirecta de la existencia de ondas gravitacionales supone la mayor confirmación de la relatividad general y ha abierto nuevas perspectivas de investigación. A día de hoy, hay en marcha varios proyectos de detección directa de las ondas gravitacionales. 74 Para la explicación de este apartado se ha seguido sustancialmente Penrose, 1999a: 18-31; 1999b: 248-278 y 2006: 526-632. También se puede consultar una aproximación accesible y completa a las teorías de la relatividad en Russell, 2009. 75 Para una profundización histórico-filosófica sobre el espacio-tiempo se puede leer «Los marcos de referencia» en Arana, 2001. 76 El principio de equivalencia de Galileo se puede formular como: «El movimiento de cualquier partícula de prueba en caída libre es independiente de su composición y estructura». Y en términos de Einstein: «El resultado de cualquier experimento no gravitacional en un laboratorio desplazándose en un sistema de referencia inercial es independiente de la velocidad del laboratorio o de su localización en el espacio-tiempo». 77 Retrotraer el concepto de inercia a Galileo sería anacrónico. Penrose no lo hace explícitamente pero, al unir la interpretación de Galileo del principio de equivalencia con la de Newton, lo da a entender. Por otro lado, para Luis J. Boya (comunicación escrita al autor) no es verdad que el principio de equivalencia sea un antecedente de la
84
Relatividad Especial. Se encuentra ya en Galileo y en Newton, pero ellos no sacaron la consecuencia que sacó Einstein en la Relatividad General: que la fuerza de gravitación acabará siendo una fuerza de carácter puramente geométrico. El principio de equivalencia hace referencia a lo que, dentro de un campo gravitatorio dado, se mueve con aceleración constante. Mientras que el movimiento gravitatorio es una propiedad del espacio, describible geométricamente. 78 Newton consideraba toda la masa de un objeto como concentrada en un punto, mientras que estos dos efectos son debidos a la geometría de los objetos y a la distribución de su masa en un espacio. 79 Si el objeto fuese una esfera daría lugar a un elipsoide prolato de revolución. 80 El espacio de Minkowski se inventó posteriormente para explicar, o modelar geométricamente, cómo es posible una velocidad máxima en la cinemática. Sin embargo, dado el platonismo matemático de Penrose, no es extraño que escoja el objeto matemático como punto de partida para explicar la realidad. 81 En la mecánica newtoniana tanto el tiempo como la distancia entre dos puntos se consideran invariantes, aunque cambie el marco de referencia inercial. Esto se corresponde con la métrica de un espacio euclídeo. Mientras que en la relatividad especial lo invariante no es el espacio o el tiempo sino la velocidad máxima de propagación. Esto implica la existencia de un nuevo tipo de espacio, que es el espacio mikowskiano donde el invariante es la velocidad de la luz y la métrica que lo rige es una métrica lorentziana, no euclídea. En el espacio euclídeo, ds2 = (dx)2 + (dy)2 + (dz)2 y dst = dt son invariantes. Mientras que en el espacio de Minkowski lo invariante es ds2 = (dx)2 + (dy)2 + (dz)2 – (cdt)2, donde c es la velocidad máxima de propagación. 82 Esto sucedería si los conos de Minkowski siguieran una geometría clásica (euclídea), en la que un plano y su perpendicular se mueven en el mismo sentido (a).
Sin embargo, el cono de Minkowski se rige por una ortogonalidad lorentziana. En esta, un plano y su vector perpendicular se mueven en sentidos contrarios (b). De este modo, cuando se inclina el vector hacia un lado, el plano se acerca a él y se juntan a 45º de inclinación (c). Por eso, los conos de Minkowski se suelen representar con pendientes de 45º. En el esquema, aunque resulte contra-intuitivo, tanto en (b) como en (c) se conserva la perpendicularidad; lo que cambia es la geometría. 83 Intuitivamente se podría considerar que, en un espaciotiempo esencialmente dinámico, el tiempo sería medida de la estabilidad. Transcurre más rápido para los objetos que se mueven más lento. 84 Aunque parezca contraintuitivo estos datos se han verificado muchas veces desde 1971, cuando Hafele y Keating realizaron un experimento con la ayuda de aviones y relojes atómicos de cesio. El experimento consistió en dar la vuelta al mundo en vuelos comerciales de larga distancia, primero en dirección Este y después en dirección Oeste, llevando a bordo un conjunto de relojes atómicos. Después, las medidas que realizaron los relojes viajeros se compararon con las de otro grupo de relojes atómicos que permanecieron en el Observatorio Naval de los Estados Unidos. Al final, descontando la influencia de otros posibles efectos, el desacuerdo entre los distintos grupos de relojes era consistente con la teoría de la relatividad. 85 Algunos físicos, como Luis J. Boya (comunicación escrita al autor), disienten de esta afirmación. Entender la relatividad especial como una teoría sobre el espacio-tiempo sería la construcción de Minkowski para explicar por qué hay una velocidad máxima de propagación. 86 La relatividad especial no solo depende de los postulados de Einstein, sino que también asume condiciones de isotropía y homogeneidad en el espaciotiempo. 87 Algunos autores han resaltado el impacto filosófico que supone la transformación radical de los conceptos físicos clásicos llevada a cabo por la relatividad: «Los conceptos clásicos de espacio, tiempo, materia, movimiento, energía y causalidad se han transformado radicalmente de poco tiempo a esta parte; aunque las palabras utilizadas por los físicos contemporáneos son las mismas, sus connotaciones son totalmente distintas de las de sus equivalentes clásicos. Apenas hay similitud entre la ‘materia’ de la física moderna y la sustancia
85
material tradicional del período clásico, e igual sucede, en diferentes grados, con otros conceptos» (Čapek, 1973: 13). Con la nueva teoría se han consolidado unos conceptos físicos nuevos. Sin embargo, también recientemente el nuevo concepto de masa relativista ha sido reemplazado por el concepto de masa en reposo. Aun así se puede considerar que la ciencia transita dentro del mismo paradigma, porque no se han introducido cambios de significado en otros conceptos (Vargas, 2009). 88 En este punto me gustaría señalar que este es el modo de ver de Penrose o Einstein, pero no el de muchos autores más familiarizados con la mecánica cuántica. Por ejemplo, para Luis J. Boya (comunicación escrita al autor) la Relatividad General no es la evolución natural de la Relatividad Especial, aunque fue así históricamente e incluso Einstein la presentó de ese modo al principio. La Teoría Especial de la Relatividad es un sine qua non de toda teoría física, cuyo postulado esencial es que la velocidad de la luz es un límite inalcanzable de cualquier interacción en física. Mientras que la Relatividad General es una teoría de la gravedad, que no afecta, sino muy indirectamente, a las otras interacciones físicas. Además, es incompatible con la Teoría Cuántica. 89 Einstein consideraba las singularidades como defectos de la teoría, y nunca aceptó el concepto de agujero negro, del que hoy día no se duda. El término «agujero negro» es acuñado en 1965 por John Wheeler. Aunque las primeras suposiciones son de Oppenheimer y Snyder, en torno a 1938. 90 Una singularidad del espaciotiempo es un lugar donde no se cumplen las leyes físicas conocidas. Más precisamente: «A spacetime is singular if it is timelike or null geodesically incomplete but cannot be embedded in a larger spacetime» (Hawking y Penrose, 2010: 18). 91 «These theorems had three kinds of conditions. First there was an energy condition such as the weak, strong, or generic energy conditions. Then there was some global condition on the causal structure such as that there shouldn’t be any closed t melike curves. And finally, there was some condition that gravity was so strong in some region that nothing could escape» (Hawking y Penrose, 2010: 18-19). 92 «[The theorems, that Roger and I proved] showed that, according to general relativity, there should be a singularity in our past. At this singularity the field equations could not be defined. Thus classical general relativity brings about its own downfall: it predicts that it can’t predict the universe. (...) If the laws of physics break down at singularities, they could break down anywhere. The only way to have a scientific theory is if the laws of physics hold everywhere, including at the beginning of the universe» (Hawking y Penrose, 2010: 54). 93 Una vez más este es el enfoque de Penrose. Desde otro ángulo se podría decir que el espacio-tiempo no está necesariamente surcado por las ondas gravitacionales (aunque su existencia es una predicción aun no verificada de la teoría), de la misma manera que el espacio dominado por el electromagnetismo no tiene necesariamente que estar surcado de ondas electromagnéticas. 94 En las teorías de la relatividad las interacciones fundamentales que están implicadas son la gravitatoria y la electromagnética. 95 Louis De Broglie combinó la ecuación de Einstein E = mc2 con la de Planck E = hν. De este modo, cualquier partícula que oscilase con alguna frecuencia ν, solo podría existir en unidades discretas de masa m = hν/c2. 96 Para Penrose esos datos experimentales apuntan hacia un mundo constituido por algún ingrediente del que partícula y onda son imágenes sugerentes pero parcialmente inapropiadas (Penrose, 1999b: 293). 97 Un número complejo está compuesto por la suma de un número real con un número imaginario. Este número imaginario es un múltiplo de la unidad imaginaria, que se representa con la letra «i» y es igual a la raíz cuadrada de –1. Un número complejo tiene la forma z = a + bi. Luego para obtener una probabilidad real a partir de las amplitudes hay que calcular el cuadrado del módulo. Es decir |z|2, que es igual a a2 + b2. De este modo se elimina la parte imaginaria del número complejo. 98 Para Penrose los números complejos están en el fundamento de la mecánica cuántica, no solo como una herramienta útil, sino quizá como el sustrato más fundamental de la realidad. 99 El principio de indeterminación de Heisenberg no crea indeterminación sobre la localización, el momento... de una partícula, sino que permite conocer esos datos y saber la precisión con que los podemos estimar. 100 Dx · Dp ≥ ħ/2. Hay también una limitación análoga entre el tiempo y la energía: Dt · DE ≥ ħ/2. 101 Por tanto, no hay una contraposición entre el principio de indeterminación de Heisenberg y la ecuación de ondas de Schrödinger. La conexión entre ambos se entiende mejor si se acude a la definición matemática de la varianza de los observables (Dx, Dp, Dt, DE...). Esta varianza se define, de modo preciso, como la desigualdad del producto de las varianzas de los operadores conjugados. 102 La explicación que estoy siguiendo se puede englobar en una de las interpretaciones estándar que Penrose expone en sus libros y denomina decoherencia por el entorno. Sin embargo, él tiene su propia interpretación que
86
denomina «OR» (objective reduction): Reducción objetiva del vector de estado (Penrose, 2006: 1049-1092). 103 Más que una división, en la función de onda se da una superposición lineal de estados cuánticos, un estar en dos o más lugares a la vez, cada uno de ellos con su peso probabilístico complejo asociado. En teoría podría ocurrir lo mismo en complicados sistemas de muchas partículas. «¿Por qué, entonces, no tenemos experiencia de que cuerpos macroscópicos, digamos bolas de cricket, o incluso personas, tengan dos localizaciones completamente diferentes al mismo tiempo? Esta es una cuestión profunda y la teoría cuántica actual no nos proporciona una respuesta realmente satisfactoria» (Penrose, 1999b: 325). 104 Quizá con otro ejemplo se entienda mejor. Supongamos que un coche se incorpora a una autovía por el carril de la derecha. Se desplaza ocupando indistintamente los dos carriles, sin que sepamos cuál. Si todo es normal, al final llegará a su «destino A», que está en la próxima intersección, usando el carril de la derecha. Sin embargo, supongamos ahora que antes de llegar a su destino han hecho un trazado nuevo de la carretera, que es desconocido para el conductor y que está sin señalizar. La autovía se bifurca en dos y el conductor no sabe qué dirección tomar. Si escoge una de las salidas llega inmediatamente al «destino C». Y si escoge el otro camino llega a otra bifurcación que también es desconocida para el conductor. El resultado es que el carril de la derecha le lleva al «destino A» mientras que el carril de la izquierda le lleva al «destino B». En este ejemplo las «llegadas a un destino» y las «tomas de decisiones» se asocian con el colapso de la función de onda. Que el coche ocupe indistintamente todos los carriles posibles es la función de onda. Pero, tras la toma de una decisión, hay algunos carriles que no puede ocupar. Este tipo de comportamientos están en la base de la teleportación cuántica y de la transmisión de información a grandes distancias sin soporte físico. No es el objeto del presente trabajo explicar este comportamiento físico, ni cómo se podría llevar a cabo. Basta con observar que, cuando se activa, el detector B posee una información sobre el detector C. 105 Como experimento pensado el experimento EPR es de 1935. Y desde su primera realización en 1951 se han repetido con múltiples variantes, incluso con moléculas de decenas de átomos. 106 El espín es una propiedad física de las partículas subatómicas, como la masa o la carga eléctrica. Se puede entender —aunque es solo una imagen— como el momento angular debido a la rotación de la partícula en torno a su eje. Cada partícula elemental tiene un espín de valor fijo, que está cuantizado en múltiplos enteros de ħ/2. De tal modo que los fermiones tienen espines semienteros (ħ/2, 3ħ/2, 5ħ/2...) y los bosones espines enteros (0, ħ, 2ħ, 4ħ...). 107 Si el ángulo entre los detectores fuese θ, entonces el acuerdo (sí-sí, no-no) sería de (1 – cos θ)/2 y el desacuerdo (sí-no, no-sí) sería de (1 + cos θ)/2. 108 Como la antipartícula posee la misma masa en reposo que la partícula, la energía que se debe aplicar es por lo menos el doble de la que se esperaría para una sola partícula. En cuanto al resto de cantidades, como la carga, muchas se anulan cuando se suman: son positivas en la partícula y negativas en la antipartícula. Además, si una partícula choca con su antipartícula es posible que se aniquilen mutuamente y se libere una energía igual o superior a la correspondiente con sus masas en reposo, ya que tendrán una energía cinética del movimiento relativo entre ambas. 109 No es el único modo de considerar la teoría cuántica de campos. Feynman, por ejemplo, adopta una fuerte perspectiva «tipo partícula» (Feynman, 1985). 110 En física una transformación o inversión de paridad es un cambio simultáneo en el signo de todas las coordenadas espaciales. La paridad se conserva para las interacciones gravitatoria, electromagnética y nuclear fuerte. Por eso, se dice que todas estas fuerzas son simétricas respecto a la paridad. La única que no es simétrica es la fuerza nuclear débil. 111 Un ejemplo clásico de ruptura simetría es el del hierro, que tiene un comportamiento paramagnético hasta la temperatura de Curie (768ºC). Por debajo de esa temperatura los momentos magnéticos de los átomos se acoplan entre sí —se orientan conforme al campo magnético— y pasan a tener un comportamiento ferromagnético. Mientras que los materiales paramagnéticos simplemente son atraídos por imanes, los materiales ferromagnéticos, además, se convierten ellos mismos en imanes. Muchas veces se representa la idea de ruptura de simetría con la imagen de una canica encima de un sombrero mejicano. Su situación es inestable y la simetría se rompe en una de las múltiples direcciones posibles. A partir de entonces queda fijada.
87
112 De modo análogo pueden existir operadores aniquilación. 113 El principio de indeterminación de Heisenberg ayuda a comprender que estas divergencias se producen cuando en los pares momento-espacio y energía-tiempo uno de los factores se hace muy grande o muy pequeño. 114 «La predominancia de infinitos en las QFT no es algo ‘malo’ en absoluto, sino que es una característica que puede volverse poderosamente en nuestro favor. Muy pocas teorías superan el test de la renormabilidad, y solo aquellas que sí lo superan tienen una oportunidad de ser consideradas aceptables para la física» (Penrose, 2006: 911). La renormabilidad funciona bien para la electrodinámica cuántica y con un poco más de dificultad para la cromodinámica cuántica. En la cromodinámica se aprovecha la libertad asintótica de la fuerza fuerte, que desaparece cuando el momento es muy grande y la distancia muy pequeña. A este fenómeno se denomina confinamiento y funciona de modo análogo a una goma elástica: cuando la distancia se hace cero, la fuerza desaparece. Es justo lo contrario que sucede con la gravedad o el electromagnetismo, que aumentan cuando disminuye la distancia. 115 Más adelante se explicará cómo la entropía puede disminuir localmente, al surgir estructuras organizadas como los seres vivos. Pero, en términos generales y a nivel macroscópico, la entropía aumenta. 116 Para Penrose la entropía, aunque resulta muy útil y conveniente, no es una noción «fundamental» de la física actual. Opina que cuando se profundice en la mecánica cuántica y en la entropía de los agujeros negros quizá adquiera un estatus más relevante (Penrose, 2006: 930-931). 117 Con relación a la diferencia entre los agujeros negros y la singularidad inicial, Penrose explica que en la singularidad inicial el tensor de Weyl es prácticamente nulo y el tensor de Ricci tiende a infinito, mientras que en un agujero negro, el tensor de Ricci se aproxima a cero y el tensor de Weyl a infinito. Para entender estos dos conceptos matemáticos, se puede acudir a los efectos de marea (asociado al tensor de Weyl) y de reducción de volumen (asociado al tensor de Ricci) explicados con anterioridad. De este modo, en la singularidad inicial el efecto predominante sería la reducción de volumen, mientras que en los agujeros negros predominarían los efectos de marea. Así, el aumento de entropía se relacionaría con la divergencia del tensor de Weyl, debido al aumento de la distorsión y la aleatoriedad por la acción gravitatoria, como sucede en los agujeros negros (Penrose, 2006: 1026-1030). 118 La contribución de Lemaître a la teoría del big bang no ha sido siempre valorada en su justa magnitud. De hecho el mismo Penrose no habla de él en sus primeros ensayos científicos, aunque sí en los últimos. Se puede leer una breve biografía en (Riaza y Sols Lucia, 2010). 119 La presión de degeneración tiene que ver con el principio de exclusión de Pauli, que impide que dos o más fermiones (electrones, quarks...) estén en el mismo estado cuántico. 120 Normalmente, alrededor del agujero negro se forma una espiral de luz, que se llama disco de acreción y que tiene una intensidad luminosa muy elevada. Por eso, aunque los agujeros negros no se ven, se pueden detectar debido a la densidad de su masa y al disco de acreción. El disco de acreción puede tener una estructura similar a las galaxias. También en el centro de las galaxias se piensa que existen agujeros negros muy masivos. El agujero negro de la Vía Láctea tendría una masa 3 millones de veces superior a la del Sol. 121 El área del horizonte de sucesos de un agujero negro es aproximadamente el área de una esfera de radio proporcional a la masa contenida. Esto significa que, cuando dos agujeros negros se unen, mientras que la masa resultante es igual a la suma de masas, la entropía resultante es mucho mayor que si esos dos agujeros negros estuvieran por separado, porque al área del horizonte de sucesos (y por tanto la entropía) es proporcional al cuadrado del radio. Los agujeros negros incrementan mucho la entropía global del universo. 122 En la introducción a una edición de What is life? Penrose reconoce la influencia que Schrödinger ha tenido en esta comprensión suya del papel de la entropía en los seres vivos (Schrödinger, 2000: xi y xx). 123 La energía es igual a la constante de Planck por la frecuencia. Cuanto mayor es la frecuencia de oscilación
88
de un fotón, mayor es la cantidad de energía de la que es portador. 124 Los modelos FLRW engloban todo el desarrollo espacio temporal cosmológico, desde la singularidad inicial hasta el final del universo. Por tanto son más amplios que el big bang. 125 Fred Hoyle, uno de los promotores de la teoría del estado estacionario, fue quien —en 1949 y durante un programa en la BBC— calificó de simple big bang (gran explosión) a la nueva teoría. 126 Que sea isótropo significa que el universo parece igual en todas las direcciones y que sea homogéneo significa que parece igual en cada punto del espaciotiempo, es decir en cualquier lugar y en cualquier instante. En realidad se sabe que esa isotropía no es exacta, debido a la existencia de galaxias, cúmulos... pero también se observa que la isotropía es más perfecta cuando se observa a más distancia. Es algo parecido a lo que sucede en la superficie de una mesa. Si se mira desde lejos parece lisa, pero a corta distancia se aprecian las rugosidades. 127 La constante cosmológica fue propuesta inicialmente por Einstein para garantizar un universo estacionario y rechazada posteriormente como su mayor error. Sin embargo, como reconoce Penrose (2006: 1035), los datos más recientes de la cosmología parecen implicar que la constante cosmológica no es nula, aunque tenga un valor pequeño. 128 Como apunta Hawking: «On the observational side there is, at least, agreement between us [Penrose and Hawking] about which new development has been the most exciting and important. This originated with the observations of distant super-novae, in 1998, by the two teams headed, respectively, by Brian P. Schmidt and by Saul Perlmutter, where these and subsequent observations have provided very strong evidence for the surprising apparent fact that the expansion of the universe is accelerating. The simplest explanation (which Roger is happy with) is that there is a small positive cosmological constant in Einstein’s equations (as Einstein himself suggested in 1917, though with later strong reservations); other explanations involve some mysterious “dark energy”, which might have some other basis. In any case, this new ingredient adds to the effective overall density of the universe, which, together with the predominant “dark matter” —whose exact nature is also mysterious but whose genuine presence seems to be convincingly confirmed by gravitational lensing observations of galaxy collisions— leads to a picture in which the overall spatial geometry is very close to flat» (Hawking y Penrose, 2010: 93-94). 129 La inflación cósmica es un conjunto de propuestas en el marco de la física teórica para explicar la expansión ultrarrápida del universo en los instantes iniciales y para determinar por qué el Universo parece estadísticamente homogéneo e isótropo. Fue propuesta inicialmente por el físico y cosmólogo estadounidense Alan Guth en 1980 y, en su configuración actual, aunque se desconoce cuál es el mecanismo de la inflación, la partícula o campo elemental responsable se denomina inflatón. Las propuestas inflacionarias han proporcionado algunas predicciones que se han confirmado mediante pruebas observacionales. Por eso, la mayoría de la comunidad científica considera esta teoría como parte del modelo cosmológico estándar del Big Bang. 130 Los elementos centrales de ambas posturas —inflación y las hipótesis alternativas de Penrose— son descritos por Hawking: «Observational for inflation comes partly from detailed results obtained by the WMAP satellite (...). for inflation has also come from the fact that a spatially flat universe has long been a prediction of inflationary cosmology, and the observations have only comparatively recently moved rather convincingly in that direction. Roger, however, remains skeptical, since inflation cannot by itself explain the extraordinary uniformity of the universe in its very early stages. This is a very special state, providing a gravitationally extremely low-entropy situation, giving a basis for the second law of thermodynamics —for which kind of purpose Roger introduced the Weyl curvature hypothesis. (...) »A more striking piece of observational for inflation that has become firmer in recent years is the presence of correlations in the cosmic microwave (2.7K) background radiation, of a kind which would lie outside possible causal influence in the standard (noninflationary) big-bang cosmological model, but where inflation brings these distant events to within causal . Roger still remains skeptical, however, and has recently proposed an alternative resolution of this issue (and of the various other puzzles, including an underlying rationale for WCH). This is a cosmological scheme (conformal cyclic cosmology, or CCC) in which there is no inflation in the very early universe, but where the point of view of conformal geometry allows the conformal geometry of the very remote future of a universe model with positive cosmological constant to be ed smoothly to the big bang of a subsequent universe model. This allows the combined (conformal space-time) universe model to go through a succession of ‘aeons’, each of which starts with a big bang and ‘ends’ with an indefinitely accelerating expansion» (Hawking y Penrose, 2010: 94-96).
89
Capítulo IV El origen del problema El esquema de los tres mundos de Penrose muestra las dificultades que existen para explicar el entrelazamiento entre lo matemático, lo físico y lo mental. Dicho entrelazamiento es calificado como misterioso por Penrose, tanto en las relaciones entre los tres mundos como en la entidad de cada mundo. Los tres mundos de Penrose tienen características epistemológicas y ontológicas propias, porque manifiestan distintos tipos de existencia de la realidad. Y a la vez, existe un misterio más profundo que subyace en todo el esquema: cómo tres existencias distintas constituyen la única realidad. Este misterio no tiene una solución fácil y remite al problema clásico, ampliamente estudiado, entre la unidad y la multiplicidad de la realidad. Para el objeto del presente trabajo y por el momento, bastará con apuntar algunas consideraciones generales al respecto. Cuando los tres mundos se estudian independientemente prevalece la inclinación a separarlos, mientras que cuando se busca una comprensión global de la realidad se intenta corregir esa inclinación. Incidir sobre la autonomía propia de cada mundo resulta con frecuencia insatisfactorio, porque son más las dificultades que se plantean que las cuestiones que se resuelven. Además, el propio desarrollo de la actividad científica resalta el entrelazamiento entre las matemáticas, la física y la actividad mental del hombre que conoce. El presente capítulo se centrará en las matemáticas. Por eso, comenzaré por resaltar la unidad de las matemáticas con el mundo físico y con el pensamiento humano. Para ello, abordaré en el primer apartado la concepción platónica que Penrose tiene del mundo matemático y que, en sus líneas maestras, se identifica con el realismo matemático de Gödel. Esta aproximación al estatuto de las matemáticas también pretende salir al paso de las dificultades para valorar el alcance de la crítica de Penrose a la inteligencia artificial. Se quiere evitar que las conclusiones se vinculen tanto con el realismo platónico que se consideren inválidas para otras filosofías de las matemáticas. Además, se quiere mostrar que es posible criticar el realismo platónico sin necesidad de rechazar el argumento de Penrose o el teorema de incompletitud de Gödel. En el segundo apartado se explicarán las cuatro perspectivas en las que, según Penrose, se puede encuadrar la relación entre consciencia y computación. Una vez explicadas se intentará aclarar qué entiende Penrose por computación. De este modo se podrá apreciar mejor el alcance del nuevo argumento de Penrose, cuyo contenido e implicaciones se explicarán en el apartado final. A mi parecer, este enfoque ayuda a comprender tres aspectos de la obra de Penrose. En primer lugar permite contextualizar mejor su argumento contra la viabilidad de una inteligencia artificial con la física conocida. Además, muestra con más claridad una de las razones por las que parece necesaria una nueva física. Y por último, abre las puertas a considerar el papel de la consciencia humana en relación a la física y las matemáticas, lo que se estudiará en el siguiente capítulo. 90
1. El estatuto de las matemáticas Las matemáticas necesitan ser validadas mediante pruebas y dichas demostraciones comienzan a partir de ciertos postulados fundamentales. Sin embargo, asumir estos postulados no es una tarea banal ya que no son obvios ni autoevidentes. Esta problemática conduce a preguntarse sobre cuáles son los métodos adecuados para hacer matemáticas y por qué son esos los métodos apropiados. Bajo la segunda cuestión subyacen aspectos problemáticos sobre la ontología y la epistemología de las matemáticas, sobre la verdad, la existencia y el tipo de objetividad necesario en matemáticas. Se trata de cuestiones clásicas —relación entre las matemáticas y las ciencias o entre las matemáticas puras y las matemáticas aplicadas— cuya respuesta ha evolucionado históricamente. Intentaré exponer estas cuestiones conforme las explica Penrose, aunque también quedará manifiesta mi preferencia por una postura similar a un realismo fino en continuidad argumental con el libro de Penélope Maddy, Defending the axioms. Maddy es una autora que ha evolucionado en su pensamiento. Siendo siempre una defensora del naturalismo metodológico131 aplicado a las matemáticas, se adhirió primero al realismo platónico, para rechazarlo después y evolucionar hacia un realismo fino (Caba, 2000). Sin embargo, en su última obra, quizá recogiendo algunas de las críticas recibidas (Moore, 2007; Roland, 2007), ha abandonado el realismo. En Defending the axioms Maddy aplica el método «científico» (naturalista) al estudio metateórico de la matemática y cuando parece que ha llegado a un «realismo» mínimo, da un paso más hacia una posición que no se compromete con la existencia de ningún objeto matemático, sino solo con los hechos. La justificación fundamental de las matemáticas sería externa, no interna a las matemáticas, y se sustentaría en la fecundidad de los desarrollos matemáticos. Sin embargo, desde mi punto de vista, no bastaría con afirmar que la justificación externa de las matemáticas es la más importante para defender luego un objetivismo matemático que se apoya en los hechos desnudos, como si fuese la postura más razonable. Sino que sería necesario reconocer que no vale cualquier tipo de justificación externa, a elegir desde un realismo fino hasta un objetivismo, como sostiene la autora. La realidad de los hechos matemáticos remitiría a una realidad matemática subyacente, a un realismo fino. Este será el tipo de realismo fino que adoptaré, un realismo fino a posteriori, distinto del realismo fino a priori del que habla la autora. El realismo fino a priori, sería de corte más deductivo, porque proviene de atenuar las exigencias del realismo clásico, mientras que el realismo fino a posteriori, sería de corte más inductivo, porque proviene del hecho científico de que las matemáticas funcionan. El realismo viene afirmado a posteriori, porque el hecho de que las matemáticas funcionan apunta más allá de un mero funcionalismo o pragmatismo, hacia una existencia mínima pero real de las matemáticas. En cuanto a la relación entre matemáticas y ciencia, Maddy distingue una evolución 91
histórica en tres etapas. La primera etapa se remonta al esquema platónico, la segunda se asocia con los pioneros de la revolución científica y la tercera sería en la que nos encontramos actualmente. Durante estas tres fases se produce una inversión del punto de vista cuando las matemáticas puras se separan de las matemáticas aplicadas (Maddy, 2011: 27)132. Esta inversión implicaría que en la ciencia actual ya no se estaría descubriendo la estructura matemática subyacente al mundo, como pensaban los pioneros de la revolución científica, sino más bien construyendo modelos matemáticos abstractos e intentando hacer afirmaciones verdaderas sobre su correspondencia con los hechos físicos. Solo en algunos casos esta correspondencia sería prácticamente isomorfa. Por contraste, la postura de Penrose se podría definir como una integración de las tres etapas. Por un lado, se adhiere al realismo platónico y cree en la existencia de los objetos matemáticos. Por otro, opina que las matemáticas constituyen la realidad última del mundo físico. Y por último, se define como un ferviente defensor del método científico y de su capacidad para desvelar la realidad. La imperfección de los modelos actuales se debería a que no utilizan la matemática correcta y, para sostener esta postura, se apoya en los extraños casos de isomorfismo donde se habría conseguido desvelar la verdad matemática intrínseca a la realidad. A esta postura integradora se pueden hacer dos críticas, una relacionada con el platonismo matemático (tendencia a la separación entre mundos) y otra relacionada con la excesiva vinculación entre las matemáticas y la física (tendencia a la unificación de la realidad). Ambos aspectos son importantes a la hora de mantener el equilibrio necesario entre unidad y diversidad. Sin embargo, en este apartado consideraré con detenimiento el platonismo, cuya crítica me parece más necesaria porque Penrose la afirma con más fuerza. Mientras que no incidiré mucho sobre la diferencia entre las matemáticas y la física, ya que Penrose reconoce que los modelos matemáticos tienen sus límites a la hora de representar la realidad. Aun así, conviene recordar que nuestro autor no parece distinguir claramente entre uno y otro aspecto. 1.1. Tipos de realismo matemático Decir hoy en día que un matemático es realista no es decir demasiado, a no ser que se especifique un poco. Por eso, resulta necesario aclarar qué lugar ocupa Penrose dentro del complejo debate filosófico en torno al realismo. Ya se explicaron algunos aspectos de su pensamiento sobre las matemáticas en el capítulo II, pero aquí me gustaría retomarlos con más precisión y aislarlos del esquema de los tres mundos. Por eso, no me ceñiré al modo en que Penrose presenta su pensamiento, sino que lo situaré en un esquema más amplio, el del platonismo clásico. El platonismo matemático clásico acepta tres condiciones (Del Ponte, 2006: 2-4): 1. Las entidades matemáticas existen. 2. Dichas entidades se pueden conocer y nuestra mejor teoría sobre ellas es, por lo menos, aproximadamente verdadera. Los realistas aceptan que una teoría ideal, que cumple con todos los requisitos teóricos y prácticos, puede ser falsa. Aun así, son 92
optimistas respecto a la posibilidad del conocer el mundo y respecto a la verdad de los enunciados matemáticos. 3. Tanto las entidades matemáticas como la verdad de los enunciados sobre ellas, son independientes del sujeto. Es decir, las entidades no son construcciones del sujeto, existen con independencia de nosotros. Esto equivale a afirmar que los sujetos descubren las propiedades de las entidades matemáticas y sus relaciones, no las inventan. Las matemáticas no se construyen, se descubren. Además, la independencia de la verdad implica la posibilidad de que existan verdades que trasciendan la evidencia, es decir, enunciados que puedan ser verdaderos o falsos aun cuando no seamos capaces de probarlos, incluso en los casos en los que sepamos que es imposible encontrar una prueba para ellos. Aparte de estas tres condiciones generales del realismo, todas ellas aceptadas por Penrose, en el caso del platonismo clásico habría que añadir una cuarta condición: 4. Las entidades matemáticas son abstractas: están situadas fuera del espacio-tiempo y son incapaces de interactuar causalmente. Una vez conocidas estas cuatro condiciones se puede diferenciar entre un platonismo ontológico y un platonismo semántico. El platonismo ontológico afirma que las entidades matemáticas existen y son independientes de los sujetos. Mientras que el platonismo semántico sostiene que los enunciados de las teorías matemáticas son siempre o bien verdaderos o bien falsos y que su verdad no depende de los sujetos; que es posible defender la verdad aun en casos en los que no se puede probar. Esas condiciones son definitorias del platonismo matemático pero no resulta necesario aceptar las cuatro para ser una realista. De hecho, es lo habitual. En la filosofía de las matemáticas se encuentran defensores de casi todas las combinaciones posibles de estas tesis. Penrose será defensor tanto del platonismo ontológico como del semántico, sin embargo, no aceptará las cuatro tesis en su totalidad. Respecto al punto tres itirá que sea posible algún tipo de constructivismo y respecto al punto cuatro, aunque lo considera un misterio, acepta que pueda haber una relación causal entre entidades matemáticas y entidades físicas. Por otro lado, dentro de la filosofía de las matemáticas, también existen dos grandes corrientes anti-platónicas: el formalismo y el intuicionismo. La primera corriente cuestiona la existencia de las entidades matemáticas, mientras que la segunda rechaza la independencia de esas entidades. Para el intuicionismo (o constructivismo en general), las entidades matemáticas son construcciones de la mente humana y, por lo tanto, la verdad de los enunciados matemáticos no puede trascender la evidencia. La verdad, para los intuicionistas, debe ser reducida a la noción de prueba. Penrose, fiel al platonismo y como ya se vio en el capítulo II, rechaza tanto el formalismo como el intuicionismo. Sin embargo, nuestro autor ite cierta relación de las matemáticas con la realidad física y cierto tipo de constructivismo. Por lo tanto, las entidades matemáticas no pueden ser absolutamente independientes. La diferencia de Penrose con el platonismo clásico será 93
una diferencia de grado. Esta diferencia de grado en el platonismo suele distinguir entre un realismo moderado y un realismo clásico (Maddy hablaría de realismo fino y realismo fuerte). Ambos realismos defienden la existencia y la independencia de las entidades matemáticas, pero el realismo moderado también postula que los sujetos juegan un papel activo en la configuración de esa realidad. Está a medio camino entre un tipo de constructivismo (y de anti-realismo semántico) y el platonismo tradicional, pero sin comprometerse enteramente con ninguno de ellos. Por su parte el realismo fuerte también sostiene que la verdad puede trascender a la evidencia y que, en el proceso del conocimiento matemático, el sujeto es más bien pasivo. La postura de Penrose será por tanto la de un realismo tradicional que se aproxima al realismo moderado. Su punto de partida es afirmar la existencia de las entidades matemáticas y, sin renunciar al platonismo matemático tradicional, acercarse a un platonismo moderado. Para Penrose existe una relación misteriosa entre el mundo platónico de las matemáticas y la realidad física, en la que no queda excluida la relación causal. Sin embargo, para afrontar la comprensión de la relación entre física y matemáticas, me parece más interesante tomar otro punto de partida menos axiomático. En el siguiente apartado compararé brevemente la postura realista a priori del físico-matemático inglés con una postura realista fina a posteriori que me parece más acertada. Pretendo así exponer que el realismo de Penrose es un a priori insuficientemente fundamentado y presentar una alternativa también realista. 1.2. Una alternativa al realismo de Penrose Intentar explicar mediante el realismo platónico la fuerte interdependencia que científicamente se observa entre la física y las matemáticas, como hace Penrose, añade al problema nuevas dificultades ontológicas y epistemológicas. La dificultad ontológica aumenta porque, al afirmar la existencia real e independiente de las entidades y propiedades matemáticas, se va metafísicamente más allá de lo que las matemáticas implican por sí solas. A su vez, la dificultad epistemológica también aumenta porque el platonismo requiere de un método de intuición directa que salve la distancia creada con el mundo platónico de las matemáticas. En el fondo, el platonismo matemático agranda el misterio de la relación entre física y matemáticas. Una postura realista más atenuada podría afirmar la existencia de las matemáticas como un conjunto de verdades, con sus métodos de descubrimiento propios, partiendo del papel de las matemáticas en la ciencia. Este papel de las matemáticas sería objetivo, tanto en el contraste experimental de la actividad científica con la realidad, como en las elaboraciones matemáticas de los sujetos. Desde esas relaciones objetivas se podría fundamentar el valor último de las matemáticas. Además, en este caso el método no debería salvar la distancia con otro mundo y el tipo de conocimiento matemático no tendría que ser necesariamente la intuición directa de los conceptos matemáticos. Se eliminarían así las dificultades ontológicas y epistemológicas creadas por el dualismo, 94
sin perjuicio de la objetividad matemática, de su verdad o de su existencia. Aun así permanecería el misterio. En última instancia, lo que justificaría la verdad, existencia y objetividad matemática no sería un mundo paralelo sino su fecundidad tanto matemática (interna) como física (externa). Además, el método de conocimiento matemático tampoco sería un modo de salvar la distancia entre los mundos, sino el instrumento que ayuda a delimitar los contornos en los que las matemáticas trabajan bien. Funcionaría de modo análogo a como los métodos científicos ayudan a delimitar los confines de la investigación científica. La utilidad, efectividad y fecundidad de las matemáticas garantizarían su estatuto existencial, verdadero y objetivo. Obviamente, la consistencia de estos argumentos sobre la existencia de la realidad matemática parece menor que si se emplease una argumentación platónico-deductiva. Sin embargo, es más acorde con lo que las matemáticas pueden decir de sí mismas. La existencia de un mundo externo que garantice el uso de un método deductivo es algo tentador para cualquier matemático realista, pero lleva a un dualismo de difícil salida. Por tanto, el estatuto de las matemáticas sería en la práctica el de una ciencia, o por lo menos asimilable a una ciencia (Maddy, 2011: 111 y sigs.). La justificación última de las matemáticas sería fundamentalmente externa, pero no platónica. En línea con los teoremas de incompletitud de Gödel no tendría una fundamentación interna, pero tampoco dispondría de una roca firme externa donde apoyarse. Sería una justificación retroactiva, de modo análogo a como sucede en otras ciencias. Con la investigación, el conocimiento matemático sería aclarado, perfeccionado y profundizado. Las matemáticas abrirían nuevos campos de desarrollo, se justificarían mejor internamente y recibirían más apoyos externos de otras áreas como la física. De este modo, por un lado, aumentaría intensiva y extensivamente la realidad conocida y, por otro, se reforzaría la apertura e interdependencia de las matemáticas con el resto de la realidad. Esta postura es distinta del planteamiento de Penrose-Gödel. Coincide con ambos autores en que la justificación última de las matemáticas no puede ser interna, conforme se deduce de los teoremas de incompletitud de Gödel, pero difiere en que para buscar esa justificación haya que acudir al realismo platónico. Según Gödel los axiomas matemáticos no son proposiciones autoevidentes que no requieran de una demostración formal y, por eso, no sirven de fundamento último para el desarrollo de más verdades. Los axiomas, para justificarse, «tendrían que ser asumidos como mínimo en el mismo sentido que cualquier teoría física bien establecida» (Gödel, 1947). Sin embargo, ¿cuál es la razón para ir más allá de ese mínimo hasta afirmar la existencia de un mundo platónico? Ese salto no parece justificado y, al igual que en la ciencia, bastaría con un mínimo de realismo conforme a una matemática bien establecida. Es cierto que el objetivo de las matemáticas es lograr teorías consistentes, modos efectivos de organizar y extender el pensamiento matemático, métodos heurísticos útiles para generar nuevas hipótesis productivas... y por lo tanto, que las justificaciones intrínsecas son importantes, pero la justificación última y fundamental es externa (Maddy, 2011: 136). 95
Me parece que con estas aclaraciones, el paralelismo entre las matemáticas y la física queda resaltado e integrado con más profundidad. Se eliminan los aspectos menos científicos sin ir en detrimento de la solidez de los argumentos matemáticos. A la vez, se resalta la cuestión sobre la eficacia de las matemáticas aplicadas. Por tanto, para el argumento que se va a exponer —que se apoya en el teorema de incompletitud de Gödel — no es necesario afirmar la existencia de un mundo platónico. Basta con señalar que las matemáticas requieren de una justificación externa y que dicha justificación entrelaza las matemáticas con el mundo físico. 2. Computación y consciencia Las conclusiones a las que se ha llegado en el apartado anterior, sobre la justificación externa de la existencia, verdad y objetividad matemáticas, estimulan a formularse preguntas análogas sobre el mundo mental: ¿resultaría necesario afirmar la existencia de un mundo mental separado?, ¿bastaría considerarlo como un epifenómeno?, ¿qué alternativas hay?... Las respuestas son muy variadas. Van desde la defensa del dualismo (mente-cerebro, persona-naturaleza, software-hardware, espíritu-materia, yosensibilidad), hasta la negación de la premisa mayor (existencia del espíritu, del yo...), pasando por una colorida variedad de posturas intermedias. Según Penrose, es difícil aceptar una visión enteramente dualista de la mente y del cuerpo como obedeciendo a distintos tipos de leyes: físico-matemático-deterministas por un lado y libres por otro. Por eso, considera que lo que controle o describa el funcionamiento de la mente debe ser una «parte» integral del esquema que gobierna las propiedades materiales de nuestro universo (Penrose, 1994a: 213). Sin embargo, la física conocida o la actividad computacional serían insuficientes para describir el funcionamiento de la mente. Por lo tanto, debe haber algo más que esté fuera de la física conocida y que sea de naturaleza no-computacional. Para explicar esta postura comenzaré por definir las distintas perspectivas que, según nuestro autor, se observan con relación a la posibilidad de crear artificialmente seres conscientes. A partir de ahora cobrará especial relieve la primera parte de Shadows of the Mind133, donde Penrose profundiza sobre este argumento que ya había expuesto en The Emperor’s New Mind. Esta profundización sigue dos vías. Una negativa, de crítica frente a quienes piensan que nuestra mentalidad consciente puede ser, en principio, plenamente concebida en términos de modelos computacionales. Y otra positiva, de búsqueda de los medios físicos donde se pueda dar esa actividad no computacional. La primera, más rigurosa, se expondrá en lo que queda de este capítulo. La segunda, más especulativa, se afrontará en el siguiente. 2.1. Cuatro perspectivas y tres argumentos Penrose agrupa los diversos argumentos sobre la relación entre pensamiento consciente y computación en cuatro perspectivas: 96
A) Todo pensamiento es computación. Con solo realizar los cálculos computacionales adecuados se evocarán los sentimientos de una conciencia consciente134. B) La consciencia es una característica de la acción física del cerebro. Cualquier acción física se puede simular computacionalmente, pero la simulación por sí misma no puede evocar la consciencia. C) Una adecuada acción física en los cerebros evoca la consciencia, pero esa actividad física no puede ser correctamente simulada. D) La consciencia no se puede explicar en términos físicos, computacionales o de cualquier otra ciencia. Ninguno de estos cuatro tipos de relaciones entre pensamiento consciente y computación sería excluyente. Es más, la mayoría de los autores se situarían entre varios planteamientos o adoptarían posturas más flexibles. Pero el objetivo de Penrose no es analizar todas las posibilidades sino las más paradigmáticas. Por eso, se centra en esas cuatro posturas, que las asocia con los planteamientos de cuatro autores: Turing, Searle, Penrose y Gödel respectivamente. Y somete esas posturas a cuatro críticas a las que denomina: argumento de Searle (contra la postura A), argumento de Chalmers (contra la postura B), test de Turing o argumento «científico» (contra las posturas B y D) y argumento de Gödel (contra las posturas A y B). En el esquema se puede ver cómo dichos argumentos afectan a las distintas posturas y cuáles quedan excluidas. Las letras incluidas en los círculos representan las cuatro posturas. Las líneas horizontal, vertical y las dos diagonales representan los cuatro argumentos de crítica. Y las flechas perpendiculares a cada línea indican qué posturas «sobreviven» a la crítica.
Así por ejemplo, el argumento «científico», que mediante el test de Turing distingue si la consciencia es o no es objetivamente discernible, separa las posturas B y D de las 97
posturas A y C. De tal modo que solo las posturas A y C sostienen que la presencia de una consciencia se puede detectar científicamente. Veamos los argumentos uno a uno. 2.1.1. El argumento de John Searle La perspectiva A correspondería con la Inteligencia Artificial fuerte y sería defendida por Turing. Según dicha postura la actividad mental es simplemente la realización correcta de una secuencia de operaciones bien definidas, como las que realiza cualquier dispositivo con un algoritmo simple. De este modo un ordenador bien programado (o los propios programas) podrían comprender el lenguaje natural y tendrían otras capacidades mentales similares a los seres humanos, cuyas habilidades imita. De acuerdo con la IA fuerte, un ordenador puede jugar al ajedrez de forma inteligente, hacer un movimiento inteligente, o entender el lenguaje. De modo análogo, la mente dispondría de un algoritmo extremadamente sofisticado ejecutado con exquisita sutileza, pero nada más. Por tanto el ordenador que poseyese un algoritmo de estas características sería consciente. Sin embargo, según Penrose, el proceso de entender es mucho más rico que un algoritmo que da la respuesta adecuada. Contra la IA fuerte, se dirige el famoso argumento de la habitación china de Searle (1980). Este argumento propone un experimento mental por reducción al absurdo, cuyo elemento central es un ser humano realizando una simulación imaginaria de lo que hace un ordenador. El ser humano dentro de una habitación sigue unas instrucciones para ordenar y manejar símbolos chinos, aunque no sabe su significado, de modo similar a como un ordenador sigue las instrucciones algorítmicas de un programa. Así, mientras el ser humano manipula los símbolos chinos siguiendo las instrucciones podría parecer que entiende chino, pero en realidad no comprende nada. Lo único que hace es manipular símbolos sin llegar a comprender la sintaxis ni el idioma (Cole, 2009). Otro modo de presentar este argumento es como lo hace Penrose. Nuestro autor presenta una habitación en la que se encierra a una persona sin conocimientos de chino pero con las reglas gramaticales del idioma y un perfecto dominio de ellas. Después, a esa persona se le formulan unas preguntas en chino cuyo significado no entiende, pero a las que puede dar una respuesta adecuada con la ayuda de las reglas. En este caso esa persona podría responder bien pero seguiría sin entender lo que ha respondido. Searle empleó este argumento para criticar la IA fuerte, a la vez que defendía una Inteligencia Artificial débil, según la cual los cerebros serían equivalentes a máquinas de pensar. Para Searle todos los aspectos del entendimiento se podrían simular, pero la simulación por sí misma no implicaría entendimiento. Por tanto, para la IA débil los ordenadores serían un elemento útil para áreas como la psicología o la lingüística, porque podrían simular las capacidades mentales, pero eso no significaría que los ordenadores fuesen inteligentes. Frente a la IA débil defendida por Searle, Penrose presenta una crítica de David Chalmers.
98
2.1.2. El argumento de David Chalmers La postura B de Penrose, que se aproxima a la versión clásica de la IA débil, sostiene que las acciones del cerebro podrían ser simuladas computacionalmente. Aun así, un comportamiento externo similar no sería suficiente para saber lo que el ordenador entiende o siente y, por lo tanto, para saber si está consciente, porque la consciencia, según Searle, estaría en lo que siente y no en cómo actúa. Actuar como un sujeto consciente no sería suficiente para garantizar que se es consciente. Por tanto, la presencia de la consciencia no sería objetivamente discernible. Según Penrose esta postura ha sido criticada por David Chalmers (1997) en un argumento que se dirige solo contra la postura B (IA débil) y deja intactas el resto de posturas. El argumento parte del supuesto, que aceptaría Searle, de que en un cerebro humano cada una de sus neuronas podría ser reemplazada en el futuro por un chip que funcionase exactamente igual. Si se realizase este cambio individualmente, ante cada nueva sustitución de una neurona, las experiencias internas de la persona deberían permanecer sin cambios. No existiría una enésima neurona cuyo reemplazo provocase la pérdida de consciencia. Por tanto, concluye Penrose con Chalmers, tampoco la postura B es correcta. En resumen y una vez consideradas estas dos críticas por separado, si se combina el argumento de Chalmers con el argumento de la habitación china, resulta que la Inteligencia Artificial quedaría excluida en su conjunto, tanto en la versión fuerte (postura A) como en la versión débil (postura B). Luego la Inteligencia Artificial sería insuficiente para explicar el fenómeno de la consciencia. Esta misma conclusión es a la que quiere llegar Penrose con su propio argumento. Un argumento que se conoce como Nuevo Argumento de Penrose, quizá porque constituye una nueva profundización en los argumentos tipo Gödel que había desarrollado Lucas135. Como Penrose ha desarrollado un argumento propio contra la Inteligencia Artificial, no me detendré a considerar con detenimiento los argumentos de Searle y Chalmers. Me centraré, más bien, en explicar el nuevo argumento de Penrose, porque es el más relevante en nuestro autor y porque pretende ser más consistente y completo que los de Searle y Chalmers (Penrose, 1997b: 9). Sin embargo, antes de afrontar esta tarea, expondré el último de los argumentos que Penrose presenta contra la postura D y aclararé qué entiende nuestro autor por computación. 2.1.3. El argumento «científico» Según la postura D —al igual que la B— la presencia de una consciencia no se podría detectar científicamente, porque no tendría manifestaciones experimentalmente comprobables. Lo que diferencia la postura D de la B es que según la primera el comportamiento de una mente humana no se podría simular computacionalmente, mientras que para la segunda sería posible dicha simulación, aunque eso no signifique la presencia de una consciencia. Penrose está de acuerdo con el mentalismo —como él denomina a la postura D— en su afirmación de que la mente humana no se puede 99
simular, pero lo rechaza por sostener que no es científicamente posible detectar si un ser es consciente o no. Nuestro autor defiende que la consciencia se puede detectar científicamente, de un modo análogo a como pretende detectarla el test de Turing. Dicho test es una prueba propuesta en 1950 por Alan Turing para descubrir la existencia de inteligencia en una máquina (Oppy y Dowe, 2011). Desde una postura tipo A (IA fuerte) presupone que si una máquina actúa en todos los aspectos como inteligente entonces es inteligente. Durante el test de Turing, un investigador situado en una habitación debe formular preguntas a una máquina y a un ser humano que están situados en otras habitaciones. Su objetivo es descubrir quién es el ser humano y cuál es la máquina, a pesar de que ambos le puedan mentir. La tesis de Turing es que si el jugador y la máquina son suficientemente hábiles el investigador no podrá distinguir quién es quién136. Penrose hace suyo el test de Turing y lo generaliza con un nuevo desarrollo al que denomina argumento «científico». Según su postura mediante métodos científicos se podría llegar a detectar la presencia de una consciencia. La razón que aduce es que si bien el fenómeno de la consciencia es difícil de explicar en el conjunto de los conocimientos científicos actuales, eso no significa que sea ajeno a la actividad científica. Rechaza la postura mentalista porque no es científicamente comprobable, pero considera que el enigma de la consciencia ya contiene suficiente misterio sin necesidad de buscar soluciones fuera de la ciencia. Sin embargo, de lo que no parece consciente Penrose es de que el argumento usado para rechazar el mentalismo también se puede usar en contra del platonismo. Ya hay suficiente misterio en la relación entre las matemáticas y la física sin necesidad de buscar soluciones fuera: el mundo platónico matemático tampoco es científicamente comprobable. Como alternativa científica al mentalismo, Penrose sostiene la postura C. Según esta perspectiva, los ordenadores nunca podrán simular eficazmente el comportamiento consciente de un ser humano. Es decir, en el test de Turing, siempre habría algún juez que se daría cuenta de que el ordenador no entiende137. Ningún objeto inconsciente se podría hacer pasar por un sujeto consciente; aun así, la presencia de un ser consciente sería científicamente detectable. Llegados a este punto y tras este boceto sobre algunas perspectivas en la relación entre computación y consciencia afrontaré el nuevo argumento de Penrose contra la Inteligencia Artificial. Pero antes, intentaré aclarar qué entiende Penrose por computación, para poder apreciar mejor el alcance y profundidad de su argumento. 2.2. ¿Qué es y qué no es computación? La computación es una parte pequeña de las matemáticas, que, en múltiples contextos, sirve para explicar los fenómenos de la realidad física. Si esta afirmación se pone en paralelo con el esquema de Penrose, dónde una pequeña parte del mundo matemático platónico sirve de base para la emergencia del mundo físico, entonces se podría pensar que la computación constituye esa pequeña parte de las matemáticas que puede dar razón 100
de la realidad física. Sin embargo, no es así. Según Penrose, esa parte de las matemáticas que sirve de base para la física no es exclusivamente computacional: la explicación científico-matemática de la realidad es más amplia que la explicación computacional (Penrose, 1997a: 13)138. Hay aspectos científicos y matemáticos que no se pueden simular. Véamos cuáles son y por qué no se pueden simular. Para responder a estas preguntas conviene detenerse en qué elementos matemáticos incluye Penrose en el concepto de computación. Ahí se encierran aspectos tan diversos como ordenadores paralelos, redes neuronales artificiales, técnicas heurísticas, capacidad de aprendizaje, sistemas caóticos, aleatoriedad computacional, interacción con el medio u ordenadores analógicos (Penrose, 1997a: 14). Algunos de estos aspectos, en la actualidad, son difícilmente computables, sin embargo, Penrose prefiere incluirlos en un concepto más amplio de «lo que podría ser computable en el futuro». Amplía el contenido del término «computacional» para que su crítica tenga mayor alcance. Para él, computación sería todo aquello que puede realizar una máquina de propósito general, una máquina de Turing (Barker-Plummer, 2012). Dicha máquina, en su aspecto matemático, se puede considerar como un ordenador idealizado con capacidad ilimitada de memoria que ejecuta algoritmos sin detenerse ni equivocarse nunca. De este modo, todo aquello que puede ser simulado en una máquina de propósito general sería computacional o, lo que es lo mismo para Penrose, algorítmico. Veamos la explicación de Penrose sobre aquellos aspectos matemáticos de dudosa computabilidad que se suelen asociar con la inteligencia artificial, como el caos, la aleatoriedad o los procedimientos top-down y bottom-up. El matemático inglés quiere profundizar en ellos para aclarar que no dejan de ser computacionales. 2.2.1. Top-down y bottom-up A grandes rasgos, los procedimientos computacionales se pueden agrupar en dos tipos: los que siguen unas reglas para obtener resultados y los que a partir de los datos reelaboran las reglas. Se denomina top-down a los primeros y bottom-up a los segundos. El diseño top-down fue promovido en los años 60 por los investigadores de IBM Harlan Mills y Niklaus Wirth, y dominó en la ingeniería de software hasta los 80. Entonces llegó la programación orientada a objetos. Ese nuevo enfoque, que se denominó bottomup, pretendía programar módulos en un nivel inferior sin saber exactamente cómo se iban a integrar entre ellos o en el conjunto del sistema. Actualmente en el desarrollo de software se suelen combinar ambas técnicas. Por un lado, se busca un conocimiento completo del sistema que se considera necesario para un buen diseño (enfoque top-down) y, por otro, se usan módulos de programación existentes (enfoque bottom-up) para que el sistema crezca hasta cumplir con los requisitos iniciales del proyecto. En un procedimiento top-down todo está perfectamente diseñado y especificado para resolver un tipo de problemas. Mientras que en un procedimiento bottom-up las reglas de funcionamiento no se especifican con tanta claridad, sino que el algoritmo dispone de un sistema de aprendizaje que le permite mejorar los resultados y 101
cambiar las reglas conforme a la experiencia que va adquiriendo. Un ejemplo de procedimiento top-down es la búsqueda de números primos, mientras que un ejemplo de procedimiento bottom-up pueden ser las redes neuronales artificiales que se usan para el reconocimiento de voz. En la actualidad existen sistemas con resultados cada vez más prometedores que combinan ambos procedimientos. Sin embargo, el hecho de que el sistema pueda aprender sigue siendo una cuestión computacional que viene especificada de antemano y que, por lo tanto, puede ser simulada. Es lo que sucede, por ejemplo, con procedimientos que mejoran los resultados de búsqueda o la capacidad de computación: aunque aprenden a realizar mejor su tarea, no dejan de ser íntegramente algorítmicos. 2.2.2. Caos y computación analógica Según la acepción común, los sistemas caóticos son aquellos donde una mínima diferencia en las condiciones iniciales provoca grandes variaciones en los resultados finales. A esta característica, que se denomina «dependencia sensible», se unen otras dos propiedades, no-linealidad y determinismo, para en conjunto hacer que los sistemas caóticos resulten controladamente impredecibles: a largo plazo y en la práctica no se puede predecir el resultado final, aunque que pueda calcular que estará dentro de unos límites. Luego los sistemas caóticos se comportan como si no estuvieran determinados aunque en realidad sí puedan estarlo. Un ejemplo de sistema caótico sería la predicción del tiempo (Bishop, 2009). El comportamiento de los sistemas caóticos, a pesar de su dificultad intrínseca, se estudia mediante técnicas de computación. Dichos estudios muestran, por un lado, que si las condiciones iniciales son las mismas el resultado final será el mismo y, por otro, que aunque en algunos casos no se pueda predecir el resultado exacto, sí que se pueden predecir resultados factibles. Esto implica, según Penrose, que los sistemas caóticos son computables ya que se podrían programar en una máquina de Turing de propósito general que dispusiera de la suficiente precisión. Por tanto, conviene distinguir entre el procedimiento computacional en sí y las circunstancias que lo limitan. Aunque en un sistema caótico, en la práctica y debido a las limitaciones, no se pueda obtener el resultado con precisión, sin embargo, si se eliminasen las limitaciones, sí que se podría. Luego, con una máquina de propósito general idealizada se obtendría la precisión buscada. El caos sería ejemplo de una no-computabilidad práctica pero no teórica139. Del mismo modo, la computación analógica se puede considerar como una cuestión de precisión, inalcanzable en la práctica pero no en la teoría. En la actualidad, una computación con parámetros físicos continuos se puede simular adecuadamente si los algoritmos tienen la suficiente precisión. Aun así, respecto a la computación analógica, Penrose hace una matización: distingue entre una posición fuerte y otra débil de su punto de vista, la postura C. Según la postura C débil el fenómeno de consciencia se podría deber a una computación analógica, que en la práctica es imposible de simular con una computación digital. Mientras que según la postura C fuerte, sostenida por Penrose, el fenómeno de la consciencia no se debe ni a una computación analógica ni a una 102
computación digital sino a algún aspecto no computacional de la realidad que todavía no ha sido desvelado por la física conocida140. 2.2.3. Aleatoriedad Un tercer aspecto matemático que se puede asociar con la inteligencia artificial es la existencia de fenómenos estrictamente aleatorios: aquellos que con propiedad son debidos al azar (Eagle, 2012). Estos fenómenos no existen en el ámbito computacional, pero se pueden simular mediante sistemas pseudo-aleatorios. Las diferencias técnicas que existen entre un proceso y otro indican que en los fenómenos estrictamente aleatorios hay un elemento no-computacional. Sin embargo, la pura aleatoriedad, según Penrose, no aportaría diferencias significativas respecto a lo que se puede simular con un ordenador, por lo que tampoco constituiría el tipo de no-computabilidad que está buscando. Un fenómeno análogo sería la interacción con el medio ambiente. En este caso, cada experiencia del entorno es única e irrepetible. El hecho individual no se puede simular. Aun así, para Penrose, esto no impediría que, como sucedía en los sistemas caóticos, se pueda realizar una simulación típica o plausible del entorno141. Se trataría una vez más de una no-computabilidad práctica pero no teórica. Por otro lado, si se considerase que el fenómeno de la consciencia surge cuando la computación interactúa con el medio ambiente, entonces se podría pensar que hay algo no computable en el entorno. Penrose ve viable esa posibilidad pero considera que, al ser interiorizado por el ordenador, se perdería su aspecto no-computacional. En resumen, todos aquellos aspectos de las matemáticas de dudosa computabilidad, como la aleatoriedad o el entorno, para Penrose se podrían simular sin que se diese un cambio significativo. Por lo que la pregunta sobre qué tipo de realidad podría ser radicalmente no-computable seguiría abierta142. 3. No-computabilidad en el pensamiento matemático Para encontrar una respuesta a la pregunta abierta en el apartado anterior sobre qué tipo de realidad podría ser radicalmente no-computable, Penrose acude a las matemáticas. Su objetivo es demostrar que el entendimiento humano no puede ser una actividad algorítmica y para argumentarlo se apoya en algo que pueda servir de puente entre el entendimiento y la computación. Ese algo es un pequeño aspecto de la actividad cerebral: el pensamiento matemático. Según Penrose, hay tres razones para buscar ahí. La primera es que con un argumento matemático se atacaría el punto de vista de la inteligencia artificial en su propio terreno. La segunda es que, según Penrose, solo desde dentro de las matemáticas se podría encontrar cierta demostración rigurosa de algún aspecto de esa actividad consciente nocomputacional. Y la tercera es que la computabilidad tiene naturaleza matemática y, por lo tanto, solo desde las matemáticas se podría probar la existencia de algo no103
computable143. Su argumento consistirá en mostrar que cuando se realizan juicios matemáticos conscientes sobre la verdad de algunas proposiciones matemáticas bien formuladas sucede algo no algorítmico. Dicho en otros términos, existen clases de problemas matemáticos, bien formulados y con solución, que no encuentran respuesta mediante medios completamente computacionales. Esto se debe, según Penrose, a que los ordenadores no poseen la cualidad humana del entendimiento y no pueden apreciar el contenido de las pruebas matemáticas. En su crítica se pueden distinguir tres niveles entrelazados. El primero centrado sobre el programa de Hilbert y el formalismo matemático, el segundo que desciende al problema computacional, y el tercero que extrae conclusiones sobre el entendimiento y la consciencia. 3.1. Gödel, Hilbert y Turing El primer nivel se remonta al formalismo de Hilbert y a los teoremas de incompletitud de Gödel. Es un argumento que afecta al conjunto de las matemáticas. Hilbert buscaba un sistema formal matemático bien definido: un conjunto suficientemente amplio de axiomas autoevidentes y reglas de inferencia que incorporase todas las formas de razonamiento correcto para un área de las matemáticas. Si ese sistema formal fuese completo se podría decidir la verdad o falsedad de cualquier proposición matemática, sintácticamente correcta, formulada dentro del sistema. Esa área de las matemáticas estaría libre de contradicción. Sin embargo, Gödel demostró en 1930, mediante los teoremas de incompletitud144, que se pueden hacer enunciados aritméticos verdaderos que van más allá del alcance del sistema formal especificado. No existe un sistema suficientemente amplio donde sea posible demostrar o refutar toda proposición bien definida sin caer en una contradicción. El concepto de verdad matemático no se puede encapsular en ningún esquema formalista. Por tanto, en cualquier sistema de axiomas y reglas suficientemente amplio y bien definido se pueden encontrar familias de proposiciones matemáticas indecidibles. De esas proposiciones no se puede afirmar su verdad o falsedad, desde dentro del sistema, aunque se conozca que son verdaderas o falsas desde instancias externas al sistema. En esos casos, concluirá Penrose, el entendimiento humano, incluso cuando está limitado al área de los enunciados matemáticos, no puede ser encapsulado en ningún sistema de reglas (Penrose, 1998a: 157-158). Aceptar un conjunto de reglas permite trascenderlas. El programa de Hilbert se plasma computacionalmente en el problema de decisión145 y la respuesta de Gödel encuentra su paralelo en varios enfoques análogos que se desarrollaron prácticamente a la vez. De entre estos destacan dos, el que se debe a Alan Turing y su máquina de propósito general y el que expuso Alonzo Church con su esquema de cálculo lambda. Ambos autores demostraron que el argumento de Gödel se aplica a cualquier sistema de reglas que puedan ser programadas en una máquina 104
idealizada de propósito general y llegaron a la conclusión de que el problema de decisión no tenía respuesta. A partir de ahora me centraré, como hace Penrose, en la máquina universal de Turing. En este caso, el problema de decisión se reformula en el problema de parada146. Una máquina universal de Turing sería aquella capaz de ejecutar individualmente cualquier tipo de algoritmo147 sin error. Siempre daría una respuesta válida o, en el caso de que no existiese, continuaría trabajando sin bloquearse. Ahora bien, ¿esta máquina podría decidir si para cierto algoritmo habrá alguna ejecución en la que no se va a detener porque no tiene respuesta válida? Es decir, ¿existe algún algoritmo que programado en la máquina podría decidir sin error qué algoritmos van a encontrar siempre respuesta y cuáles no se van a detener en algún caso148? Turing llega a la conclusión de que no puede existir tal algoritmo de decisión. Como se puede apreciar, en este segundo nivel el argumento matemático de Gödel contra el formalismo de Hilbert se convierte en un argumento computacional contra la posibilidad de encontrar un algoritmo que dé una respuesta al problema de parada. La pregunta por la verdad o falsedad de una proposición bien definida se desplaza a la pregunta sobre si una máquina universal de Turing se parará cuando actúe sobre la enésima entrada (es decir, la enésima proposición); y la existencia de proposiciones matemáticas gödelianas indecidibles encuentra su paralelo en la imposibilidad de determinar si la máquina de Turing se parará ante la enésima entrada-proposición. 3.2. El nuevo argumento de Penrose Sobre lo expuesto hasta ahora y en un tercer nivel, aparece el nuevo argumento de Penrose (Lindström, 2001). Dicho argumento toma elementos de Gödel, Turing y Lucas para obtener conclusiones sobre el entendimiento humano y la inteligencia artificial149. A partir de ahora me centraré en la versión más sencilla del argumento, para lo cual resulta inevitable aludir a los otros dos niveles con los que se entrelaza. El procedimiento será por reductio ad absurdum y se apoyará en el corte diagonal de Cantor, tal y como hizo Turing al demostrar que el problema de parada tenía una respuesta negativa. Penrose comienza por denominar C(n) a una computación que se aplica repetidamente y por separado para cada número natural n. Por tanto, C(n) sería la acción de una máquina de Turing —u ordenador idealizado— sobre el número n, que es la entrada a partir de la cual la máquina trabaja150. La cuestión a resolver —dado un valor de n— es si la máquina se parará o no. Para encontrar la respuesta se realiza otro procedimiento computacional (algoritmo A) que contiene todos los argumentos posibles para demostrar convincentemente y sin error que C(n) no se va a detener. Es decir, A es matemáticamente consistente151. Lo que en este caso significa que: Si A se detiene, entonces C(n) no se detiene.
105
Se generaliza A para que se pueda ejecutar sobre otras computaciones C1(n), C2(n), C3(n)... y se denomina A(q, n) a la ejecución de A sobre la computación Cq(n)152. De modo que: Si A (q, n) se detiene, entonces Cq(n) no se detiene. Sobre esta afirmación, Penrose aplica el corte diagonal de Cantor —como hizo Turing— y considera el caso en que q = n. Si A (n, n) se detiene, entonces Cn(n) no se detiene. Como A (n, n) depende de una sola variable y es un procedimiento computacional, al igual que C, se puede considerar que A (n, n) = C(n). Para no confundirla con el resto de C(n), se puede considerar que es la computación k-ésima: A (n, n) = Ck(n). Sobre esta igualdad, como hace la segunda parte del corte diagonal de Cantor, se puede examinar el caso especial donde n = k. Así se obtiene: A (k, k) = Ck(k). De modo que la afirmación «Si A (n, n) se detiene, entonces Cn(n) no se detiene» se convierte en: Si A (k, k) se detiene, entonces Ck(k) no se detiene. Pero como A (k, k) = Ck(k), entonces resulta que: Si Ck(k) se detiene, entonces Ck(k) no se detiene. Luego Ck(k) no se detiene. Lo que significa que A (k, k) tampoco se detiene. Por tanto, en este caso concreto, el procedimiento A es incapaz de determinar que Ck(k) no se detiene cuando de hecho ya se sabe que no se detiene. En resumen, A tiene la capacidad de determinar que Ck(k) no se detiene porque es consistente. Pero hay un caso concreto en el que A no puede determinarlo, aunque sabemos que Ck(k) no se detiene. Es decir, «la consistencia de A implica que A es incompleto». Por tanto, nosotros sabemos algo que A no sabe y que debería saber porque ha sido programada con todas las herramientas matemáticas necesarias. Luego la conclusión es que el entendimiento humano no se puede contener en A153. Ningún conjunto consistente y cognoscible de reglas computacionales será suficiente para determinar qué computaciones no se paran. Por tanto no se puede encontrar semejante algoritmo. El algoritmo A no puede ser una formalización de los procedimientos que los matemáticos siguen para determinar si una computación no se 106
detiene. El nuevo argumento de Penrose concluye: Los matemáticos humanos no están usando un algoritmo consistente cognoscible para determinar la verdad matemática154. 3.3. Alcance del argumento Algunos autores posteriores a Penrose, como McCall, han desarrollado también sus propios argumentos de tipo gödeliano para sostener la imposibilidad de que un ordenador pueda simular el razonamiento humano. Posteriormente Haim Gaifman ha publicado un artículo (Gaifman, 2000) en el que analiza el alcance de dichos argumentos, tanto el de McCall como el de otros autores. Para ello inicialmente defiende la posibilidad de partir desde los teoremas de incompletitud y, tras una argumentación correcta, llegar hasta la conclusión ya señalada, aunque por ejemplo McCall no lo consiga. Sin embargo, su artículo se centra en reformular el problema. La tesis de Gaifman es que si un ordenador pudiese, de hecho, simular todo nuestro razonamiento matemático, entonces no podríamos entender completamente cómo trabaja. Es decir, lo que pone en duda es la consistencia matemática del algoritmo que hace las veces de un matemático; y precisamente de dicha consistencia dependen tanto las conclusiones finales de los teoremas de Gödel como las del nuevo argumento de Penrose. Para cualquier sistema deductivo formal mínimamente adecuado y conforme al segundo teorema de Gödel, esa consistencia se puede expresar pero no se puede probar dentro del sistema155. Esto significa que las conclusiones de los teoremas de incompletitud de Gödel son válidas para rechazar el formalismo matemático de Hilbert, porque en la propuesta de este último la consistencia matemática es un a priori. Sin embargo, ¿sucede lo mismo en el nuevo argumento de Penrose? Nuestro autor da por supuesto que sí, pero no está tan claro que un algoritmo que haga las veces de un matemático sea consistente. El problema no está tanto en si el argumento de Penrose está bien elaborado como en asumir la premisa de consistencia matemática. Veámoslo un poco más despacio. Una primera idea es que un algoritmo que prueba teoremas genera pruebas dentro del sistema formal. Pero si el algoritmo solo puede saber lo que puede probar, entonces no puede conocer que es consistente porque no lo puede probar. Lo mismo sucede con un algoritmo, que desde un nivel superior (semántico, no sintáctico) pudiese probar la consistencia del nivel inferior: no podría probar la consistencia de sí mismo. La apelación al concepto de consistencia se desplazaría a un nivel superior. También sucedería algo parecido en una red de ordenadores donde el algoritmo de un ordenador prueba la consistencia del algoritmo de otro ordenador. Sin embargo, para Penrose todos estos supuestos y otros similares se englobarían dentro de una máquina de Turing idealizada, capaz de ejecutar un algoritmo que contuviese todos los razonamientos matemáticos. El punto de partida constituye por tanto un a priori hipotético. El algoritmo que se ejecutase en la máquina de Turing, a priori, sería consistente. Pero cabría argumentar, como hace Gaifman, que un algoritmo capaz de realizarlo sería en realidad un ser humano. 107
Por tanto, surge un problema: al formalizar el marco computacional del razonamiento matemático ideal se está aceptando implícitamente la consistencia. Penrose acepta a priori que el algoritmo probador de teorías es consistente. Sin embargo, no hay razones suficientes para adoptar esa postura. Más bien, lo lógico sería pensar que no hay una representación exacta del pensamiento matemático, que ningún sistema algorítmico puede representarlo fielmente. Dando un paso más, la cuestión se puede desplazar a si yo soy intrínsecamente capaz de demostrar la consistencia de mi pensamiento matemático. O más bien estoy sometido a ella, pero no puedo darme cuenta. Si eso es así, entonces —concluye Gaifman— nosotros seríamos máquinas156. Aparece de este modo la cuestión sobre la auto-reflexión matemática. En un primer paso, el matemático reflexiona sobre su pensamiento matemático y se da cuenta de que sus conclusiones se pueden formalizar en un sistema deductivo. En un segundo paso se infiere que el sistema formalizado es consistente, lo que implica que la auto-reflexión realizada es parte del razonamiento matemático. Sin embargo, Gödel muestra que la auto-reflexión no puede abarcar todo el razonamiento porque no se puede probar a sí misma dentro del sistema. Luego, el sistema solo podría reflejar parcialmente nuestro razonamiento, porque el acto de auto-reflexión queda fuera de la imagen que muestra el sistema. Por tanto, las conclusiones de los teoremas de incompletitud de Gödel dan argumentos para itir que una plena comprensión de nuestro propio razonamiento matemático es imposible de alcanzar. Podemos confirmar aspectos de cómo funciona, pero no podemos tener una teoría completa y detallada. La razón de la imposibilidad se puede encontrar en que la auto-reflexión introduce al sujeto en la teoría. 3.4. Conclusiones A mi parecer, el nuevo argumento de Penrose se desenvuelve en dos niveles de razonamiento: el nivel del algoritmo en sí (algoritmo A) y nivel del entendimiento humano consciente. Del contraste entre ambos niveles, nuestro autor infiere la diferencia. El entendimiento humano razonaría de un modo no-algorítmico porque no sería asimilable al proceso algorítmico de un ordenador. Además, como para Penrose el fenómeno de entender (understanding) requiere de la consciencia (consciousness), también el fenómeno de la consciencia tendría un aspecto no algorítmico. Pero ese aspecto no estaría solo en la dimensión pasiva (awareness) de la consciencia, sino también en su dimensión activa (free will). Según Penrose, con la física conocida, la consciencia (consciousness) tanto en su dimensión pasiva (awareness) como activa (free will) no podría darse en un ordenador, sino que entendimiento, consciencia y libertad serían atributos meramente humanos. Para recalcar que esos atributos son humanos, Penrose señala que, en la programación de un ordenador, son los seres humanos quienes determinan qué algoritmo es el que se debe ejecutar en cada circunstancia. Y también son ellos quienes proporcionan las reglas 108
que debe seguir y quienes analizan los resultados. Suplantar el elemento de entendimiento humano mediante acciones enteramente algorítmicas es imposible. Aunque la computación proporcione una inestimable ayuda instrumental eso no la desvincula del entendimiento humano matemático, el cual no puede ser eliminado por completo (Penrose, 1994a: 199). La diferencia no estriba, por tanto, en la ejecución mecánica de procesos, que podría ser superior en los ordenadores, sino en la capacidad de entender, propia de un sujeto consciente. Ese es el paso que no puede dar un ordenador, aunque tenga todo el conocimiento básico. Hay algo esencial en el proceso de aprendizaje del entendimiento humano que no es posible simular mediante ningún medio computacional157. Penrose deduce, en ese contraste de niveles entre el algoritmo y el entendimiento humano, que el entendimiento matemático está más allá de lo que se puede expresar en un sistema computacional. Pero en su argumento quedan algunas fisuras que tanto él como otros autores reconocen (Alonso, 2001: 158; Lindström, 2006; Shapiro, 2003). Esas fisuras hacen que el nuevo argumento no sea completamente concluyente, si bien los autores difieren en la profundidad y en las razones. Mientras que Penrose considera que el argumento sí concluye porque esas fisuras insuficientes para contrarrestar la solidez de su argumento, los defensores de la inteligencia artificial consideran que las fisuras tienen suficiente entidad para mantener su opinión. El statu quo del nuevo argumento de Penrose se puede resumir en que no es matemáticamente concluyente, como pretendía nuestro autor. Las conclusiones sobre el argumento de Penrose se podrían dejar aquí, con más razón si se considera que no es un argumento sencillo y ha sido ampliamente tratado por muchos autores competentes. Aun así me gustaría hacer una primera consideración personal sobre el aspecto auto-referencial de la crítica de Penrose —asociado con el corte diagonal de Cantor— para más adelante entrelazarlo con la fundamentación última de las matemáticas. Comenzaré distinguiendo entre una auto-referencia computacional que denominaré recursividad y una auto-referencia humana que se puede denominar reflexividad. La principal diferencia entre recursividad y reflexividad reside en que la reflexividad es consciente, realiza el juicio y formula la conclusión del argumento matemático de Penrose. A su vez también hay una diferencia en el modo en que ambos términos se relacionan con el concepto de infinito (Ortiz de Landázuri, 2010). En el caso de la recursividad se relaciona con un concepto de infinito matemático que remite a Georg Cantor, mientras que en el caso de la reflexividad se relaciona con la apertura ilimitada del conocimiento humano. A mi modo de ver solo la reflexividad remitiría a un infinito realmente abierto, mientras que el infinito recursivo se quedaría encerrado en el ámbito matemático. Para entender mejor a qué me refiero con la apertura ilimitada del pensamiento humano, puede servir la respuesta que Leonardo Polo dio en una entrevista en la que preguntaban sobre este argumento: Si comparamos esas dos tesis: por una parte, que el conocimiento es limitado y, por otra, que es infinito
109
(lo que significa que no hay un último objeto, o que en cuanto se llega a alguno, desde él se entiende más), si cabe detectar el límite mental de una manera estricta, eo ipso cabe abandonarlo, es decir, ir más allá del conocimiento limitado (...) Para cualquiera que se haya dedicado algún tiempo a pensar es palmario: nuestro conocimiento no se detiene definitivamente; no es posible que el conocimiento intelectual tropiece con lo conocido de manera que tras de él no haya nada más (Cruz, 1992: 43).
Luego, en la actividad consciente del pensamiento humano auto-reflexivo resulta imposible que exista un «telón de fondo intelectual», porque ese límite se supera al reconocerlo conscientemente. Sin embargo, en la recursividad matemática ese telón de fondo siempre permanece. La actividad matemática no puede salir de su hacer matemático. Solo el matemático con su entendimiento puede sobrepasar el límite. Es decir, cuando Penrose pone en paralelo la recursividad del algoritmo capaz de resolver competentemente todos los problemas matemáticos (algoritmo A), con la reflexividad humana sobre el pensamiento matemático, es el matemático con su pensamiento humano consciente el que juzga tanto la reflexividad propia como la recursividad del algoritmo. Una segunda consideración personal es que la computación es un área de las matemáticas suficientemente amplia y compleja y, por lo tanto, se le puede aplicar los teoremas de incompletitud de Gödel. Lo que implica que la computación no puede ser un sistema formal que se auto-fundamente en sí mismo: no puede ser completo y consistente a la vez. Solo se puede fundamentar desde un ámbito más amplio como puede ser el conjunto de las matemáticas. A la vez el conjunto de las matemáticas se apoya en el fundamento último de las matemáticas, que para Penrose sería el mundo platónico. Sin embargo, como ya se ha argumentado al principio de este capítulo, ese fundamento más bien estaría tanto en la propia actividad matemática (fundamento interno), como en la actividad del pensamiento humano y en la confrontación de las matemáticas con otras ciencias (fundamento externo). Luego para que el nuevo argumento fuese concluyente requeriría de un fundamento exterior a las matemáticas. El argumento de Penrose contra la inteligencia artificial sería insuficiente porque al ser matemático requeriría de dicho fundamento externo. Remitiría tanto al razonamiento humano consciente, es decir a un razonamiento filosófico a favor o contra la inteligencia artificial, como a una justificación científica, es decir a una confirmación o refutación experimental de que es posible crear inteligencia artificial. Por tanto, el argumento no puede ser en sí mismo concluyente, aunque puede ser válido si se juzga desde una instancia superior como el entendimiento humano. Es lo que hace Penrose al poner en paralelo dos niveles auto-referenciales distintos: la reflexividad humana y la recursividad computacional. En realidad, su argumento acaba siendo filosófico porque desde las matemáticas no se pueden extraer las conclusiones que Penrose extrae. Es mediante la reflexividad como el entendimiento humano se compara a sí mismo con la recursividad computacional para concluir que no son lo mismo. Y lo que diferencia a la reflexividad de la recursividad sería precisamente esa capacidad de mirar el conjunto desde lejos o, dicho con otras palabras, el carácter no-algorítmico de la reflexividad. Por contraste, para la mayoría de los defensores de la inteligencia artificial no existiría una diferencia sustancial entre reflexividad y recursividad. Ambos procesos serían auto110
referenciales158. Así por ejemplo, Alonso (2001: 164) sugiere la necesidad de profundizar en la plasticidad, la identidad y la referencia entre algoritmos, para saber hasta dónde pueden llegar, porque no se sabe qué puede suceder cuando interactúan todos a la vez. Además, como estas cuestiones se relacionan con la identidad personal, tampoco sabríamos si un ordenador podría llegar a tener identidad personal. Penrose lo ve de otro modo. Para él los aspectos de plasticidad, identidad y referencia serían radicalmente distintos en un ordenador que en un ser humano, porque la reflexividad humana no es igual a lo que hacen los ordenadores, es no-algorítmica. En resumen, desde el punto de vista que se ha presentado, la reflexividad humana consciente posee una apertura esencial para la que no puede existir un «telón de fondo intelectual», como diría Polo. Esto permite que el pensamiento humano se juzgue y juzgue otras cosas, de modo que crezca su autoconocimiento y su conocimiento de la realidad de modo ilimitado. Frente a este modo de conocer, la computación podrá crecer mediante recursividad y complejidad relacional, pero siempre en la medida en que participa de la apertura del pensamiento humano. Es decir, en la medida en que el ser humano introduce nuevos elementos a los sistemas computacionales. El crecimiento de los algoritmos, según Penrose, se produce por la contribución de los seres humanos con el descubrimiento de patrones y técnicas de computación. El hecho de que un algoritmo crezca en complejidad o en interacciones no le va a hacer consciente. Por otro lado, el nuevo argumento de Penrose tropieza con un problema desde el inicio cuando pretende hacer una demostración matemática inatacable. En ese intento va más allá de lo que las matemáticas pueden decir de sí mismas, por lo que no concluye. Esto se debe a que las matemáticas no se fundamentan en sí mismas, sino en la actividad del pensamiento humano y en su entrelazamiento con la realidad. Dichos entrelazamientos hacen que las matemáticas sean inabarcables en cuanto alcanzan un mínimo de complejidad, como sucede con la computación matemática. Por último, la conclusión del argumento de Penrose, en cuanto conclusión filosófica, parece válida. No es un argumento que posea el grado de certeza que quería darle Penrose aunque proporciona un grado de certeza suficiente. Se une de este modo a otros razonamientos de índole filosófica o técnica para negar que lo que hace un cerebro humano sea esencialmente igual a lo que hace un ordenador. Aun así sostener una postura distinta, sea mecanicista o mentalista, sigue siendo posible dentro del marco establecido por Penrose. 3.5. Necesidad de un elemento no-algorítmico Las conclusiones a las que se ha llegado en el apartado anterior y que se derivan del nuevo argumento de Penrose serían básicamente compatibles tanto con el fisicalismo defendido por Penrose (postura C) como con el mentalismo (postura D). De hecho algunos autores como Alonso, tras analizar con solvencia el nuevo argumento, lo asocian con el mentalismo (Alonso, 2001: 158). No es esta la conclusión a la que quiere llegar Penrose. Con su nuevo argumento nuestro autor pretende rechazar las posturas que 111
defienden la posibilidad de una inteligencia artificial, pero con el argumento «científico» también quiere rechazar el mentalismo. O más bien la postura D, porque nuestro autor prefiere no usar la terminología mentalista-fisicalista sino las posturas definidas por él como A, B, C y D. En una de sus consideraciones para criticar la postura D, Penrose se pregunta cómo es posible que nuestras mentes parezcan estar tan asociadas con un objeto físico como es el cerebro. Según nuestro autor, observar la cercanía entre el fenómeno de la consciencia y la actividad cerebral es un signo más de la dificultad para separar la consciencia del substrato físico que la sustente. Más bien considera que debe haber una íntima conexión entre consciencia y física y, por eso, busca signos de una acción no-algorítmica, característica de la consciencia, en la física actual. En esta búsqueda observa que dentro de la teoría física actual casi todo parece computable, salvo la presencia de una aleatoriedad esencial en el proceso de medida cuántico (como se vio en el capítulo III) y el pensamiento matemático (como se ha visto en el capítulo IV). Por eso, intentará tender un puente entre estos dos mundos (como se verá en el capítulo V) buscando una acción cuántica en el cerebro. La cuestión que queda pendiente es si la física actual es suficiente para dar razón del fenómeno de la consciencia o si por el contrario sería necesario algún cambio radical en nuestra comprensión actual de la física. Si solo prestamos atención a que el fenómeno de la consciencia parece ser exclusivo de los cerebros humanos y a que el pensamiento matemático es no-computable, entonces se podría sostener la postura C débil. Según esta postura para buscar la causa del fenómeno de la consciencia sería suficiente con investigar en la actividad cerebral. La causa última podría deberse a la complejidad de la estructura cerebral, pero en cualquier caso no requeriría de nuevos descubrimientos en la física, sino de una profundización en lo ya conocido. Sin embargo, a Penrose no le convence la postura débil, ya que observa serias dificultades ontológicas y científicas en la comprensión del proceso de medida cuántico. Dicho proceso sería esencialmente inconsistente por su doble dimensión determinista y probabilista. En la situación actual, no sería posible saber con precisión en qué momento tiene lugar el proceso de medida, porque se trata de un proceso esencialmente aleatorio. Y esa aleatoriedad pura, como ya se apuntó, es no-algorítmica. Por todo esto, Penrose rechaza la postura C débil y suscribe la postura C fuerte. Para esta última, no basta con buscar la causa del fenómeno de la consciencia en la actividad cerebral, sino que requiere de una nueva física que en sí misma contenga un elemento radicalmente noalgorítmico. Con su postura, Penrose une dos aspectos que se encuentran en otros muchos autores, aunque normalmente separados. Por un lado, esos autores suelen sostener que bajo el fenómeno de la consciencia debe subyacer algún elemento o alguna característica radicalmente no-computacional, pero consideran que la respuesta se encuentra en la complejidad del cerebro humano. Y por otro, esos mismos autores, también pueden sostener la necesidad de nuevos avances importantes en la física para comprender mejor la realidad. Sin embargo, Penrose es de los pocos que conecta la necesidad de una nueva 112
física con su potencial explicativo respecto al fenómeno de la consciencia. En el siguiente capítulo se expondrán los argumentos de Penrose para sostener la necesidad de una nueva física y qué aspectos de esta pueden estar influyendo en el fenómeno de consciencia. 131 «Methodological naturalism has three principal and related senses in the philosophy of mathematics. The first is that the only authoritative standards in the philosophy of mathematics are those of natural science (physics, biology, etc.). The second is that the only authoritative standards in the philosophy of mathematics are those of mathematics itself. The third, an amalgam of the first two, is that the authoritative standards are those of natural science and mathematics» (Paseau, 2010). Maddy no se sitúa con propiedad en ninguno de estos tres tipos. 132 La autora considera esta inversión como un triple proceso. En primer lugar los matemáticos comenzaron a estudiar conceptos, estructuras y teorías puramente matemáticos, sin perseguir unos objetivos con aplicación inmediata al mundo. Además, surgió una amplia variedad de alternativas a la geometría euclídea que podían aplicarse con éxito a la investigación empírica. Y finalmente, los modelos matemáticos de los fenómenos físicos —cada vez más complejos y de difícil comprensión— ya no pretendían reflejar con exactitud la realidad, sino asemejarse al mundo en algunos aspectos concretos y limitados. Cabría matizar la postura de Maddy, porque Platón distingue entre unas matemáticas puras y unas matemáticas aplicadas. Sin embargo, esa distinción no tiene el mismo sentido que el expuesto por la autora. En Platón las matemáticas puras serían los Números supremos o ideales, que están entre el Uno y las Ideas; mientras que las matemáticas aplicadas serían los entes matemáticos, de los que trata la matemática y que son mediadores entre las Ideas y el mundo sensible. 133 «The present volume provides what I believe to be a much more powerful and rigorous case for this general conclusion, and it applies to any kind of computational process whatever» (Penrose, 1994a: v). También en el prólogo se observa una analogía entre lo que Penrose pretende explicar y el mito de la caverna platónico. 134 Penrose emplea los dos términos «awareness» y «consciousness» para referirse al fenómeno de la consciencia y, aunque no los define, intenta aclarar la terminología. Además, sostiene que su postura coincide con la percepción intuitiva común que se tiene del significado de esos conceptos. En su esquema: «(a) ‘intelligence’ requires ‘understanding’ and (b) ‘understanding’ requires ‘awareness’». Además, ‘awareness’ sería el aspecto pasivo del fenómeno de ‘consciousness’, mientras que ‘free will’ sería el aspecto activo (Penrose, 1994a: 37-40). 135 Penrose reconoce que su argumento se remonta al de John Lucas: «I believe that our positions are very broadly in agreement, although the emphasis that I am placing on the role of the Gödelian argument may be a little different from his» (Penrose, 1997b: 7). 136 Durante las dos últimas décadas se ha realizado una competición anual entre programas de ordenador que sigue el estándar establecido en el test de Turing. Hasta ahora ningún programa ha conseguido ganar la medalla de oro del Premio Loebner, que se entrega a aquella pareja (ser humano-ordenador) que consiga engañar al juez. 137 «But viewpoint C, on the other hand, would not even it that a fully effective simulation of a conscious person could ever be achieved merely by a computer-controlled robot. Thus, according to C, the robot’s actual lack of consciousness ought ultimately to reveal itself, after a sufficiently long interrogation» (Penrose, 1994a: 1415). 138 Penrose no distingue entre explicación matemática y explicación científica. Sin embargo, no parecen que sean lo mismo. Personalmente opino que la explicación científica es más amplia que la explicación matemática. Además, al igual que se puede hacer una crítica matemática para mostrar la no computabilidad de la consciencia, también se podría hacer una crítica científica para mostrar la no-matematicidad de la consciencia. Si afirmamos que hay características físicas no computacionales, también podríamos afirmar que hay características físicas no matemáticas. Sin embargo, así como la computación se puede englobar por completo en las matemáticas, no está tan claro que las matemáticas se puedan englobar en las ciencias. 139 Algunos autores como John Polkinghorne, observan en el caos un tipo de indeterminación que daría cabida a la acción libre humana (Monserrat, 2005). 140 «According to the weak version of C, there would have to be physical actions underlying the behavior of the conscious human brain that are non-computable in the standard sense of discrete Turing computability, but which can be entirely understood in of present-day physical theories. For this to be possible, it would appear that these actions would have to depend upon continuous physical parameters in such a way that they cannot be properly simulated by standard digital procedures. According to the strong version of C, on the other hand, the non-computability would have to come from some non-computable physical theory —as yet undiscovered— whose implications are essential ingredients of conscious brain actions. Although this second possibility might
113
seem far-fetched, the alternative (for C-ers) is, indeed, to find a role for some continuous action from amongst the known laws of physics, which cannot be properly simulated in any computational way. However, the expectation for the moment must surely be that, for any reliable analogue system of any type that has been seriously envisaged to date, it would be possible —in principle at least— to provide an effective digital simulation of it» (Penrose, 1994a: 25-26). 141 Estas últimas consideraciones abren nuevas perspectivas sobre la posibilidad de que la consciencia sea inducida o despertada por un agente externo. Sin embargo, no constituyen un argumento central en el planteamiento de Penrose, por lo que no se estudiará en el presente trabajo. 142 Un ejemplo de problema no-computable es el teselado aperiódico descubierto por Penrose. Ningún ordenador podría haber encontrado la solución a pesar de ser un problema bien definido. Solo el pensamiento humano era capaz de hallar la respuesta. (Penrose, 1994a: 29-33). 143 De modo análogo a lo que pretende Penrose, si se ite la existencia de una instancia superior donde se puede incluir todo el pensamiento matemático, desde esa instancia se podría argumentar que la consciencia puede ser no-matemática. Esa instancia superior sería el pensamiento en sí. 144 Para el caso particular de la aritmética de Peano (PA) el primer teorema se pueden enunciar: Si PA es consistente, entonces existe un enunciado G tal que ni él ni su negación son demostrables en PA. Y el segundo: Si PA es consistente, entonces el enunciado que representa en PA la consistencia de PA no es demostrable en PA. 145 En computación un problema de decisión es una cuestión en un sistema formal que tiene una respuesta ‘sí’ o ‘no’, dependiendo de los valores de algunos parámetros de entrada. Por ejemplo, «dado x, ¿x es un número primo?» es un problema de decisión. La respuesta será ‘sí’ o ‘no’ en función del valor de x. Una instancia de este problema es: «¿15 es un número primo?». A su vez los problemas de decisión están estrechamente relacionados con la decibilidad matemática, es decir, si existe un método eficaz para determinar si un objeto matemático existe o si pertenence a un conjunto. De modo generalizado la decibilidad implica buscar «si existe un método que permita decidir sobre cualquier problema matemático». Es decir, resolver la cuestión sobre si un problema matemático tiene solución o no, conjugando simplemente axiomas y teoremas. Por último, un método para la resolución de un problema de decisión dado en forma de algoritmo, se llama procedimiento de decisión. 146 Una formulación del problema de parada puede ser: «¿Existe una función computable H (x, y) que permita determinar si la x-ésima función computable fx finaliza arrojando un resultado cuando computa el input y?». 147 Por algoritmo se puede entender todo procedimiento que puede ser realizado por una máquina de Turing. En su estructura más básica consiste en ejecutar unas instrucciones paso a paso a partir de unas reglas completamente especificadas. Estos pasos permiten la evolución desde un estado interno de las variables del sistema a otro, hasta que se llega a una instrucción concreta en la que se detiene. Después de mostrar la respuesta la máquina queda lista para ejecutar otra operación. 148 Por ejemplo, no se sabe si un algoritmo con la conjetura de Goldbach encontrará siempre respuestas válidas. Dicha conjetura se enuncia: «Todo número par mayor que 2 puede escribirse como suma de dos números primos»; aunque fue escrita en 1742 por Goldbach en una carta dirigida a Euler con un enunciado equivalente: «Todo número entero mayor que 5 se puede escribir como suma de tres números primos». 149 Como Penrose resume: «The argument I shall present in the next chapter provides what I believe to be a very clear-cut argument for a non-computational ingredient in our conscious thinking. This depends upon a simple form of the famous and powerful theorem of mathematical logic, due to the great Czech-born logician Kurt Gödel. I shall need only a very simplified form of this argument, requiring only very little mathematics (where I also borrow from an important later idea due to Alan Turing). Any reasonably dedicated reader should find no great difficulty in following it. However Gödel-type arguments, used in this kind of way, have sometimes been vigorously disputed. Consequently, some readers might have gained an impression that this argument from Gödel’s theorem has been fully refuted. I should make it clear that this is not so. It is true that many counterarguments have been put forward over the years. Many of these were aimed at a pioneering earlier argument —in favour of mentalism [D] and opposed to physicalism [C]— that had been advanced by the Oxford philosopher John Lucas (1961). Lucas had argued from the Gödel theorem that mental faculties must indeed lie beyond what can be achieved computationally (others, such as Nagel and Newmann (1958), had previously argued in a similar vein). My own argument, though following similar lines, is presented somewhat differently from that of Lucas — and not necessarily as for mentalism [D]. I believe that my form of presentation is better able to withstand the different criticisms that have been raised against the Lucas argument, and to show up their various inadequacies» (Penrose, 1994a: 49).
114
150 Penrose pone dos ejemplos prácticos: C(n) puede ser «encuentra un número que no sea la suma de n números cuadrados»; o bien «encuentra un número impar que sea la suma de n números pares». En el segundo caso, la respuesta es que la máquina nunca se parará, sea cual sea el valor de n. Y en el primer caso la máquina solo se parará cuando n sea 0, 1, 2 o 3, dando como resultado 1, 2, 3 y 7. Sin embargo, para probar que no se parará en ningún caso más hace falta una formidable demostración matemática. 151 «En general Penrose utiliza los términos ‘sólido’ [sound] y ‘solidez’ [soundness] para referirse a la ‘consistencia’ de los sistemas formales, i.e., a sistemas formales en los cuales no debería ser posible demostrar tanto una proposición como su negación. Sin embargo, Penrose utiliza el término sólido de modo más específico para referirse a la noción de w-consistencia, la cual es más fuerte que la noción de consistencia. Más adelante veremos qué significa esta noción. Por lo pronto podemos simplemente considerar el concepto de sólido como equivalente al de consistente con respecto a los sistemas formales. En la versión castellana de Shadows of the mind, Javier García Sanz tradujo el término inglés sound como ‘válido’» (Alonso, 2001: 158). De hecho el autor reconoce la relación entre ambos términos: «Another advantage is that the notion of ‘soundness’ of a system F, when this notion is restricted to F’s ability to establish P1-sentences, is equivalent to F’s consistency» (Penrose, 1997b: 10). La apreciación es debida a Hilbert (Feferman, 1995). 152 Es decir, hay dos algoritmos. El primero se llama C (de computación) que es el que se detendrá o no al resolver un problema. Este algoritmo nunca falla. Si se detiene es que ha resuelto el problema y si no se para es que el problema no tiene solución. Mientras que el segundo se llama A (de algoritmo) y actúa sobre C. Contiene todos mecanismos posibles para realizar bien su tarea (indicar cuando C no se va a detener). Si A se detiene es que en algún caso C no se va a detener y si A no se para es que C va a encontrar siempre una solución. Ambos mecanismos se ejecutan en un ordenador idealizado, que nunca falla. Dicho ordenador podría estar constituido por dos ordenadores idealizados pero físicamente distintos, que al estar interconectados funcionarían como un único ordenador idealizado. 153 En este argumento hay varios puntos que podrían sembrar la duda. Penrose analiza en Shadows of the Mind veinte contraargumentos para los que da respuesta y termina reafirmando su tesis. 154 «Human mathematicians are not using a knowably sound algorithm in order to ascertain mathematical truth» (Penrose, 1994a: 76). 155 El primer teorema de incompletitud afirma que toda teoría aritmética recursiva que sea consistente es incompleta. Es decir, no hay ninguna teoría matemática formal capaz de describir los números naturales y la aritmética con suficiente expresividad que sea a la vez consistente y completa. Eso implica que si los axiomas de dicha teoría no se contradicen entre sí, entonces existen enunciados que no pueden probarse ni refutarse. Las teorías aritméticas para las que el teorema es válido son aquellas en las que la deducción de teoremas puede realizarse mediante un algoritmo. El segundo teorema de incompletitud afirma que en toda teoría aritmética recursiva que sea consistente, Consis T no es un teorema. Se trata por tanto de un caso particular del primer teorema. Se afirma ahora que una de las sentencias indecidibles de dicha teoría es aquella que «afirma» la consistencia de la misma. Es decir, que si el sistema en cuestión es consistente, no es posible probarlo dentro del propio sistema. 156 «The upshot is hauntingly reminiscent of Spinoza’s conception, on which humans are predetermined creatures, who derive their sense of freedom from their incapacity to grasp their own nature» (Gaifman, 2000). 157 Aunque del esquema de Penrose se deduciría que los ordenadores no poseen la intuición necesaria para llegar el mundo platónico, personalmente considero que el proceso de aprehensión matemática se podría realizar mediante un proceso de abstracción, que tampoco sería computable. 158 Hofstadter (2008) considera la percepción del yo como un sujeto creado (que no existe realmente) para fundamentar una auto-referencia infinita a partir de las percepciones.
115
Capítulo V Un intento de respuesta La comprensión del mundo representado por la física ha experimentado dos revoluciones en el siglo pasado. La primera unió el espacio y el tiempo en una única entidad geométrica que incorpora el fenómeno de la gravedad. La segunda cambió por completo nuestra comprensión de la materia. Estos cambios se han visto estimulados por el progreso de las matemáticas, que a su vez han servido de catalizador heurístico para el desarrollo de nuevas áreas de investigación. Sin embargo, la simbiosis entre la dimensión física y la dimensión matemática de la realidad se enfrenta a nuevos retos. Estos retos manifiestan los límites actuales de la compresión de la realidad y, conforme se aclaran, desplazan esos límites hacia nuevas fronteras, de modo similar a como el área de un círculo y su perímetro aumentan simultáneamente. Hasta ahora se han apuntado algunas de estas fronteras y en el presente capítulo se afrontará uno de los enigmas que opone más resistencia a la comprensión del conocimiento humano: la consciencia. Se trata de un tema muy amplio y el objetivo concreto consistirá en contextualizar la perspectiva de Penrose al respecto. Nuestro autor ha encontrado dos escollos básicos en los intentos de reducir la consciencia o el pensamiento humano a una máquina mental: el problema de medida de la mecánica cuántica y el teorema de incompletitud de Gödel en clave computacional. La conclusión a la que llega es que en la naturaleza debe haber algo fundamentalmente no computacional que se escapa a la comprensión actual de la física. Por eso, se requiere de un nuevo enfoque. Dicho enfoque debe tener en cuenta los logros alcanzados, los problemas abiertos y las sugerencias heurísticas de muchos autores. La interacción entre estos elementos y las nuevas contribuciones de la ciencia pueden desembocar en la aparición de una nueva física que permita dar una explicación más completa de la realidad conocida. En esta perspectiva encuentran acogida las propuestas de Penrose que presentaré en este capítulo. Son propuestas que en muchas ocasiones no están exentas de polémica y en otras tantas han sido calificadas por el mismo autor como no convencionales. Sin embargo, la necesidad de nuevas y sugerentes aproximaciones es cada vez más patente a los ojos de muchos científicos. Comenzaré señalando algunas razones físicas y matemáticas que apuntan hacia esa nueva aproximación para después indicar qué efectos podría tener en la consciencia y terminar con un breve análisis crítico de la postura de Penrose al respecto. 1. Hacia la gravitación cuántica Los intentos de unificación de la física en una única teoría siguen caminos muy diversos. Así por ejemplo, los esfuerzos por unificar las cuatro fuerzas fundamentales de la naturaleza se denominan genéricamente Teorías del Todo (en inglés, Theories of Everything o TOE) o, cuando excluyen la gravedad en su intento, Teorías de la Gran 116
Unificación (en inglés, Grand Unification Theories o GUT). Entre los que siguen este camino, la perspectiva común es que, para llegar a una teoría del todo, primero hay que pasar por una gran unificación. Un enfoque alternativo es el de aquellas propuestas que se centran en unificar las dos grandes teorías de la física conocida. En este caso predomina la denominación genérica de Gravedad Cuántica (QG) y engloba diferentes líneas de investigación como las teorías de cuerdas, la supergravedad, la gravedad cuántica de bucles, la geometría no conmutativa, o la teoría de twistores de Penrose, entre otras. En este apartado no se describirán esas posturas, sino simplemente algunas de las razones que llevan a buscar una teoría unificadora. Así que se mantendrá el término genérico de gravedad cuántica para la futura teoría, sea cual sea su configuración final. Las razones para buscar esa nueva teoría derivan de algunas deficiencias observadas en el paradigma de las teorías físicas actuales. A grandes rasgos, y desde el esquema que se ha seguido en este trabajo, se encuentran dificultades en la explicación de: — Las condiciones de contorno y las singularidades de la teoría de la relatividad. — Los aspectos determinista y probabilista del proceso de medida de la mecánica cuántica. — Los aspectos no-locales del entrelazamiento cuántico. — La esencial asimetría temporal del universo. — El aspecto no algorítmico que se percibe en el pensamiento de los seres humanos. Una nueva teoría de gravitación cuántica que englobase las dos grandes teorías desarrolladas en el siglo pasado —la mecánica cuántica y la teoría de la relatividad general— debería responder a alguna de estas dificultades. A este propósito, la postura de Penrose se hace nítida. Por un lado, está firmemente convencido de la necesidad de buscar esa teoría y, por otro, se distancia del punto de vista convencional. Mientras que la mayoría de los autores sugieren que la relatividad general se debe integrar en la mecánica cuántica, Penrose sostiene la postura inversa: es la mecánica cuántica la que se debe integrar en la teoría de la relatividad general. Simplificando mucho, esta postura implica que si la teoría de la relatividad general se ampliase hasta incluir las condiciones de contorno, entonces podría dar una explicación de los fenómenos cuánticos que se aprecian en las singularidades y de ese modo englobar los fenómenos cuánticos ya conocidos. La mayoría de la comunidad científica sostiene la postura contraria, según la cual, la existencia de singularidades implica que la teoría de la relatividad debe ser reemplazada por una nueva teoría lo suficientemente sólida. La única teoría en condiciones de aportar respuestas implicaría una generalización de la mecánica cuántica que incluyese la gravedad. Esta nueva teoría se apoyaría sobre una unidad mínima de tiempo —es decir, un tiempo discreto— o desproveería de sentido al concepto de tiempo (Lapiedra, 2008: 244-245). Veremos más adelante estas consideraciones sobre la desaparición o discretización del tiempo. Las razones que aduce Penrose para sostener su enfoque poco convencional son 117
fundamentalmente técnicas, pero se pueden reducir a dos grandes consideraciones. Por un lado, observa que la precisión experimental de la teoría de Einstein es del orden de mil veces mayor que en la mecánica cuántica y, por otro, resalta que la solución actual al problema de medida es esencialmente insatisfactoria. Ambos puntos ya se consideraron en el tercer capítulo, pero conviene detenerse un poco más en el segundo. La nueva teoría de la gravedad cuántica debería dar una respuesta plausible y realista, no meramente funcional, de los aspectos determinista y probabilista del proceso de medida cuántico ya que, según Penrose, los procesos U y R serían aproximaciones generales a un procedimiento único más preciso. Desde el punto de vista físico, este es el nervio central de su argumentación y, para afrontarlo, conviene situarlo en un contexto amplio. Por eso, en los siguientes apartados se seguirá el esquema explicativo del tercer capítulo159, para posteriormente considerar las contribuciones de la postura de Penrose desde el punto de vista matemático. En esta segunda parte, el aspecto central será la dimensión no algorítmica del pensamiento matemático. 1.1. Condiciones de contorno En el nivel macroscópico la teoría de la gravedad describe con gran éxito el comportamiento dinámico del universo. Sin embargo, como cualquier modelo matemático tiene sus límites de aplicabilidad, que en este caso son singularidades. Al principio, esos límites se asociaron solo con el modelo matemático pero con el tiempo los datos empíricos han asentado la existencia de dichas singularidades, confirmando la cercanía del modelo con la realidad. Aun así el modelo no explica lo que sucede más allá de las condiciones de contorno. Por eso, se necesita de una nueva teoría de la gravedad que englobe la teoría de la relatividad general y dé explicación de lo que sucede en las singularidades. 1.1.1. En los agujeros negros Las singularidades de la teoría de la relatividad son de dos tipos: la singularidad inicial y los agujeros negros. Sobre el conocimiento de las singularidades del segundo tipo se ha avanzado algo. Así por ejemplo se supone que la entropía de los agujeros negros es un efecto de la gravedad cuántica porque su valor depende de la geometría del agujero y es proporcional a las constantes de Newton (gravedad) y de Planck (cuántica)160. Además, se sabe que los agujeros negros emiten energía en forma de radiación, denominada radiación de Hawking161 y se investiga la conjetura de la censura cósmica formulada por Penrose. La conjetura de Penrose pretende acotar las soluciones posibles a las ecuaciones de Einstein ya que, en su formulación actual, son compatibles con la existencia de singularidades visibles, o agujeros blancos. Sin embargo, según los requisitos de la censura cósmica, dichas singularidades no podrían existir. Ninguna singularidad formada por colapso gravitacional se podría observar directamente ya que todas serían vestidas 118
por el horizonte de sucesos (delimitado por el momento en que la velocidad de escape se hace mayor que la velocidad de la luz)162. En palabras de Penrose: La censura cósmica es básicamente una conjetura matemática —todavía no demostrada ni refutada— concerniente a las soluciones generales de la ecuación de Einstein. Si aceptamos esta conjetura, entonces las singularidades espaciotemporales físicas tienen que ser de género espacio (o quizá nulas) pero nunca de género tiempo. Hay dos tipos de singularidades de género espacio (o nulas), a saber, iniciales o finales, dependiendo de si las curvas de género tiempo pueden escapar de la singularidad hacia el futuro o entrar desde el pasado (Penrose, 2006: 1029).
Para entender esta cita se puede recordar el cono de Minkowski. En una singularidad de género espacio (o nula), dicho cono sería cortado en horizontal por el centro (o en diagonal junto al borde). Y el resultado obtenido serían dos mitades: una superior (c) y otra inferior (b). Mientras que con una singularidad de género tiempo el cono sería cortado en vertical (a)163.
La censura cósmica niega que existan singularidades de género tiempo o agujeros blancos (a) y solo ite la existencia de singularidades de género espacio (o nulo). Entre estas últimas habría dos tipos: las finales o agujeros negros (b), que corresponderían con el cono inferior del «reloj de arena»; y las iniciales o big bang (c) que serían el cono superior del «reloj de arena». Los esquemas considerados inducen a pensar que cuando se atraviesan los límites de contorno de una singularidad final el tiempo desaparece, mientras que a partir de la singularidad inicial el tiempo se crea. Luego parecería que la censura cósmica introduce una condición de asimetría temporal en las ecuaciones de Einstein. Lo que se observa más claramente cuando se considera que entre las singularidades inicial y final no puede haber una simetría especular. A estas consideraciones se añade que, en un universo que no cesa de expandirse, el pequeño efecto de la radiación de Hawking acabaría siendo predominante. Por tanto, los agujeros negros serían singularidades intermedias que tenderían a desaparecer. Al final existiría el tiempo y una vasta extensión desoladora de un universo que se enfría y se expande cada vez más rápidamente. 1.1.2. En la singularidad inicial Por contraste, en la singularidad inicial las cosas serían distintas. Por una parte, el espaciotiempo inicial estaría máximamente concentrado en un universo muy caliente. Y 119
por otra parte, los efectos derivados de esa fase inicial podrían observarse directamente —aunque hasta cierto límite— en los rastros del universo visible. Eso permite acercarse a la condición de contorno inicial donde los efectos de la gravedad cuántica se hacen predominantes. Veamos tres enfoques distintos ante este problema. En primer lugar, la explicación más aceptada sobre las condiciones iniciales de las singularidades se debe a Hartle y Hawking164. Su propuesta elimina las condiciones de contorno mediante la hipótesis de que, por debajo del tiempo y de la longitud de Planck165, el universo se redondea y se cierra suavemente en una geometría puramente espacial166. El universo deja de tener una geometría de espaciotiempo para adquirir una geometría de espacio cuatridimensional cerrado sobre sí mismo. Estas consideraciones apuntan a que en el substrato de la gravedad cuántica no predominaría ni un espaciotiempo fijo, como en la mecánica cuántica actual, ni un espaciotiempo relativo, como se observa en la relatividad general, sino un espacio cuatridimensional. Sin embargo, esta hipótesis se enfrenta con dos dificultades no menores. En primer lugar, no está claro que en dicho contorno la transición entre espacios sea suave. Y en segundo lugar, tal y como resalta Penrose, esa hipótesis sigue sin ser asimétrica respecto al tiempo (Penrose, 2006: 1042). Ante estas dificultades Penrose propone una segunda alternativa. En su último libro, Ciclos del tiempo, formula su teoría de la Cosmología Cíclica Conforme (CCC) en la que la asimetría temporal se convierte en el elemento central. En esta teoría, las condiciones de contorno de la singularidad inicial del eón actual enlazan con las condiciones finales de un eón anterior del universo y el inicio del espaciotiempo actual coincide con el final del espaciotiempo del eón anterior. Luego el tiempo no desaparece más allá de los límites de Planck sino que mediante una cadena interminable de eones, enlaza con los tiempos de ciclos anteriores y posteriores. Sin embargo, este enfoque adolece de una clara dificultad explicativa ya que pasa instantáneamente de un universo muy expandido a un universo muy concentrado, lo que matemáticamente implica un redimensionamiento discontinuo del espacio de fases (Penrose, 2010a: 141-225)167. Por último, la postura más común en relación a las condiciones de contorno es que constituyen los límites de la continuidad. Más allá de los límites de Planck no es que el tiempo desaparezca sino que junto con el espacio se haría discreto. Las formulaciones actuales de la relatividad general y de la mecánica cuántica consideran que el espaciotiempo es continuo, mientras que las nuevas teorías presuponen que en la escala de Planck el espaciotiempo se hace discreto. Por debajo de los límites de Planck la geometría del universo dejaría de ser clásica y continua debido a los efectos de la gravedad cuántica. Las motivaciones que llevan a este cambio serían de dos tipos. Se apoyarían, por una parte, en razones físicas como los saltos cuánticos, y por otra en motivaciones heurísticas, ya que es más fácil tratar con elementos discretos que con los infinitos grados de libertad de las variables continuas. Sin embargo, algunas investigaciones recientes pondrían en duda la visión discreta del espaciotiempo, al sugerir que, según la gravedad cuántica, en energías ligeramente superiores a la masa de Planck el espaciotiempo podría ser suave (Nemiroff, Connolly, Holmes y Kostinski, 120
2012). En resumen, una nueva teoría física debería incluir las ecuaciones dinámicas del universo y explicar qué hay más allá de las condiciones de contorno sin que existiese una transición abrupta. La existencia de singularidades indica el límite del modelo matemático actual que define el universo conocido. Este universo es continuo, temporal y observable, pero el nuevo modelo tendría que ir más allá. Quizá hacia un universo discontinuo, atemporal o inobservable. Una hipótesis posible es suponer que el espaciotiempo descrito por la relatividad «se hace visible» en el límite porque el tiempo surge a partir de la atemporalidad168; o porque pasa de un sustrato discreto a otro continuo; o porque se pasa de un eón previo al eón actual; etc. Si la nueva teoría no pudiese superar ese límite la única alternativa, según Penrose, sería afirmar la necesidad de un acto divino como el responsable de esas condiciones de contorno. Y sobre ese acto no se puede hacer ciencia (Penrose, 1999b: 437)169. La respuesta sobre el sustrato de una futura teoría de la gravedad cuántica queda abierta y su comprensión es relevante para la ciencia y para la filosofía. Las alternativas básicas oscilan entre un espaciotiempo continuo y un espaciotiempo discreto. En el siguiente apartado se verán algunas de las razones que llevan a muchos científicos a inclinarse por esta última postura. Entre estas resaltan los procesos de cuantización y segunda cuantización170 que se emplean en la mecánica cuántica y que tienen un papel fundamental para tender puentes entre aspectos continuos y discretos de la teoría. Sin embargo, el punto central será que la nueva teoría debería dar razón de los aspectos determinista y probabilista de la mecánica cuántica. 1.2. Determinismo y probabilismo En los experimentos cuánticos descritos en el tercer capítulo se observaba que al realizar una medida se producía un salto cuántico, un cambio discontinuo del estado de una partícula. La ecuación de Schrödinger que gobernaba la evolución continua y determinada, U, de la partícula, se veía reemplazada por un proceso puntual y aleatorio, R, que introducía la indeterminación y la probabilidad en la teoría cuántica. 1.2.1. Formalismo En una primera aproximación se podría entender que en el proceso de medida se manifiestan los aspectos corpusculares de la partícula, mientras que entre medida y medida se manifiestan los aspectos ondulatorios. Sin embargo, a un nivel más profundo parece que la dualidad onda-corpúsculo, o la más general complementariedad de Bohr, es una consecuencia de la estructura matemática de la mecánica cuántica. El principio básico que subyace en este problema es la no conmutatividad entre las medidas de posición y momento171. En el caso de la mecánica cuántica, esto supone que el orden con el que se aplica una 121
serie de operadores sobre una función no es indiferente172. Si x es el operador posición de la función de onda de partícula y p es el operador momento, estos dos operadores serían conmutativos cuando aplicados en distinto orden sobre una función diesen el mismo resultado. Este sería el comportamiento de la mecánica clásica: xp – px = 0 Sin embargo, en mecánica cuántica el resultado que se obtiene es distinto: xp – px ≠ 0, en concreto xp – px = iħ173 Lo que implica que el comportamiento de esos dos operadores no es conmutativo y que, por lo tanto, requieren de otro tipo de herramienta matemática distinto al que usa la mecánica clásica. Esta nueva herramienta puede ser algún tipo de álgebra no conmutativa. Transcrito a nomenclatura matemática, xp – px es igual que [x, p] y se denomina conmutador de posición y momento. Para una partícula clásica dicho conmutador sería cero ([x, p] = 0) mientras que para una partícula cuántica sería igual al número imaginario por la constante de Planck reducida ([x, p] = iħ). Por otro lado, en un algebra conmutativa se cumple que: [a, b] = 0 Mientras que en un algebra no conmutativa: [a, b] = k donde k es el parámetro de deformación. Por tanto llegamos a dos conclusiones. En primer lugar, desde el punto de vista matemático la mecánica cuántica se puede considerar como un tipo de álgebra no conmutativa, cuyo parámetro de deformación solo depende de la constante de Planck. Y, en segundo lugar, cualquier álgebra conmutativa se puede convertir en un álgebra no conmutativa, si se le introduce una perturbación adecuada. Es decir, sería posible pasar del modelo matemático de comportamiento clásico (conmutativo) a un modelo cuántico (no conmutativo) mediante una adecuada perturbación, introducida por la constante reducida de Planck (Heller, 2003: 106-107). Esta es una de las actuales líneas de investigación de la gravedad cuántica. Se engloba dentro de la búsqueda de las condiciones en las que la realidad física pasa de un sistema cuántico a un sistema clásico. En términos físicos, eso significa buscar cuándo y cómo el parámetro de deformación (la constante de Planck) se hace cero o tiende a cero. Los efectos de la no conmutatividad también se aprecian en la veintena de observables que se emplean en mecánica cuántica. Algunos de estos son conmutativos mientras que otros, como por ejemplo posición y momento o energía y tiempo, no. En concreto, estas dos parejas de observables se asocian con las dos relaciones de indeterminación de Heisenberg174. Cuando se realiza una medida en la que los dos parámetros están 122
involucrados se observa la consabida falta de precisión. Por otro lado, entre las dos parejas hay un paralelismo consistente con la teoría de la relatividad. Según esta existe una única variable espaciotiempo y también una única variable momentoenergía. Luego si hay una no conmutatividad entre espacio y momento, también debería haber una no conmutatividad paralela entre tiempo y energía, como así sucede. Combinadas, ambas parejas remitirían a una no conmutatividad entre espaciotiempo y momentoenergía. Los cuatro observables explicados se comportan de un modo acorde con la conclusión relativista de que a gran escala esos cuatro parámetros son dos. Se observa en estos comentarios otra línea de investigación y otro punto de enlace entre cuántica y relatividad, en el que queda mucho por hacer. Si bien la mecánica cuántica se puede dotar de un formalismo matemático con álgebras no conmutativas, en la actualidad resulta difícil reformular la relatividad, que es una teoría geométrica, en un formalismo no conmutativo. La investigación se inclina hacia geometrías no conmutativas, análogas a la representada por el teselado aperiódico de Penrose. Estas consideraciones sobre los distintos formalismos matemáticos que subyacen en las teorías lleva al dilema radical de la relación entre matemáticas y física: ¿se trata simplemente de un formalismo que no nos ofrece ninguna imagen de la realidad o hay algo más? La respuesta de Penrose ya se conoce: si las matemáticas que se emplean son las adecuadas, entonces reflejan con precisión la realidad. 1.2.2. Ontología La pregunta anterior sobre si las teorías reflejan la realidad es similar a la duda sobre la visión determinista y probabilista del proceso de medida: ¿esta visión de la mecánica cuántica refleja la realidad? Ante la dificultad de unificar dos enfoques tan distintos en una visión coherente de la realidad, Penrose se inclina a pensar que hace falta una nueva teoría física, mientras que otros autores defienden interpretaciones alternativas175. Desde los primeros instantes de la mecánica cuántica se puede distinguir algunos autores, como Bohr, para los que la función de onda (y) no describe ninguna realidad en el nivel cuántico, sino que es una convención matemática útil para hacer predicciones. Frente a estos, surgen los que consideran que el vector de estado (y) sí describe la realidad física en el nivel cuántico y que el fenómeno de reducción del vector de estado o colapso de la función de onda (R) es una aproximación o ilusión. Según esta postura, la superposición cuántica también se daría en el nivel macroscópico, aunque por alguna razón no se podría detectar. Por último estarían aquellos para quienes la ecuación de Schrödinger es una aproximación a algo todavía bastante desconocido que está entre los niveles cuántico y clásico. Es aquí donde algún efecto cuántico se haría presente y la no computabilidad postulada por Penrose jugaría un papel esencial (Penrose, 1998a: 170171). En estas tres grandes líneas interpretativas, que se acaban de exponer, se engloban las ontologías actuales de la mecánica cuántica. Penrose las agrupa en dos tipos: 123
convencionales y no convencionales. Examinaré brevemente las del primer tipo (interpretación de Copenhague, multiversos y decoherencia por el entorno) y comentaré en cuarto lugar la postura no convencional sostenida por el propio Penrose176. Según la lectura que Penrose hace de la interpretación de Copenhage, el vector de estado (y) no representa la realidad del nivel cuántico, sino el conocimiento que el experimentador tiene del sistema. Luego el salto que ocurre en el procedimiento de reducción del vector de estado (R) es simplemente un salto en el conocimiento que el experimentador tiene del sistema y no un cambio físico. Para los defensores de los multiversos, por el contrario, el vector de estado representaría la realidad (y), mientras que la reducción del vector de estado (R) no sería un fenómeno real. En consecuencia, los resultados de una medida coexisten entrelazados en una gran superposición lineal cuántica177. De esta postura, según Penrose, se deduce que la verdadera realidad no serían los mundos alternativos sino un ómnium que contendría todas las superposiciones en un vector de estado (y). Ese vector englobaría todo el universo, incluyendo los diferentes estados mentales del experimentador. Por lo tanto, al igual que en la interpretación de Copenhague, y tampoco estaría describiendo la realidad observada. En ambas posturas son las percepciones del experimentador humano las que dan sentido a la realidad observada y, por tanto, ni el proceso U ni el proceso R serían reales. La tercera postura, decoherencia por el entorno, es más pragmática que ontológica y está considerada como la interpretación predominante entre los teóricos de la mecánica cuántica. Si para algunos autores de las dos interpretaciones anteriores el proceso R tendría lugar cuando una consciencia observa la realidad, para los defensores de la decoherencia por el entorno la reducción de estado R se puede entender como el resultado del entrelazamiento inextricable del sistema con su entorno178. Dicho entorno, constituido por infinidad de partículas en movimiento aleatorio, resulta inobservable en la práctica. Pero los efectos del entorno sobre un sistema concreto pueden ser promediados para obtener una descripción adecuada del sistema. El objeto matemático que se emplea para describir el sistema se denomina matriz densidad179 y sustituye al vector de estado. La ontología de la matriz densidad no está clara pero su uso permite redefinir el estado del sistema cuántico como un conjunto de probabilidades. En términos técnicos, eso significa que si el entorno se modela de una forma adecuada, entonces en un período de tiempo muy corto la matriz densidad se hace diagonal. Lo que a su vez implica que el proceso de reducción de estado R puede entenderse como una consecuencia del entrelazamiento con el entorno. La matriz densidad no sería por tanto un proceso real sino una aproximación a la verdad cuántica de lo que está sucediendo. Se trata de una solución pragmática o para todo propósito práctico (FAPP, for all practical purpose), que se conforma con que la teoría prediga bien los resultados. Penrose, por el contrario, considera que la cuestión sobre la ontología tiene una importancia crucial. Por eso, frente a estas tres posturas, presenta su propia interpretación de la paradoja de la medida. Su postura se resume en considerar que la 124
formulación convencional de la mecánica cuántica es provisional y que se necesita una nueva teoría física para dar un sentido real a la paradoja de la medida. Las interpretaciones convencionales resultan insatisfactorias porque difuminan la realidad de lo que está pasando. La nueva teoría no puede ser un mero retoque, sino que debe suponer un cambio sutil pero sustancial (Penrose, 2000a: 223-224). En el fondo del planteamiento de Penrose subsiste la creencia de que la mecánica cuántica está descubriendo algo real que las matemáticas pueden reflejar con precisión. Las matemáticas son algo más que una herramienta para conocer la realidad, son el substrato mismo de la realidad. Este enfoque le lleva a rechazar la matriz densidad —en cuanto a su poder explicativo aunque no predictivo— y a sostener que tanto el proceso U como el proceso R son objetivos. En el siguiente apartado veremos qué razones aduce para sostener esta postura y qué tipo de fenómeno puede aportar ese cambio sutil de perspectiva. 1.3. Gravedad, cuántica y asimetría temporal Un precedente de cambio sutil aunque radical de perspectiva es el que surgió entre la teoría gravitatoria de Newton y la de Einstein. Desde el enfoque del primero las fuerzas gravitatorias se suman linealmente, mientras que desde la perspectiva del segundo dicha linealidad es sustituida por una no linealidad muy sutil debida a la geometría del espaciotiempo. Este tipo de cambio radical con unos efectos sutiles es el que Penrose augura para la mecánica cuántica (Penrose, 2006: 1094). Uno de los lugares donde esa no linealidad sutil se podría manifestar es en la paradoja de la medida, porque se trata del fenómeno cuántico que más interrogantes suscita: ¿qué está pasando entre U y R?, ¿en qué sentido se puede hablar de salto discontinuo?, ¿ese salto es real o solo una consecuencia del formalismo matemático empleado?, ¿cuál es la causa de ese salto?, ¿se debe a algún proceso atemporal o no local?, ¿se relaciona con la no conmutatividad de los operadores?... En su búsqueda de alguna respuesta nuestro autor considera que ambos procesos son un efecto de la gravedad cuántica y valora como fundamental la hipótesis —sostenida también por otros autores (Ghirardi, Rimini y Weber, 1986; Ghirardi, Grassi y Rimini, 1990)— de que R es una reducción objetiva (OR) del vector de estado. Este planteamiento difiere de las ontologías convencionales, ya que estas no consideran que la reducción del vector de estado sea algo objetivo, que acontezca en la realidad, fruto de la gravedad (OR gravitatoria), sino más bien una consecuencia de los modelos matemáticos que se usan. Para defender la necesidad de una nueva postura donde la gravedad juegue un papel más esencial, Penrose observa que el teorema T180, todavía no comprobado pero fundamental para todas las teorías cuánticas de campos, presenta algunas dificultades con relación a otros conocimientos básicos de la física actual. Dicho teorema, en primer lugar, postula que el espaciotiempo debe ser plano, lo que implica una esencial incompatibilidad con el espaciotiempo curvo que se observa a gran escala. Además, en 125
segundo lugar, sostiene la existencia de una simetría cuántica esencial que se apreciaría especialmente en los primeros instantes del universo y que, con el transcurso del tiempo, se habría roto dando lugar a las asimetrías que se observan en la actualidad. Sin embargo, tal simetría no se asocia bien con la asimetría esencial que se observa tanto en el proceso U/R como en el universo a gran escala. Se llega por tanto a la existencia de un conflicto entre los principios de la cuántica y los de la relatividad, que tiene como elemento central el tiempo. El dilema está abierto y Penrose se inclina en favor de la curvatura espaciotemporal y de la asimetría temporal. Sin embargo, al intentar poner en o la asimetría temporal con la curvatura espaciotemporal se hace manifiesto que la formulación actual de la relatividad no es asimétrica. Son los datos empíricos y las consecuencias de la teoría —el estudio del espaciotiempo relativo y de sus singularidades— las que remiten a la asimetría temporal181. Dicha asimetría sería una de las características de la nueva teoría de la gravedad cuántica (Penrose, 2006: 1095) y supondría que tanto el teorema T de la mecánica cuántica como la formulación actual de la relatividad general son falsas, en la medida en que no son asimétricas. La asimetría sería un efecto de la gravedad ya que esta es la única fuerza que se comporta de forma diferente al resto. Por tanto, el camino para buscar la unificación de las cuatro fuerzas no pasaría tanto por buscar simetrías en la naturaleza, aunque resulte útil, como por estudiar el modo sutil en que los efectos gravitatorios se manifiestan en la asimetría temporal cuántica. Veamos qué tipos de efectos gravitatorios son los que se podrían dar en el proceso de medida. Una primera aproximación a la superposición cuántica manifiesta que la noción de evolución unitaria (U) de Schrödinger requiere un único operador de traslación tiempo. Mientras que, visto desde la relatividad, cada uno de los espaciostiempos involucrados en los estados superpuestos debería tener una traslación de tiempo propia. Identificar los dos estados como si fueran uno solo requeriría una correspondencia punto a punto entre los espaciostiempos superpuestos y eso supondría una violación del principio de covarianza general de la relatividad general182. Por tanto, U, no es un proceso compatible con la relatividad general, ya que solo define una variable tiempo y, por lo tanto, un espaciotiempo fijo o plano como el definido por la relatividad especial. Además, considerar que U es real y que los espaciostiempos de los estados superpuestos no se pueden unir con una sola variable tiempo, implica la existencia de una incerteza esencial en el operador tiempo-derivativo de Schrödinger. Esta incerteza se interpreta como una energía incierta, EG, en el estado superpuesto. Y por el principio de indeterminación de Heisenberg esa energía es consistente con una superposición fundamentalmente inestable que tendría un tiempo de vida del orden de tG = ħ/EG. Lo que significa que cuanto mayor fuese la energía incierta (EG) menor es el tiempo de vida (tG) de la superposición, según un factor de escalado de la constante reducida de Planck (ħ). Dicha energía, en el caso de la superposición de dos geometrías espaciotemporales, se puede definir como la autoenergía gravitacional de las diferencias entre las 126
distribuciones de masas de los dos estados en cuestión, es decir, la energía que se gana al reunir una distribución de masa a partir de las masas dispersas. Concepto que se aproxima al de energía de interacción gravitatoria. Esto significa que la superposición sería inestable de modo análogo a como es inestable un átomo de uranio-238. La diferencia reside en que mientras la vida media del isótopo 238 del uranio es unos 4.500 millones de años, la de una partícula superpuesta sería mucho mayor ya que la EG es muy pequeña. A la vez, cuanto más grandes fuesen las moléculas, menor sería el tiempo que tardaría en decaer el estado de superposición. De tal modo que para el caso de una pequeña gota de agua en estado de superposición el tiempo de decaimiento (la decoherencia) sería de aproximadamente medio segundo. Más adelante consideraré de nuevo este punto, pero de momento conviene señalar que, junto con esta decoherencia automática del estado de superposición, Penrose también considera real la decoherencia por el entorno debido a efectos no locales. Eso significa que para poder observar la reducción objetiva (OR) se requeriría mantenerla en un estado de superposición evitando que decaiga por efectos externos. Por otro lado, según la postura de Penrose, la creación de superposiciones, con sus líneas de flujo asociadas, sería una consecuencia de la gravitación cuántica. Se trataría de un efecto análogo al que se produciría en los primeros instantes del big bang, donde los grados de libertad de la gravedad no estaban en equilibrio térmico junto con el resto de fuerzas, sino que se iban desatando poco a poco, causando el aumento de entropía y la expansión del universo. Ese fenómeno sería el responsable de crear alternativas cuánticas y, en la formulación actual de U, no se observaría porque la ecuación de Schrödinger utiliza una única variable tiempo. Además, también el colapso de la función de onda (R) sería efecto de la gravedad, conforme al tiempo de decaimiento estimado tG. La causa última remitiría a la hipótesis de la curvatura de Weyl. Según esta hipótesis, el tensor de curvatura de Weyl, que sería nulo en el origen del universo y tendería a infinito en los agujeros negros, sería el responsable de hacer converger las líneas de flujo de las superposiciones, destruyendo las posibilidades creadas (alternativas abiertas o grados de libertad habilitados). Llegados a este momento y desde mi comprensión de los argumentos, considero importante resaltar que Penrose da al problema de medida una solución similar a la que encuentra con la asimetría temporal para la cosmología. En su esquema, la gravedad constituye el elemento motor tanto de la asimetría temporal que se observa en la cosmología, como de la que se aprecia en la mecánica cuántica. Penrose establece cierto paralelismo, no explícito, entre la cosmología y la paradoja de la medida. A nivel cosmológico, la gravedad no termalizada desata grados de libertad y genera la expansión del universo en los instantes iniciales; y, más adelante, mediante un efecto de otro tipo, esa gravedad también produce el colapso de la materia en los agujeros negros. Mientras que a nivel cuántico, la gravedad sería la responsable de provocar inicialmente la superposición y el desdoblamiento en múltiples caminos alternativos de la partícula durante su evolución unitaria (U); y, más adelante, mediante un proceso de reducción objetiva (OR), esa gravedad también sería la causante del colapso de la función de onda. 127
Siempre y cuando no se produzca antes una decoherencia por el entorno. En resumen, para Penrose la gravedad y la asimetría del tiempo deben jugar un papel fundamental en el desarrollo de una nueva teoría que englobe la relatividad general y la mecánica cuántica. Por eso, no sería sensato despreciar el efecto gravitatorio a pequeña escala. Si bien se trata de un efecto muy sutil comparado con el resto de fuerzas, podría ser relevante en alguno de los múltiples sistemas caóticos que se encuentran en la naturaleza y que son extremadamente sensibles a las condiciones iniciales. Se trata de afinar y no tanto de redondear o asumir que las fluctuaciones se cancelan. Por otro lado, la geometría gravitatoria y la asimetría temporal irían a la par, en lo que personalmente denominaría un espaciotiempo asimétrico. La evolución dinámica de dicho espaciotiempo estaría gobernada tanto por sus propias leyes locales como por un elemento no algorítmico que lo gobernaría globalmente. Algo parecido a lo que pasa con los teselados de Penrose cuyo isomorfismo local está gobernado por una decisión no local de colocar las teselas aperiódicamente. Dicha decisión no algorítmica gobierna desde un nivel superior y crea las diferentes configuraciones que se parecen localmente (Gherab-Martín, 2011). Veamos ahora qué características puede tener ese elemento de decisión no algorítmico. 1.4. Elementos no algorítmicos Penrose observa que en las matemáticas hay muchas realidades no algorítmicas y solo unas pocas, como los cuasi-cristales, han encontrado una aplicación física. Su visión integradora de las matemáticas y de la física no implica que todas las matemáticas tengan un eco en la realidad física pero sí que una realidad como el pensamiento matemático, que existe en la realidad y que se comporta no algorítmicamente, debe encontrar su reflejo físico. Como se vio en el cuarto capítulo, el punto de partida teórico de Penrose hacia ese algo no computacional son las matemáticas183. Desde ahí ha efectuado su crítica más ambiciosa y desde las consecuencias de esa crítica busca esas estructuras no algorítmicas en la realidad. En una primera aproximación destaca que en las matemáticas se pueden observar algunas estructuras cuya resolución no es, en principio, computable184. Pero lo que realmente busca es una no computabilidad relevante para la física y para la acción del cerebro. Con ayuda de su argumentación matemática, Penrose concluye que la consciencia que subyace en el entendimiento en general —y en el entendimiento matemático en particular— es algo que está fuera de cualquier descripción computacional y que, en consecuencia, no puede surgir de un universo enteramente computacional (Penrose, 1998a: 167). Por lo tanto, el siguiente paso consiste en buscar si dentro de las leyes físicas conocidas hay espacio para una acción no computacional o si dicha acción hay que buscarla fuera de la física actual. En el caso de que esté fuera, lo siguiente sería investigar cómo es posible que esa física no computacional dé lugar a una acción relevante para el fenómeno de la consciencia en los cerebros humanos. El único espacio 128
que Penrose encuentra para este tipo de actividad no computacional está fuera de la física conocida y se encontraría en la respuesta a la naturaleza del problema de medida185. En el problema de medida se observan dos partes bien definidas: una en el nivel clásico de los fenómenos a gran escala y otra en el nivel cuántico gobernado por la ecuación de Schrödinger. El comportamiento de los entes o partículas que integran ambos niveles parece perfectamente determinado, lo que implicaría que cada uno de esos niveles es computable por separado. Sin embargo, al pasar de un nivel a otro, cuando entran en o y se realiza una medida u observación, el colapso de la función de onda (o reducción del vector de estado) introduce una aleatoriedad fundamental en el sistema. Dicha aleatoriedad es de carácter no-computacional pero, según Penrose, no constituye un obstáculo insalvable para la física actual. Desde un punto de vista teórico, la aleatoriedad se podría simular con una máquina de Turing de propósito universal y, desde un punto de vista práctico, se puede modelar mediante la matriz densidad. Sin embargo, dicha aleatoriedad sí que constituye un obstáculo para comprender realmente qué está pasando y podría estar enmascarando el proceso real. Ese oscilar de la mecánica cuántica entre la representación unitaria (U) y el proceso de reducción (R) del vector de estado, sin explicar qué sucede entre medias, hace que la teoría convencional sea básicamente insatisfactoria. En la explicación de este fenómeno aleatorio es donde hay que buscar las raíces del comportamiento no computacional esencial. Lo que inicialmente podría parecer una genuina aleatoriedad, en realidad podría esconder un sistema caótico perfectamente organizado y extremadamente sensible. El estudio en profundidad del proceso de medida aclararía si se trata de una aleatoriedad real o solo aparente. En línea con esta tesis, Penrose observa que la reducción del vector de estado debe ser no local porque incluye sutiles efectos no locales debidos a la decoherencia por el entorno. Pero no se conforma con aceptar esta explicación sin más y apela a una respuesta más precisa (Penrose, 1997a: 25), como la reducción objetiva gravitatoria que se explicó en el apartado anterior. Por último y como sugerencia heurística para profundizar en esta investigación, Penrose subraya dos aspectos de las matemáticas que ya están presentes en algunas teorías físicas pero que todavía no han alcanzado suficiente relevancia. El primero es el papel de los números complejos y el segundo es el papel de la simetría (Penrose, 2006: 1383-1388). Los números complejos se introdujeron en la física como una argucia matemática para encontrar soluciones a algunos problemas y acabaron convirtiéndose en el fundamento elegante e inesperado de la mecánica cuántica. Así se observa, por ejemplo, en las amplitudes de probabilidad que rigen el principio de superposición cuántico. El hecho de que los números complejos ocupen un lugar tan privilegiado en la física, según Penrose, no es un mero formalismo sino que más bien manifiesta su íntima conexión con el diseño básico de la naturaleza. Además, como los números complejos todavía no tienen 129
un eco en la teoría de la relatividad, constituirían una de las vías de trabajo para la nueva gravedad cuántica186. Por otro lado, las simetrías matemáticas han resultado de gran utilidad para la de la mayoría de las teorías físicas actuales. Sin embargo, según Penrose, muchas de esas simetrías estarían rotas desde el principio y serían simplemente aproximaciones a las asimetrías fundamentales. Por eso, también sugiere que se explore esta posibilidad. Junto con el papel de los números complejos y de la simetría, Penrose considera otros dos motores heurísticos como son: la belleza o elegancia de las teorías matemáticas y los «milagros», que simplifican y conectan sorprendentemente dichas teorías. Sin embargo, llega a la conclusión de que ni la belleza de las formulaciones matemáticas ni los «milagros» son en sí mismos guías seguras hacia una comprensión de la realidad. Requieren de su conexión con el mundo físico. Conexión que en el caso de los números complejos y de la simetría ya parece garantizada. En resumen, según la postura de Penrose, la reducción del vector de estado sería una reducción objetiva: un hecho real y no imaginado o aproximado, que se debería a efectos gravitacionales. Para denominar tal efecto usa el acrónimo OR que indica, por un lado, que se trata de una reducción objetiva (Objective Reduction) y, por otro, que representa un proceso donde una superposición cuántica entre dos alternativas clásicas se convierte en una u otra (one OR the other). Dicho fenómeno (OR gravitatorio) no sería aleatorio sino debido a algún proceso no computable que se manifestaría en el pensamiento humano mediante el fenómeno de la consciencia. 2. El fenómeno de la consciencia Hasta el presente apartado los temas tratados han girado en torno a la física y a las matemáticas, aunque trascendidas por especulaciones filosóficas e hipótesis científicas. A partir de ahora me centraré en un nuevo fenómeno que también aborda Penrose, el de la consciencia. Cuando en una entrevista le preguntaron qué es lo que le llevo a traspasar las fronteras de la física y de las matemáticas para indagar en el funcionamiento de la consciencia, su respuesta fue: Es un punto de vista que he formulado ya cuando estaba en la universidad, en la década de 1950. Y fundamentalmente me inspiré en el teorema de Gödel, que demuestra que las verdades matemáticas no pueden reducirse solamente a cálculos, y que para comprender las realidades matemáticas necesitamos ir más allá, salir de las meras normas de computación. Es decir, que ningún sistema consistente se puede usar para demostrarse a sí mismo. Lo que Gödel hace es mostrar cómo se pueden establecer ciertas verdades matemáticas que están fuera del alcance de las normas matemáticas. Así que la manera en que nosotros entendemos esas normas nos permite trascender más allá de las normas mismas. Lo que eso me indica es que nuestra comprensión está fuera de las normas. Este es un aspecto de la cuestión que nos lleva a la fase siguiente, nuestro cerebro y la capacidad de pensar conscientemente, que es lo que nos separa para siempre de las computadoras: la más potente y perfeccionada de ellas puede realizar cálculos de asombrosa complejidad con vertiginosa rapidez, pero jamás «entenderá» lo que hace. Es el resultado de cómo operan las leyes físicas, y esas leyes físicas tienen que estar fuera de la actividad computacional. La física clásica y la física cuántica tal como la entendemos hoy podrían verse reducidas a computación. Así que tenemos que ir a buscar más allá de estas dos disciplinas. Entonces, yo me pregunto dónde está el enlace más débil en la manera en que entendemos las leyes físicas. Y considero que está en la mecánica cuántica, que incorpora dos procedimientos que son incompatibles: uno es la evolución unitaria de la ecuación de Schrödinger, y el
130
otro es qué es lo que se hace cuando se realiza una medición. Porque de la ecuación de Schrödinger no se puede obtener una medición, y esto es una paradoja, porque un artefacto con el que podamos medir se está construyendo con ingredientes cuánticos, claro, ¿y cómo puede comportarse de manera distinta a lo que postula la ecuación de Schrödinger? Así que todo esto nos indica que hay algo más allá. Y estoy de acuerdo con Einstein, con el mismo Schrödinger, e incluso con Paul Dirac: todos ellos afirmaban que la mecánica cuántica de nuestros días está incompleta. Y necesitamos por tanto completarla. Así que lo que yo especulo es que hace falta fundar las bases para la revolución teórica que permita a la física incluir en su campo el fenómeno de la con[s]ciencia (Alfieri, 2007: 126-127).
Se ha querido recoger la cita íntegra, aunque sea larga, porque resume bien las explicaciones que se han dado hasta este momento. Ahora queda profundizar en el estudio del tipo de actividad física que, según Penrose, puede darse en el cerebro y estar relacionada con la consciencia. La consciencia, según el esquema de los tres mundos de Penrose, se encuentra entre dos misterios: uno que la relaciona con el mundo físico y otro que la asocia con su capacidad de conocer la verdad matemática. Eso implica, por un lado, que las matemáticas tienen cierto apoyo en la actividad mental consciente y, por otro, que la consciencia se puede tratar en términos del mundo físico. Sin embargo, no se reduce a esto, como las matemáticas tampoco se reducen a lo que el matemático puede realizar. En el siguiente esquema se pueden observar algunas características de la relación entre el mundo físico y el mental. El mundo físico, estaría gobernado por leyes físicas y matemáticas precisas, aunque todavía no se hayan desvelado completamente. Se trata por tanto de un mundo predecible y calculable, que quizá sea determinista y también computable. Por su parte, el mundo mental alberga la consciencia y es el lugar donde algunos términos como alma, espíritu, arte o religión adquieren sentido. Del mundo físico emergerían algunas cualidades mentales como la emoción, la estética o la inspiración. Esto significa para algunos autores que dichas cualidades mentales pueden emerger de una actividad computacional. Penrose, que podría alinearse con la primera idea de emergencia, rechaza de plano que dicha emergencia sea fruto de una actividad computacional (Penrose, 1999a: 82-84).
131
La consciencia tendría dos ámbitos de manifestaciones: uno pasivo que se asocia con el conocimiento, en sentido amplio, y otro activo que se relaciona con la libertad y la voluntad. Sin embargo, Penrose no aclara los términos ni el modo en que se relacionan, en parte porque no se considera capaz de precisiones filosóficas y en parte porque se conforma con las acepciones propias del sentido común. Para su argumentación le basta considerar que la comprensión humana requiere de la consciencia. En cuanto a las relaciones entre consciencia y computabilidad, Penrose adopta una postura C fuerte, según la cual, una adecuada acción física de los cerebros es capaz de evocar la consciencia, pero esta acción no puede ser simulada porque reclama la presencia de un elemento no computacional. Esta es mi versión de la C fuerte: buscamos la no computabilidad en la física que forma un puente entre los niveles cuántico y clásico, lo cual es pedir bastante. Estoy diciendo que no solo necesitamos una nueva física, sino que también necesitamos una nueva física que sea relevante para la actividad del cerebro (Penrose, 1999a: 85).
Se distancia así de la postura C débil para la cual la razón de la imposibilidad de dicha simulación se podría deber a la no computabilidad de los fenómenos de aleatoriedad pura que se observan en el colapso de la función de onda (R). Sin embargo, para Penrose, integrar una aleatoriedad pura (imposible de simular) en un sistema de computación no añadiría una diferencia significativa respecto a la pseudo-aleatoriedad de las simulaciones actuales. Este enfoque sería insuficiente y se requiere de algo diferente que debe ser no computable. El argumento central de Penrose sobre el porqué de la no computabilidad ya se ha explicado, con sus pros y sus contras. También se ha explicado que dicha no computabilidad se podría encontrar en el fenómeno de OR gravitatoria187. Queda por 132
tanto aclarar cómo se relaciona este fenómeno con la consciencia y señalar dónde se podrían encontrar sus efectos. A partir de este punto los argumentos de Penrose se tornan altamente especulativos y a mi parecer poco convincentes. De entre todas sus hipótesis, esta es la más criticada y la menos respaldada. Como se verá es una argumentación llena de saltos explicativos y con muchos huecos por rellenar. Sin embargo, tienen un valor heurístico intrínseco y el mérito de intentar desarrollar las teorías hasta que tengan un o con la realidad. Cabe resaltar también que en sus dos últimos libros Penrose no ha tratado de este tema y entre su primer y su segundo libro ha cambiado de tesis. Por tanto aquí me centraré en el contenido de Shadows of the mind y en el de alguno de sus artículos. Para una compresión más profunda del esquema y como planteamiento de fondo conviene recordar el teselado aperiódico de Penrose. Dicho teselado consiste en un esquema muy simple con dos tipos de teselas cuya evolución es completamente determinista y no computable. Robert Berger demostró que la evolución de este esquema no puede ser simulada por ningún ordenador, porque no hay un algoritmo capaz de decidir si un conjunto de teselas cubrirá una superficie. Por tanto, dicho esquema está gobernado por reglas no locales que escapan a la comprensión de un ordenador ideal, de modo análogo a lo que sucede con la escalera sin fin de Penrose. En dicha escalera los tramos están bien construidos localmente y, sin embargo, se requiere una visión de conjunto para percibir que la escalera no es real. La no computabilidad de Penrose se situaría en un nivel superior e influiría sobre el nivel inferior, de modo análogo a como la aperiodicidad, que es una regla superior, influye sobre el nivel inferior sin que se pueda detectar localmente. A nivel local todo podría parecer determinado y computable; solo cuando se observa desde un nivel superior aparece la no computabilidad. Así también la comprensión se daría en un nivel superior al de la computabilidad y ese nivel es el de la consciencia. Es decir, consciencia-comprensión, aperiodicidad y no computabilidad pertenecen a niveles superiores, en relación con la computabilidad. Estas consideraciones de Penrose sobre la consciencia se integran con argumentos sobre la reflexividad y la incapacidad de crear bucles cerrados en cuanto alcanzan un mínimo de complejidad. Así por ejemplo, el argumento de Gödel, aplicado a una parte bien definida y suficientemente compleja de las matemáticas (como la aritmética de Peano), implica buscar su justificación en unas matemáticas parcialmente externas (o superiores) a ese esquema. Dicho esquema se vuelve recursivo sobre cada conjunto de matemáticas e implica en última instancia y por consideraciones filosóficas que las matemáticas no tienen una justificación interna última. Este tipo de argumentos le llevan a considerar que podríamos tener «tipos de no-computabilidad de orden superior» (Penrose, 1999a: 100) involucrados, por ejemplo, en la forma en que evoluciona el Universo o en nuestra libertad. Sostiene por tanto la existencia de varios niveles, cada uno de los cuales podría tener las características de un «determinismo no computable» con relación al nivel superior. Desde mi punto de vista, esto implica que cada uno de esos niveles es un sistema abierto, 133
que no se puede encerrar o justificar internamente. Ahora bien, hay una pregunta que quedaría sin resolver: ¿el esquema global es cerrado o abierto? En el esquema de los tres mundos de Penrose hay un intento de cerrar el conjunto de la realidad. Cada mundo justifica la existencia del anterior, de modo que permanecen abiertos, aunque el conjunto sea cerrado. Además, hay un intento de fundamentar la realidad última en la existencia real del mundo platónico de las matemáticas. Sin embargo, la intensidad con que Penrose defiende cada una de estas dos posturas es diferente. Mientras que en la cuestión sobre el fundamento último no ite ninguna duda, en la cuestión sobre la apertura del esquema global, sí que ite otras alternativas. Por lo tanto, se podría sostener que la realidad de Penrose se fundamenta en las matemáticas aunque no tiene por qué ser completamente cerrada. Por mi parte, como argumenté, me parece que el mundo platónico de las matemáticas no es el fundamento último de la realidad y que las matemáticas, la física y la consciencia son tres sistemas abiertos, tanto considerados en sí mismos como tomados en conjunto. A su vez esos sistemas se pueden subdividir en subsistemas abiertos. Aclarado esto centrémonos en lo que sucede en los cerebros humanos para ver dónde tienen cabida las consideraciones sobre la no computabilidad. 3. Hacia la base física de la consciencia El fenómeno de «reducción orquestada» (OR) es el que, bajo su aparente aleatoriedad pura, podría esconder la no computabilidad buscada. Sin embargo, las escalas de tiempo previstas para dicho fenómeno son escalas de tiempo inferiores a las observadas en los procesos cerebrales asociados con la consciencia188. Tomado aisladamente, dicho fenómeno sería insuficiente para ejercer una acción relevante en el cerebro. Sin embargo, una «reducción objetiva» coordinada u orquestada en múltiples áreas del cerebro podría reunir algunos de los requisitos necesarios para relacionarse con el fenómeno de la consciencia. Desde este enfoque Penrose busca dónde o bajo qué fenómeno de la actividad cerebral se podría dar una influencia cuántica. En Emperor’s New Mind, hace su primera tentativa y centra su propuesta en torno al concepto de gravitón189. Sin embargo, posteriormente, ante los descubrimientos de Stuart Hameroff sobre la actividad del citoesqueleto190 de las neuronas, cambia de opinión y, junto con él, formula la hipótesis de «reducción objetiva orquestada» (Orch OR es su abreviatura en inglés) como fenómeno físico vinculado con la consciencia. En la figura se muestra un esquema del citoesqueleto de las neuronas. El primer aspecto del citoesqueleto que llama la atención de Penrose es que está compuesto de unos microtúbulos suficientemente pequeños como para albergar efectos cuánticos. Además, la estructura de tubo implicaría que su actividad interior se podría aislar de la actividad aleatoria del entorno. De esta manera, dentro de los tubos se podrían conservar masas en estado de superposición cuántica que, al encontrarse aisladas, no sufrirían decoherencia por el entorno. A la vez, la estructura de tubo podría 134
permitir la existencia de algún tipo de coherencia cuántica que podría estar involucrada en la transmisión de señales a lo largo de esos microtúbulos. Dicha coherencia se podría relacionar con fenómenos similares a la superconductividad191.
Antes de proseguir, conviene precisar que, desde su formulación inicial en 1995, la propuesta de «reducción objetiva orquestada» de Penrose-Hameroff ha sido retocada y profundizada en sucesivas etapas hasta llegar a su configuración actual192. No me detendré demasiado en cada detalle de las explicaciones, porque, además de alejarnos de la argumentación central, se puede estudiar pormenorizadamente en la obra de Stuart Hameroff. Aclarado este punto, volvamos al hilo conductor del apartado. Me centraré ahora en explicar cuál podría ser el efecto cuántico concreto (local) que se relacionaría con la consciencia, para posteriormente explicar cómo se organizan esos fenómenos cuánticos en una explicación global de la consciencia. Los microtúbulos del citoesqueleto de las neuronas, que tanto sorprendieron a Penrose, están compuestos principalmente por unas proteínas llamadas tubulinas. Dichas tubulinas pueden adoptar dos conformaciones (cerrada o abierta, blanca o negra) o encontrarse en un estado de superposición cuántica, en función de si algunos electrones están localizados o superpuestos. Además, los electrones responsables de alterar el estado de la tubulina se encontrarían protegidos de la decoherencia por el entorno en algunas cápsulas hidrofóbicas. En la imagen se esquematiza con la letra «e» los distintos lugares que pueden ocupar los electrones dentro de una «cápsula» (en conformación abierta, en conformación cerrada o en superposición cuántica).
135
Desde esta primera explicación, que implica un movimiento mecánico de las tubulinas, Penrose y Hameroff han corregido y formulado con más detalle su propuesta. En la siguiente imagen se pueden observar esquemas de la evolución desde 1998 (versión A) hasta 2010 (versión D).
En la versión B, formulada en 2007, se explica que las cápsulas hidrofóbicas —que contienen a los electrones responsables de la configuración de las tubulinas— serían debidas a los anillos aromáticos de algunas moléculas. Además, se añade que el mecanismo físico responsable de cambiar la configuración de una tubulina tendría que ver con las fuerzas de London (un tipo de fuerzas de Van der Waals). Estas fuerzas, sensibles a la superposición o localización de los electrones, permitirían la polarización de los anillos en dos configuraciones distintas. Luego la configuración abierta o cerrada de una tubulina se debería a la polarización en un sentido o en otro de algunos anillos aromáticos. Para valorar en profundidad esta conclusión conviene tener en cuenta las investigaciones de Hameroff sobre los gases anestésicos. Estos gases actúan sobre las cápsulas hidrofóbicas bloqueando las fuerzas de Van de Waals-London e impidiendo que los electrones se muevan. Dicho con otras palabras, en un estado de inconsciencia inducida por gases anestésicos, las tubulinas no pueden cambiar de conformación. Obviamente, este dato no es suficiente para establecer una relación causal inmediata, pero si es un indicio de la posible vinculación causal entre ambos fenómenos que se debe 136
tener en cuenta. Frente a estas aclaraciones de Penrose y Hameroff, McKemmish escribió un artículo (2009) donde argumentaba la imposibilidad de un movimiento mecánico reversible en las tubulinas porque, entre las configuraciones abierta y cerrada, se liberaría energía (versión C). Esta crítica les sirvió a Penrose y Hameroff para reconocer, inicialmente, que no era necesario el movimiento mecánico en las tubulinas y para aclarar, posteriormente, su propuesta193. En su última propuesta (versión D), Penrose y Hameroff partieron de una imagen cristalográfica de una tubulina. En esa imagen señalaron dónde se encuentran las moléculas con los anillos aromáticos hidrofóbicos que albergan a los electrones (véase imagen). A partir de esa distribución geométrica surgió la posibilidad de que se creasen patrones mediante influencias geométricas entre tubulinas adyacentes. Además precisaron que la polarización de los anillos no supondría un cambio mecánico en la estructura de la tubulina, sino que ambas configuraciones conservarían el mismo tamaño.
Hasta aquí una explicación de cómo podría darse una acción cuántica en un elemento físico del cerebro como la tubulina. Quedaría todavía por precisar cómo se coordinan esos fenómenos físicos hasta dar lugar al fenómeno de la consciencia; y es sin duda en esta parte donde el grado de especulación aumenta. Según Stuart Hameroff los microtúbulos se podrían considerar como autómatas celulares y las tubulinas en sus dos conformaciones hacer el papel de los «ceros» y «unos» de los transistores electrónicos. Así, a través de los microtúbulos se transmitiría una ingente cantidad de información digitalizada y la complejidad de los procesos que tienen lugar en las neuronas se elevaría considerablemente194. En este contexto, las tubulinas no serían simples «bits», sino que en un estado de superposición cuántica se comportarían como bits cuánticos o «qubits» («quantum bits»). A su vez, los microtúbulos facilitarían la coherencia de superposiciones cuánticas entrelazadas entre tubulinas. En cuando al proceso, en una primera fase los «qubits» (las tubulinas) tendrían un patrón definido (1) y algunas de las tubulinas comenzarían a entrar en estado de superposición (2) conforme a la ecuación de Schröedinger. Esta superposición se extendería y entrelazaría con las tubulinas adyacentes (3-5) hasta englobar una cantidad ingente de tubulinas (6). Después, en un segundo momento, tendría lugar una «reducción 137
objetiva orquestada» que definiría el nuevo estado de las tubulinas (7).
Durante la primera fase de superposición, los electrones de los anillos aromáticos se irían superponiendo, los anillos dejarían de estar polarizados y las tubulinas se comportarían como un «qubit» en estado de superposición cuántica. Dicha superposición tendería a englobar a las nubes de electrones de otras moléculas. De este modo, la energía gravitacional de la superposición (EG) aumentaría conforme aumentase el número de tubulinas implicadas. En la segunda fase, cuando el número de tubulinas coordinadas u «orquestadas» en una superposición fuese lo suficientemente grande, se llegaría a provocar la «reducción objetiva orquestada». Esta Orch OR tendría lugar en un tiempo breve (tG) conforme a la ecuación tG = ħ/EG, relacionada con el principio de incertidumbre de Heisenberg. Visto así, EG no solo sería proporcional al número de tubulinas que se van asociando a la superposición, sino también a la intensidad de la experiencia consciente. De modo que habría un mayor grado de consciencia en algunas reducciones objetivas que en otras. La consciencia sería gradual, conforme a la extensión de la superposición. Las escalas de tiempo estimadas por Penrose supondrían la acción coordenada de entre 10 y 100 mil neuronas para un solo fenómeno de consciencia. En esta segunda fase, por efecto de la Orch OR, se conformarían nuevos patrones de tubulinas dando lugar al fenómeno concreto de consciencia. Luego la selección de nuevos patrones en las tubulinas tendría una doble fuente: desde el punto de vista local sería causada por efectos gravitatorios; mientras que desde un nivel superior no local, sería causa de efectos conscientes no computacionales, de modo análogo a la determinación no local en los teselados aperiódicos. Posteriormente, el nuevo patrón de tubulinas aportaría su información a las neuronas, influyendo en estas y en sus conexiones sinápticas. 138
Como se ha observado ya, para que se produzca un acto consciente se requeriría de algún tipo de coherencia global a lo largo de extensas regiones del cerebro. Dicha coherencia global, susceptible de una OR orquestada, sería posible por el entrelazamiento cuántico de distintas partículas en distintas partes del cerebro. A través de este mecanismo se podría dar una explicación de la no computabilidad en la acción consciente del cerebro. En resumen, la propuesta de Hameroff y Penrose requiere de un estado de coherencia cuántica a gran escala en una gran cantidad de microtúbulos de neuronas globalmente distribuidas por el cerebro. Además, los microtúbulos proporcionarían algún tipo de escudo contra el ruido cuántico del ambiente para evitar la decoherencia por el entorno y mantener la superposición mediante un fenómeno similar al de la superconductividad. Con ayuda de este substrato y en una segunda fase se producirían los sucesos conscientes. En esta fase, las tubulinas involucradas en la superposición cuántica de sus nubes de electrones sufrirían una OR orquestada de modo que resultase escogido un patrón de estructuras de tubulinas de un modo no computacional. Cada una de esas tubulinas sería portadora de información digitalizada, que posteriormente sería procesada en el cerebro195. 4. Dificultades de la propuesta Como ya se avanzó, el grado de especulación de la propuesta de Penrose sobre cómo puede actuar la consciencia en el cerebro humano es muy elevado. Hasta tal punto que resulta difícil escoger el tipo de argumento en contra. Además, incluye tal cantidad de presupuestos filosóficos e interpretaciones científicas que no se pueden abordar todos ellos. Así que me centraré solo en algunas dificultades que él mismo reconoce y en algunos presupuestos filosóficos. Un primer aspecto es que el fenómeno OR estaría normalmente enmascarado por la aleatoriedad cuántica y sería prácticamente inobservable entre la maraña de fenómenos de decoherencia por el entorno. Solo un experimento ad hoc podría dar indicios de una OR gravitatoria, aunque en última instancia también podrían ser provocados por el entorno. Esto apunta a que la interpretación más plausible a día de hoy es la de decoherencia por el entorno, que es compatible con la defensa de un procedimiento objetivo de reducción del vector de estado. Por otro lado, el fenómeno de consciencia sería inobservable, porque la OR orquestada se derivaría del entrelazamiento cuántico y de los efectos de la gravedad en un sistema de gran cantidad de partículas, moléculas y estructuras. Solo en un sistema cuántico coherente y aislado del entorno, donde el vector de estado se aplicase a escala macroscópica a un enorme número de partículas actuando en concierto, se podrían observar efectos correlacionados con la consciencia. Pero para el punto de vista convencional todo esto es altamente improbable (Penrose, 1998a: 172-173) y desde un punto de vista científico reclama algún tipo de experimento que resultaría imposible de realizar. 139
En tercer lugar el fenómeno de la consciencia requeriría de la presencia de ciertas estructuras biológicas que no son específicas de los cerebros humanos y que se pueden observar en otras especies. Por eso, o se concluye que también otros seres son capaces de tener algunos grados inferiores de consciencia, como sostiene Penrose, o se afirma que la consciencia deriva en última instancia de la complejidad del cerebro, postura que el mismo Penrose rechaza en su crítica de la posibilidad de una inteligencia artificial. Además, después de la explicación de Penrose, la conclusión personal a la que llego y que no aparece explicitada por Penrose, es que la acción de la gravedad —es decir, la geometría del espaciotiempo— en unas estructuras del cerebro, sería la «glándula pineal» del fenómeno de la consciencia. Postura desde la que es fácil deslizarse hacia el mentalismo rechazado por nuestro autor. En definitiva, Penrose elabora una teoría altamente especulativa en la que se integran una infinidad de elementos científicos sobre los que resulta necesario profundizar. Es cierto que quizá por esas vías estén las soluciones a las dificultades explicativas de tantos fenómenos reales que no conocemos pero, como el mismo Penrose reconocería, necesitamos profundizar más antes de llegar a una teoría convincente. Por último, considero que en la postura de Penrose hay un par de puntos que conviene resaltar y que convendría explorar con más detenimiento. El primero es el aspecto recursivo de muchos fenómenos físicos y su posible relación con la consciencia. Y el segundo es la conclusión de que la consciencia se sitúa en un nivel superior al de la física aunque pudiese emerger de esta. Penrose, no intenta incluir la consciencia en el mismo nivel de las causas físicas o matemáticas, ni tampoco separarla completamente de estas. Deja por tanto el camino abierto a una consciencia que interacciona con los niveles de las ciencias y de las matemáticas, aunque el modo en que se da esa relación siga siendo el mayor de los misterios. 159 La columna vertebral del esquema es Relatividad-Cuántica-Termodinámica. Las teorías de la relatividad encuentran dificultades en la explicación de las singularidades, las condiciones de contorno, los problemas de horizonte, la censura cósmica... La mecánica cuántica afronta el problema de medida, los efectos EPR de las no localidades, la renormalización de las teorías, la complejidad... Y la termodinámica se enfrenta a la asimetría temporal. 160 Hawking llegó al valor de la entropía y de la temperatura de un agujero negro a partir de consideraciones sobre la teoría cuántica de campos en un espaciotiempo curvo. Es decir, haciendo que la cuántica se adapte a la relatividad y no al revés. La nueva teoría física propugnada por Penrose se inclina por este enfoque, aun así busca una teoría que supere e integre ambas. Véase Penrose, 2006: 1105 y Thorne, 1995 si se quiere profundizar más en los agujeros negros. 161 Como consecuencia del principio de indeterminación de Heisenberg, se pueden crear pares de partículaantipartícula a partir de un aporte puntual de energía. Estos pares se desintegran rápidamente entre sí, devolviendo la energía usada para su formación. Sin embargo, si ese par se forma en el horizonte de sucesos de un agujero negro, es posible que uno de los componentes del par escape del agujero, produciendo una radiación y disminuyendo la masa del agujero negro. Esta pérdida de masa por efecto cuántico sería tanto más rápida cuanto más pequeño sea el agujero negro y supondría que a la larga todos los agujeros negros desaparecen. 162 En Hod, 2008 se recoge una de las últimas aportaciones al debate sobre esta conjetura. 163 En el esquema de diagramas de Penrose se ven las singularidades (con líneas onduladas), la trayectoria de una partícula con masa (con flechas) y los bordes del cono de Minkowski en una sola dimensión (las rectas a 45º). 164 Y la única seria según Penrose (2006: 1026). Posteriormente nuestro autor ha publicado Ciclos del tiempo, donde propone una nueva teoría. 165 Los parámetros conocidos como límites de Planck definen los límites de validez de la física conocida.
140
Entre estos, se encuentra la temperatura de Planck (Tp = 1.416785(71) × 1032 K) que es la temperatura del universo durante el primer instante del Big Bang y el límite por encima del cual cualquier partícula subatómica se rompería. Esa temperatura se alcanza cuando el universo tiene las dimensiones espaciales de la longitud de Planck (lp = 1.616252(81) × 10−35 metros) y la dimensión temporal del tiempo de Planck (tp = 5.39124(27) × 10−44 s). 166 La geometría lorentziana que rige en el comportamiento del universo, tendría su origen en una geometría riemanniana (con cuatro dimensiones espaciales). El vector tiempo, que en la geometría lorentziana era ortogonal y se plegaba sobre una superficie 3-espacial, sería una variable espacial más. Para comprender este cambio de geometrías ayuda considerar una dimensión temporal y solo dos dimensiones espaciales, e imaginarse una pelota de Bgton. En esa pelota, la semiesfera correspondería con el 4-espacio rimenniano (volumen con 3 dimensiones espaciales porque el tiempo sería una variable espacio más) y las plumas con la geometría lorentziana. Las plumas definen un volumen formado por un círculo espacial horizontal que se expande y se desplaza en el tiempo a lo largo de la vertical. 167 Esa postura contrasta con la sostenida en Penrose, 2006: 1130, donde afirma que el espacio de fases está en equilibrio entre dos efectos. Uno, debido a los agujeros negros en los que se pierde información y disminuye el espacio de fases y otro por el que, con la reducción del vector de estado, aumenta el espacio de fases. El equilibrio entre un proceso y otro es una característica global que no implica una asociación directa de cada partícula que cae en un agujero con la reducción de estado de otra partícula, como si estuvieran conectadas por efectos no locales. 168 Según Michael Heller en las condiciones de contorno se daría el paso de la atemporalidad a la temporalidad. La herramienta matemática que describiría el nuevo modelo matemático podría ser una geometría no conmutativa (Heller, 2003: 79-99). 169 Este comentario y otras perspectivas, como la de un Dios afinando en las condiciones iniciales del universo, dan a entender que Penrose ve a Dios como un God-of-the-gaps que tapa los agujeros explicativos de la ciencia. En esta línea, Sanchez-Cañizares apunta sobre Penrose que: «sus últimas reflexiones aún parecen ser deudoras de cierta concepción dialéctica entre actitud científica y actitud creyente: “me parece que hay dos rutas posibles para abordar esta cuestión. La diferencia entre ambas es una cuestión de actitud científica. Podríamos adoptar la postura de que la elección inicial fue un ‘acto divino’ [...] o podríamos buscar alguna teoría científícomatemática para explicar la naturaleza extraordinariamente especial del big bang” (pág. 1025, también, pág. 1011). Estas citas manifiestan la existencia de un problema de fondo sin resolver en la ciencia actual, con connotaciones claramente metafísicas, a la par que presentan una dialéctica artificial entre una (eventual) solución científica y el actuar divino. ¿Por qué no mantener conjuntamente las dos actitudes y caminos?» (Sánchez Cañizares, 2008: 503). 170 La cuantización es un procedimiento matemático general para construir el modelo cuántico (discreto) de un sistema físico a partir de su descripción clásica (continua). Mientras que la segunda cuantización es el formalismo concreto que se utiliza en la teoría cuántica de campos. Su importancia y utilidad reside en que permite estudiar los campos físicos (continuos) desde el punto de vista cuántico (discreto) y facilita extender la mecánica cuántica no relativista a sistemas con un número de partículas variable. Así permite dar razón de algunos efectos relativistas como los procesos de creación de pares partícula-antipartícula. 171 La no conmutatividad implica que el orden de los factores sí altera el resultado. Así por ejemplo, para un algebra no conmutativa se cumple que 3 · 7 ≠ 7 · 3. Sería algo análogo, aunque con bastantes matices, a lo que sucede con el orden entre dos términos semánticos. Así por ejemplo, en castellano no es lo mismo decir «perfecto blanco» que «blanco perfecto». 172 Al inicio de la mecánica cuántica el sistema se consideraba de modo clásico, formado por partículas con sus variables, pero con la teoría de campos cuánticos esos conceptos fueron sustituidos respectivamente por función y operador. 173 Si se sustituye xp – px por la nomenclatura usada hasta ahora (Dx · Dp), con los ajustes convenientes se obtiene la relación de indeterminación de Heisenberg: Dx Dp ≥ ħ/2. 174 Para posición y momento, Dx · Dp ≥ ħ/2; y para tiempo y energía, Dt · DE ≥ ħ/2. 175 Así por ejemplo, Ramón Lapiedra defiende una intervención subjetiva creadora en la observación del proceso de medida. Según él «no hay bastante realidad objetiva en el mundo para dar siempre cuenta de nuestra experiencia cuántica porque, a menudo, esta experiencia crea una parte de esta realidad» (Lapiedra, 2008: 167). El colapso de la función de onda aportaría a la realidad objetiva en el nivel cuántico y sería la base de la acción de la libertad en los hombres. La decisión cuántica de dónde colapsar estaría amplificada al nivel macroscópico en los cerebros humanos para dar cabida a la libertad humana (Lapiedra, 2008: 176-177). Según esta postura, hay dos niveles de acausación en la realidad: la indeterminación cuántica y la libertad humana. Una postura similar es la defendida por autores como John Von Neumann o Eugene Paul Wigner.
141
176 Para una descripción más detallada de las distintas posturas que considera Penrose se puede consultar Penrose, 2006: 1049-1092. 177 «Lo menos que puede decirse de una interpretación de la mecánica cuántica como esta, que puebla el mundo total de una miríada exponencialmente creciente de diversos mundos, (...) es que no es precisamente una interpretación muy económica a la hora de intentar describir la realidad. (...) El caso ha de tener su interés para la sociología de la ciencia, a la hora de plantearse por qué una propuesta tan inverosímil ha podido gozar de una audiencia tan grande. En cualquier caso, para nosotros esta propuesta de interpretación de la mecánica cuántica debería ilustrar, una vez más, la profunda desorientación de la comunidad científica en la materia» (Lapiedra, 2008: 100). 178 La decoherencia por el entorno supone la existencia de interacciones espontáneas concretas que llevan a la supresión de la interferencia que se observaba en el experimento de la doble rendija, dando lugar a la localización de la partícula en algún lugar, según un conjunto de probabilidades discretas. Para un estudio más detallado se puede leer Bacciagaluppi, 2012. 179 La matriz densidad combina las probabilidades clásicas con las amplitudes de probabilidad cuánticas, sin distinguir directamente unas de otras. Resulta muy útil en la práctica, aunque no queda claro su estatuto ontológico. 180 El teorema T de la teoría cuántica de campos afirma que toda interacción física es invariante si se le aplican las tres operaciones de conjugación de carga (C), inversión de paridad (P) e inversión temporal (T). Simplificando mucho, esto significa que existe un comportamiento especular básico en la física cuántica. Sin embargo, dicha simetría que afectaría a la carga, a la paridad y al tiempo, se sabe que no es válida cuando se aplica por separado a C, a P, a T y a . Un ejemplo de ruptura de simetría es la que se observa en la fuerza electrodébil. 181 La hipótesis de censura cósmica propuesta por Penrose sería un intento de introducir la asimetría temporal en las leyes simétricas de la relatividad. Mientras que la hipótesis de la inversión de la flecha del tiempo sostenida por Hawking sería un intento de conservar la simetría. Como apunta Hawking: «I wrote a paper claiming that the arrow of time would reverse when the universe contracted again. But after that, discussions with Don Page and Raymond Laflamme convinced me that I had made my greatest mistake, or at least my greatest mistake in physics: the universe would not return to a smooth state in the collapse. This would mean that the arrow of time would not reverse. It would continue pointing in the same direction as in the expansion» (Hawking y Penrose, 2010: 65-67). Las recientes observaciones a gran escala de un universo en expansión acelerada sostienen mejor la postura de Penrose e impulsaron a Hawking a reformular su postura, eliminando la inversión temporal y su teoría del Big Crunch. 182 El principio de covarianza establece que las leyes de la física deben tener la misma forma en todos los marcos de referencia. 183 Aunque no es el único: «Lo cierto es que, mucho antes de dedicarse a difundir el concepto de nocomputacionalidad, en la vida de R. Penrose hizo temprano acto de presencia el concepto de aperiodicidad» (Gherab-Martín, 2011: 82). Y lo hizo no solo mediante el descubrimiento de los teselados aperiódicos sino también mediante la influencia de la tesis sostenida por Schrödinger, en el libro ¿Qué es la vida?, de que la vida es información y que las fibras cromosómicas deberían estar formadas por cristales aperiódicos. 184 Se describen varios ejemplos en Penrose, 1997a: 22-23. 185 Algunos autores identifican directamente el problema de medida con el ubi para las acciones libres conscientes: «El papel crucial de la consciencia al que nos referimos incluye nuestra impresión de que podríamos haber elegido obrar de otra manera en vez de como lo hemos hecho. La percepción de que tenemos libre albedrío, lo que los físicos llaman el problema de la medida, es básica para el enigma cuántico» (Rosenblum y Kuttner, 2010: 17). 186 Por ejemplo, donde los números complejos juegan un papel fundamental, es en la teleportación cuántica (transmisión de información cuántica) (Penrose, 2006: 804-816). Las amplitudes cuánticas, debido a su relación de raíz cuadrada de una probabilidad, tienen asociaciones cercanas con la geometría del espaciotiempo. Así por ejemplo, cada estado puro del espín de una partícula másica se asocia con una dirección en el espacio. De modo que si medimos el espín de la partícula en esa concreta dirección, obtenemos la respuesta «sí» con una probabilidad del 100 por 100. La esfera de Riemann proporciona una asociación directa entre (los radios de) las amplitudes complejas de la mecánica cuántica y la geometría de direcciones en el espacio. Esta amplia consideración se podría combinar con un enfoque más restrictivo. En concreto, como se ha visto al principio de estos apartados, las matemáticas no conmutativas podrían desempeñar un papel muy especial en el desarrollo de nuevas teorías. 187 En Penrose, 1999a: 97-99 se recogen dos hipótesis sobre la gravedad cuántica en los que se incluye un
142
elemento no computable. La primera es de Geroch-Hartle y la segunda de David Deutsch. 188 «The claim (or suggestion) is that you consider the energy E that it would take to displace one instance of this mass in the gravitational field of the other instance of the mass. The reciprocal in Planck units, of that energy gives you a time (ħ/E = t), and that time t is the time it takes for the state to jump from the superposed state to one or the other» (Penrose, 1997a: 25). Para los protones o neutrones este proceso supondría cientos de millones de años, pero para diminutas gotas de agua, cuya masa (y también su energía asociada a la superposición) es notablemente mayor, el proceso OR tendría lugar en escalas de tiempo adecuadas a las de los procesos biológicos. 189 En la nota 53 se explica la diferencia entre la primera y segunda propuesta de Penrose respecto a la reducción de estado. Un gravitón, según algunas teorías de gravedad cuántica, sería la partícula elemental de la interacción gravitatoria, de modo similar a como el fotón lo es de la fuerza electromagnética, los bosones W y Z de la interacción débil y el gluón de la interacción fuerte. En la actualidad los gravitones no se han descubierto. 190 El citoesqueleto es un entramado tridimensional de proteínas que provee soporte interno en la célula, organiza las estructuras internas de la misma e interviene en los fenómenos de transporte, tráfico y división celular. 191 La analogía es sugerente, porque durante muchos años se pensó que la superconductividad era un fenómeno solo posible a temperaturas cercanas al cero absoluto. Sin embargo, recientemente se han descubierto fenómenos de superconductividad a alta temperatura (bastante por debajo de la temperatura corporal, pero que podrían alcanzarla). Dichos fenómenos se observaron inicialmente a bajas temperaturas en los condensados BoseEinstein (BEC) y muestran un estado de coherencia cuántica. En este caso, al bajar la temperatura se aumenta la longitud de onda de las partículas hasta que sus ondas asociadas se acoplan entre sí dando lugar a una gigante onda de materia. Las ondas de materia superpuestas, están en fase, y cada partícula —cuya longitud de onda ha aumentado— se extiende sobre todo el BEC. Este fenómeno normalmente asociado con los bosones, también puede darse con pares de fermiones (quarks y leptones). 192 Para observar la evolución de la propuesta de la OR orquestada se pueden comparar Hameroff y Penrose, 1996a; 1996b con su publicación más reciente Hameroff, 2012. Entre medias, la tesis ha sido perfilada con más detalle en 1998, 2007 y 2010, recogiendo también una respuesta a la crítica de McKemmish (2009). 193 La diferencia entre ambas propuestas estribaría en que McKemmish hace una lectura del cambio de la polarización de los anillos según la Teoría del Enlace de Valencia, mientras que Penrose y Hameroff lo hacen conforme a la Teoría de los Orbitales Moleculares. Ambas teorías no son contradictorias, sino complementarias; pero según se use una u otra las conclusiones extraídas pueden ser diversas, como es el caso. La Teoría del Enlace de Valencia explica la naturaleza de un enlace químico en una molécula, en términos de las valencias atómicas; mientras que Teoría de los Orbitales Moleculares, es un método para determinar el enlace químico en el que los electrones no están asignados a enlaces individuales entre átomos, sino que se toman con un movimiento que está bajo la influencia de los núcleos de toda la molécula. 194 En un estado de entrelazamiento cuántico, la cantidad de bits de información que contendrían 500 tubulinas sería de 2500; y bastaría con entrelazar una tubulina más para duplicar la información contenida. 195 Para entender los pormenores de la propuesta convendría explicar cómo funciona un computador cuántico y cómo es capaz de almacenar y extraer la información. Algo que, sin duda, es interesante, pero que excede los objetivos de este libro.
143
Conclusiones A lo largo de este libro se ha presentado la postura de Penrose con relación al mundo físico, a las matemáticas y a la consciencia. Se ha pretendido ser fiel al contenido y al espíritu del autor, evitando caer en un primer nivel de crítica más superficial para llegar a otro más profundo. Por eso, frente al objetivo central de la valoración filosófica, se han supeditado algunas apreciaciones físicas, matemáticas o biológicas. En el marco general de la obra de Penrose se aprecian dos motivaciones. La primera constituye la defensa de una postura filosófica según la cual la no computabilidad sería un rasgo de nuestro pensamiento consciente; y la segunda expresa el deseo pedagógico de escribir sobre temas científicos para que llegue a un público más amplio. Lo que le incentivó a escribir su primera obra fue: (...) ver en el programa Horizon de la BBC a Marvin Minsky y otros haciendo unas afirmaciones de lo más escandalosas. Sentí que había un punto de vista, el mío, que nunca había visto expresado en ningún sitio y que era necesario sacar a la luz (...) Supongo que lo que estaba haciendo en ese libro [The emperor’s new mind] era filosofía, pero alguien se quejó de que yo me remitía a un único filósofo —lo que seguramente es cierto. Esto es porque las cuestiones que interesan a los filósofos tienden a ser bastante diferentes de las que interesan a los científicos; los filósofos tienden a ocuparse de sus propias controversias internas (Penrose, 1996a: 229).
Encontramos por tanto en Penrose un afán por transmitir su punto de vista, junto con una necesidad de hacer filosofía de la naturaleza para contrarrestar las afirmaciones escandalosas de otros científicos. Con estas motivaciones convive un modo de realizar la tarea en el que se manifiesta tanto la preferencia por la aproximación científica como el deseo de alcanzar una visión de conjunto196. La primera aproximación, se quiera o no, es reductiva ya que no escapa a la dimensión legaliforme de la ciencia. Esta busca leyes que expliquen el comportamiento de una realidad que, sin embargo, las trasciende. Mientras que el segundo enfoque puede desembocar en la unificación de aspectos demasiado distantes, como cuando Penrose amalgama la solución de varios puntos inexplicados por la ciencia actual en torno a la resolución del problema de medida. He aquí por tanto dos puntos matizables de su enfoque. El primero es la pretensión implícita y explícita de que la ciencia no tenga límite explicativo para todo lo que tenga substrato material: desde el colapso de la función de onda, hasta los fenómenos de la consciencia o de la libertad. Y el segundo es la aparente precipitación que le lleva a interconectar muchos puntos inexplicados en propuestas excesivamente pretenciosas, como la del fenómeno de consciencia. Este segundo punto requeriría algunos matices, ya que se tratan de propuestas heurísticas que podrían en algún caso ser verdaderas; mientras que el primer punto es una asunción filosófica fuertemente sostenida por Penrose tanto a nivel teórico como práctico. Aun así, su obra no carece de interés filosófico, sino que requiere de una lectura atenta que permita discernir la paja del grano. En los ensayos científicos de Penrose resalta un sano inconformismo tanto con las teorías físicas reinantes como con la pretensión de atenerse a lo que funciona sin 144
preguntarse por el porqué último de las cosas. Nuestro autor no se conforma con el poder predictivo de las teorías —con un funcionalismo al que le bastan unos buenos resultados — sino que aspira al poder explicativo científico y filosófico. Además, confía en la capacidad humana, que subyace en el método científico, de conocer la realidad. En los aspectos vitales y filosóficos que marcan el modo de pensar de Penrose se aprecia la influencia de autores como Kurt Gödel en lo matemático, Albert Einstein y Denis Sciama en lo físico, o Karl Popper en la cosmovisión científica. Junto con estas influencias conviven los intereses, compartidos desde la infancia con su padre, por la geometría, las matemáticas o la consciencia. En su metodología resalta el papel fundamental tanto del instinto científico como del sentido común. Ambos catalizan los esfuerzos para acertar con los caminos que llevan a las teorías válidas y en última instancia verdaderas. Además, manifiesta una pasión por conocer la realidad bajo un enfoque simplificador que busca la belleza intrínseca de lo real. Aun así no basta, por ejemplo, con que las matemáticas empleadas sean bellas o simples en sí, sino que, para dar a luz a la verdad, tienen que enlazar con la belleza o simplicidad a otros niveles. El único de los trascendentales platónicos que Penrose no pone explícitamente en o con los demás es el bien. Sin embargo, la misma actividad científica reclama de una bondad en su ejecución y apunta a la bondad del conocimiento científico. Dicha bondad se observa también en la honestidad y claridad con que el científico debe presentar sus resultados, aunque necesariamente se encuentren en el contexto de una interpretación. Así sucede por ejemplo en los libros de Penrose, donde a la vez que se resaltan los aspectos más relevantes para mostrar su visión de conjunto, también se reconocen algunos puntos dudosos. Esta interpretación de los datos científicos es más relevante de lo que pudiera parecer a primera vista, ya que con los mismos datos se puede llegar a conclusiones radicalmente distintas. Así por ejemplo, algunos autores (Rosenblum y Kuttner, 2010: 18) sugieren que la mecánica cuántica, tal y como la conocemos, pone en duda tres intuiciones de sentido común: dar por sentado que dos objetos no pueden estar a la vez en el mismo sitio; que lo que sucede aquí no puede estar afectando simultáneamente en algún lugar muy lejano; y que hay un mundo real ahí fuera, con independencia de que lo contemplemos o no. Según la mecánica cuántica parecería que la observación crea la realidad física observada. Estas conclusiones, que se deducen en el primer caso de la superposición cuántica, en el segundo de los efectos EPR y en el tercero de la influencia del observador sobre lo observado, son para muchos científicos prácticamente canónicas; y, sin embargo, distan bastante de las sostenidas por Penrose u otros autores. Con frecuencia lo que se presenta como conclusiones de las teorías científicas, responde simplemente a marcos filosóficos previos. Penrose hace una lectura distinta de cada uno de esos fenómenos y considera que el problema está en la insuficiencia del conocimiento físico de dichas realidades. Para nuestro autor, si algo se aleja mucho del sentido común y científico conviene 145
replantearse su interpretación actual. Aunque algunos fenómenos se conozcan con mucha precisión técnica, si no se conocen las causas que lo explican, uno no puede dejarse guiar solo por los datos experimentales y las teorías consolidadas. La tarea científica requiere por tanto de cierto instinto científico, del sentido común, de la sencillez de los planteamientos, de la objetividad en las conclusiones, de la armonía con otros ámbitos del saber, de la humildad para reconocer que se puede estar en el error y de la existencia de una realidad ahí fuera. Si no existiese un mundo real no se podría hacer ciencia y el hecho de que se pueda hacer ciencia es una manifestación de que existe una realidad que se puede conocer objetivamente. En resumen, los límites del método científico determinan los límites de la imagen del mundo que la ciencia puede aportar. Sin embargo, la imagen que los científicos tienen del mundo trasciende los límites de la ciencia actual. Hay preguntas que no se pueden responder dentro de las ciencias y dan lugar a interpretaciones. De este modo la interpretación de la ciencia, o el conjunto de interpretaciones, acaba conformando el panorama del mundo y permea la cultura de una determinada época, alcanzando el trasfondo filosófico (Heller, 2003: 25). La ciencia, por ende, se constituye en un valor específicamente humano y, por eso, resulta legítimo aventurarse con nuevas interpretaciones que catalicen la investigación. Sin embargo, para que ese proceso sea eficaz y fructífero se requiere de una reflexión que acote las interpretaciones. Con este propósito se ha expuesto y analizado en este libro el pensamiento de Roger Penrose, cuyo nervio central está constituido por el nuevo argumento de Penrose. Aquel que, partiendo de las matemáticas, le lleva a afirmar que en el substrato físico sobre el que tiene lugar la consciencia —y el pensamiento matemático— debe haber un elemento no computable. Al analizar dicho argumento se llegó a la conclusión de que puede ser matemáticamente correcto y filosóficamente válido, aunque no concluya porque no es demostrable la premisa matemática de consistencia. En teoría no hay razones suficientes para dudar de dicha consistencia y, sin embargo, resulta imposible probarla desde dentro de las matemáticas computables. Demostrar su consistencia remite a unas matemáticas más amplias, cuya consistencia se debe probar. A su vez, estas remiten a otras, hasta que se llega al conjunto de las matemáticas, cuya consistencia y fundamentación última resulta intrínsecamente indemostrable. Por tanto, aunque no hay razones de peso para dudar de la consistencia de las matemáticas, tampoco se pueden demostrar matemáticamente. Las matemáticas constituirían un sistema abierto, no cerrado, en el que la carga de la prueba está a favor de la consistencia. Esta afirmación me lleva a compartir la conclusión filosófica de Penrose según la cual las máquinas nunca podrán llegar a ser conscientes como lo es el hombre. Su argumento es sugerente y debe ser tenido en cuenta, pero no es completo ni inatacable, como le gustaría a Penrosa, ya que pivota sobre la premisa indemostrable de consistencia matemática. En última instancia, dicha consistencia es asumible como verdadera pero no es perfectamente demostrable, lo que ha llevado a muchos matemáticos realistas, como Penrose o Gödel, a buscar un fundamento platónico para las matemáticas. Sin embargo, 146
dicho salto hacia un mundo platónico de las matemáticas, no parece la conclusión más apropiada. Desde un enfoque menos exigente, bastaría con sostener que las matemáticas requieren de un mínimo de realismo por su relación con la realidad y el modo humano de conocer. Sería algo análogo a lo que sucede con la física u otras ciencias, cuya actividad requiere de algún tipo de realidad, aunque carece de un lecho de roca firme —los consabidos hechos experimentales— que la fundamenten. En última instancia las matemáticas se justificarían tanto internamente, mediante nuevos constructos y demostraciones que la estructuran, como externamente, mediante la realidad y la actividad de conocimiento humano. No sería necesario recurrir ni al platonismo matemático ni a su método de conocimiento por intuición directa, ya que ambos plantean más dificultades ontológicas y epistemológicas que las que resuelven. El fundamento externo de las matemáticas se adquiriría en su relación con otros saberes, con la realidad conocida y con el sujeto cognoscente. De este modo se redimensionaría el misterio que une el mundo platónico de las matemáticas con el mundo físico y a la vez se rompería el esquema de los tres mundos de Penrose. Dicho esquema, que expresaba los prejuicios de Penrose, resulta filosóficamente inviable porque muestra, sin justificar, un entrelazamiento de tres mundos en una especie de causa sui retardada197. En este sistema, aunque los misterios trascienden cada uno de los mundos, quedan encerrados en el conjunto global. Parece como si, en su afán por fundamentar la existencia objetiva de la realidad, Penrose llegase a un esquema cerrado que no respeta el misterio global y del que no sabe cómo salir aunque reconozca la incoherencia lógica. Se podría decir que se aproxima a la realidad con una mentalidad objetivo-deductiva que desea controlar, mientras que quizá se requiere una mentalidad contemplativa que desea descubrir los misterios. A mi parecer ese enfoque objetivo-deductivo no solo se observa en sus argumentaciones matemáticas en relación al nuevo argumento, como ya se ha visto, sino también en sus argumentaciones físicas. Penrose acepta un marco matemático y físico, dando por hecho la consistencia tanto de dicho marco como de las argumentaciones realizadas dentro de él. Acepta implícitamente el marco legaliforme de la física y de las matemáticas, pero el problema reside en que, al igual que su esquema, se queda encerrado en esos presupuestos. Da por hecho que las respuestas a los grandes problemas se pueden encontrar en ese marco. Así, presupone por ejemplo que las matemáticas y las ciencias pueden dar razón del fenómeno de consciencia. Lo que, en última instancia, constituye un acto de fe en el poder de las matemáticas y en la física para alcanzar la verdad por sí mismas, cuando en realidad ninguna de ellas tendría un fundamento intrínseco propio. En resumen, el esquema de los tres mundos de Penrose resulta poco convincente por las restricciones de causalidad que impone entre los mundos. Con su deseo de justificar el conjunto, no solo limita la riqueza del misterio, sino que lo hace más difícil de entender. La realidad física parece más rica que las matemáticas que subyacen en ella, de igual modo que la realidad mental parece más rica que la física o las matemáticas que 147
puedan subyacer en ella. Con esto no pretendo afirmar que esos marcos no sean válidos sino que parecen demasiado estrechos. Como alternativa se podría presentar un esquema donde los tres mundos se entrelazasen entre sí mediante misterios difusos y bidireccionales. Las relaciones entre el mundo mental y las matemáticas, por ejemplo, serían recíprocas: las matemáticas en parte se descubrirían y en parte se construirían; al igual que la relación entre el mundo mental y el mundo físico: gracias al mundo físico podrían existir seres humanos conscientes que conocen y actúan sobre el mundo físico, creando nuevas estructuras o realidades que antes no existían. Por otro lado, estos misterios bidireccionales tendrían una fuerte componente holística que desdibujaría los elementos necesarios para justificar todas las relaciones. Además, cada uno de esos mundos y el conjunto global gozaría de una permeabilidad y apertura intrínsecas; lo que a su vez resultaría más acorde y respetuoso con las tareas del científico, del matemático y del filósofo. De este modo emergería con más claridad un nuevo misterio que se encontraba oculto por el esquema de Penrose y que a lo largo de este trabajo se ha ido desvelando como conclusión filosófica derivada de las matemáticas, de la física y de la consciencia: la apertura intrínseca del conjunto global, no solo de cada uno de los mundos de Penrose. Por tanto, parecería necesario afirmar que el conjunto de las matemáticas son consistentes; de igual modo que parece necesario sostener —desde la física— que existe una realidad cognoscible ahí afuera y —desde la persona— que existen sujetos conscientes que conocen y reflexionan sobre las matemáticas, sobre la realidad y sobre sí mismos. No hay razones suficientes para refutar ninguno de estos supuestos, así que la carga de la prueba estaría en demostrar las hipótesis contrarias. Detrás de esas afirmaciones subyacen no solo la consistencia matemática sino lo que podríamos denominar una consistencia física de la realidad y una consistencia personal del sujeto que hace matemáticas y física. Consistencias que a su vez se fundamentan recíprocamente. Una vez asumido esto, tiene sentido llegar a la conclusión que llega Penrose, según la cual en el pensamiento matemático debe haber algo no algorítmico o, lo que es lo mismo para él, no computacional. Esa conclusión particular, generalizada para el pensamiento y extendida a la realidad material, se encuentra en las matemáticas, en la física y en la consciencia. Si, como concluye Penrose, ni siquiera las matemáticas se pueden reducir a algoritmos, cuánto menos se podrán reducir a algoritmos la realidad física o la consciencia. El nuevo reto que se plantea es buscar esa realidad no algorítmica. En esta búsqueda, desde mi punto de vista, había un error de planteamiento. El punto de partida implícito de Penrose es suponer que toda la realidad es computable; y cuando descubre que no lo es, busca lo no computable. Sin embargo, la conclusión no debería ser que en la realidad hay algo no computable, lo cual es cierto, sino que la misma premisa de pretender que todo sea computable es inaceptable. Penrose intuye por su sentido común que no todo es computable pero, a la hora de afrontar el dilema, desea realizar una contra-argumentación desde las matemáticas, similar a la que Gödel hizo con el formalismo de Hilbert. Por tanto, imbuido en un reductivismo matemático, 148
argumenta contra el mecanicismo computacional. Sin embargo, en estricta lógica matemática, dicho argumento resulta imposible de cerrar. Siempre existe un espacio desde el que desarrollar una contra-argumentación a favor de la computabilidad. Por eso, considerar que solo se obtienen demostraciones válidas cuando se argumenta desde la estricta lógica parece una pretensión excesiva, tanto para la tarea de científica como para la filosófica. Frente a semejante pretensión, bastaría con tomar como punto de partida la existencia de una realidad a la que llegamos desde nuestra experiencia. Después esa realidad se estudia, se observa o se analiza desde las ciencias, las matemáticas o la computación; pero, al estudiarla así, se deja fuera toda realidad no-científica, no-matemática o nocomputacional, con lo que siempre quedará un contenido de realidad dentro de esas «nocaracterísticas». Es más, tal y como se ha argumentado en este libro, la misma realidad acabaría trasciendo la aproximación reductiva para mostrarse abierta. La realidad se resiste a una mirada reductiva y acaba mostrando su apertura. Cuando Penrose descubre que existe una apertura (la dimensión no algorítmica de las matemáticas, de la física y de la consciencia) busca dónde encontrarla; y señala la intuición matemática, la paradoja de la medida o los juicios del pensamiento como lugares no-algorítmicos. De entre estos tres, Penrose se centra especialmente en la paradoja de la medida. Busca un reflejo físico de la apertura de lo no algorítmico: de aquello que un ordenador no puede realizar porque requiere una visión de conjunto que trasciende los aspectos locales198. Desde un punto de vista local, Penrose señala la existencia de cosas determinadas y computables que conviven con otras que parecen indeterminadas, porque en ellas tienen lugar unas decisiones o novedades que no son computables. Sin embargo, la decisión o novedad que aparece en cierto nivel podría estar determinada por alguna ley de un nivel superior. Esa ley sería, por ejemplo, responsable de impedir que las escaleras de Penrose existan en la realidad, aunque localmente parezcan posibles, o de permitir que los cuasicristales aperiódicos sean configuraciones físicas reales, a pesar de que no tienen un patrón local que las estructure. Por lo tanto, en el nivel local todo estaría determinado pero no todo sería computable: la aparente indeterminación de lo no computable se determinaría desde nivel superior o global. En definitiva, la no computabilidad de Penrose se manifiesta localmente, pero remite a un elemento no-local. Un paso ulterior, dado por nuestro autor, es itir la posibilidad de que existan varios niveles de determinación. De este modo, en el nivel superior se podrían encontrar tanto la ley que rige el universo como la consciencia que actúa libremente. Desde esos dos niveles de ley universal y libertad personal se determinarían los acontecimientos en los niveles inferiores. La ley que gobierna el universo sería temporalmente asimétrica y surgiría de una unificación de la relatividad general con la mecánica cuántica, en una nueva teoría de gravedad cuántica. Con esta nueva teoría se resolvería la aparente aleatoriedad de los saltos cuánticos y se explicarían los fenómenos de entrelazamiento cuántico y de no localidad de los efectos EPR. La nueva gravedad cuántica regiría el comportamiento de 149
las partículas en los niveles cuánticos conforme a una dirección. Las aparentes aleatoriedades fundamentales responderían a algunas motivaciones globales del universo a distintos niveles, como el hecho de que en el mundo haya seres sentientes y seres conscientes que hacen ciencia. En ese sentido y aunque sea llamativo, Penrose parece defender a la vez la selección natural y cierto principio antrópico débil, en una especie de «selección natural dirigida». En este caso, la selección natural sería la causa local pero insuficiente de que aparezca la consciencia, porque pasaría por alto el propósito teleológico de la existencia de consciencia. Las decisiones selectivas estarían dirigidas desde un nivel superior que se aproximaría, aunque no coincidiría, con el concepto de principio antrópico: (...) el argumento del principio antrópico débil podría proporcionar (al menos) una razón para que la consciencia exista sin que tenga que ser favorecida por la selección natural. Pese a ello, yo no puedo creer que el argumento antrópico sea la razón auténtica (o la única razón) para la evolución de la consciencia. Hay evidencia suficiente procedente de otras direcciones para convencerme de que la consciencia tiene una poderosa ventaja selectiva, y no creo que se necesite el principio antrópico (Penrose, 1999b: 538).
La aparente contradicción de la cita anterior adquiere nueva luz con la siguiente: Una característica notable de las estructuras teselantes cuasi-cristalinas que he estado describiendo es que su ensamblaje es necesariamente no-local. Es decir, al ensamblar las estructuras es necesario, de cuando en cuando, examinar el estado de la estructura a muchos y muchos ‘átomos’ de distancia del punto de ensamblaje si queremos estar seguros de no cometer graves errores cuando juntemos las piezas. (Esto es quizá parecido al aparente ‘andar a tientas inteligente’ al que me referí con la selección natural) (Penrose, 1999b: 540-541).
Ese andar a tientas vendría dado por la selección natural mientras que la nota de inteligencia vendría dada por las decisiones dirigidas desde el nivel no-local que examina desde la distancia. Con todo lo expuesto se llega a la conclusión de que para Penrose la ley que gobierna el universo es determinista y es la causante de que existan seres conscientes. Ahora bien, con esta conclusión, se suscitan dos nuevas preguntas: ¿cómo es posible que una consciencia pueda emerger de la materialidad? y ¿cómo es posible que dicha consciencia influya realmente en la realidad? Como se ha visto, Penrose asocia el fenómeno de la consciencia a una acción coordinada en una gran cantidad de neuronas del cerebro que estaría provocada por el fenómeno de reducción orquestada del vector de estado (Orch OR) en los microtúbulos neuronales. Como los microtúbulos se encuentran en muchas estructuras de los seres vivos, Penrose llega a sostener que incluso los paramecios realizarían cierta actividad consciente, porque tienen un citoesqueleto formado por microtúbulos. En función de la complejidad de las estructuras y de la cantidad de microtúbulos involucrados en cada reducción orquestada se darían grados de consciencia, más elevados en el caso de los mamíferos, y muy especiales en el caso de los hombres. Por tanto, para Penrose la consciencia emerge de lo material y señala a los microtúbulos como las estructuras en las que se podrían dar las condiciones de posibilidad de las acciones conscientes debido a los efectos de la gravedad cuántica durante el colapso de la función de onda. 150
En la naturaleza, el colapso de la función de onda se produciría de modo natural por la acción de la gravedad cuántica, después de transcurrido un tiempo durante el que la partícula está superpuesta. Si esa partícula estuviese entrelazada dicho colapso se podría producir antes por un fenómeno de decoherencia cuántica. Además, en lugar de una partícula se podría tener un grupo de partículas que son coherentes entre sí y, por lo tanto, se superponen y colapsan conjuntamente. Esto sucedería constantemente en los microtúbulos. Por último, en entidades muy complejas como los cerebros humanos, podrían existir masas superpuestas coherentes y entrelazadas cuyo colapso se podría producir de modo orquestado en distintas zonas del cerebro (implicando a una infinidad de microtúbulos neuronales) y asociarse a una acción consciente. Al producirse este colapso orquestado, la acción consciente, que estaría en un nivel superior, actuaría en la configuración local del patrón de tubulinas que surge en los microtúbulos. Por tanto, según mi comprensión de las tesis de Penrose, la paradoja de la medida se resolvería de tres modos: los dos primeros para cualquier partícula observada localmente y el tercero solo en las acciones conscientes que engloban a muchas partículas simultáneamente y que se dan solo en algunas estructuras y condiciones físicas especiales. El modo ordinario de colapso de la función de onda sería por decoherencia con el entorno, ya que las partículas individuales estarían normalmente entrelazadas. Sin embargo, este colapso escondería el proceso natural de colapso de una partícula, por efecto de la gravedad cuántica, cuando esa partícula se mantiene sin influencias externas (cuando es coherente). Y el tercer modo se daría por una acción coordinada de la consciencia en los cerebros sobre una enorme cantidad de partículas entrelazadas que se disponen a lo largo de muchas zonas del cerebro. La consciencia en su parte pasiva sería excitada por la superposición cuántica y el momento volitivo tendría lugar en el colapso de todas las partículas entrelazadas al escoger un patrón. Visto localmente esta decoherencia sería un efecto gravitatorio, mientras que visto globalmente sería el fenómeno de la consciencia. También globalmente sería fruto de la ley que gobierna el universo. Casi ningún autor apoya esta teoría por la cantidad de cabos sueltos que deja. Tampoco a mí me convence. Aun así, en lugar de rechazar de plano la propuesta, he preferido centrarme en dos puntos filosóficos interesantes que no están muy claros en Penrose: cómo se relaciona la libertad (parte activa de la consciencia) con la ley que rige el universo; y si concibe la libertad como auténtica capacidad de autodeterminación o como una simple apariencia fruto de una ley superior. En este terreno caben múltiples lecturas filosóficas —desde un espíritu hegeliano hasta una libertad que configura el mundo—, cada una de las cuales suscita nuevas y controvertidas preguntas. A primera vista, la interpretación que parecería más conforme con los planteamientos de Penrose sería la que considera que existe una ley que gobierna el universo físico, junto con una libertad de autodeterminación de cada persona. La primera sería científicamente alcanzable y estaría presente en toda la realidad, mientras que la segunda sería la dimensión activa del fenómeno de la consciencia. Dicha consciencia emergería como un fruto de esa ley universal que gobierna el mundo. Desde sus intuiciones 151
científicas y personales, Penrose defiende tanto la realidad de la experiencia de la libertad como el determinismo universal a gran escala. Aun así, él mismo reconoce que ni el fenómeno de la libertad, ni la cuestión del determinismo a gran escala, son tan claros como a él le gustaría que fuesen. En sus concepciones, el libre albedrío no se opone al determinismo sino a la computabilidad. Eso hace, que según sus categorías pueda existir un mundo perfectamente determinado pero no computable en el que quepa la libertad (Penrose, 1999b: 535, 278, 221). Decir más, nos llevaría a no respetar la postura de Penrose. Aun así conviene aclarar dos puntos que quedan implícitos en este enfoque. El primero es que sus conclusiones, que intentan mantenerse en un equilibrio fisicista, difícilmente impiden desembocar en alguno de los dos extremos rechazados por Penrose: o un materialismo donde la libertad es solo aparente, o un dualismo mentalista científicamente indemostrable. No sabría decir con claridad en cual desemboca. Desde el punto de vista computacional parecería caer en la segunda, mientras que desde el punto de vista físico se inclinaría hacia la primera. El segundo punto que quisiera señalar es que, en su deseo por encontrar las condiciones de posibilidad de la acción libre humana en la física, Penrose entra de lleno en un debate de gran solera como es el del determinismo y la libertad. Y aunque no consigue llegar a conclusiones muy convincentes, su distinción entre los niveles locales y globales merecería una ulterior investigación, quizá dando prioridad a la libertad humana sobre la ley del universo. Personalmente considero que precisamente en esos dos misterios de la ley universal y la libertad humana es donde mejor se manifiesta la condición de apertura de la ciencia. Me parece que en la ciencia no se puede encontrar la respuesta a estas dos preguntas: ¿por qué el mundo es y es así? y ¿por qué en él hay seres libres, para cuya existencia el universo parece tan preparado? En resumen, me parece que el problema central de Penrose está en el punto de partida cuando compara el pensamiento humano con un algoritmo. Una cosa es que dicho pensamiento se pueda volcar en algoritmos, como también se pueden volcar en música, en palabras o en poesía, y otra es reconocer que el pensamiento es mucho más rico. Por otro lado, tanto por el modo de argumentar como por lo que desea conseguir, no parece que Penrose termine de salir del paradigma científico actual. Si bien es cierto que siempre nos acercamos a la realidad con una pre-comprensión, también es verdad que necesitamos identificar los límites de nuestras aproximaciones. No hay razón para dudar de que el método científico sea consistente; sin embargo, sí la hay para dudar de que algunas de las preguntas formuladas con relación al fenómeno de la consciencia (con más razón si se amplían a la persona) se puedan responder dentro de ese paradigma. Aun así, no sería justo terminar este libro sin reconocer tanto el mérito de Penrose por hacer accesible el saber físico-matemático, como su esfuerzo por hacer filosofía de la naturaleza y buscar respuestas a las cuestiones últimas. 196 Como afirma Lee Smolin en Penrose, 1996a: 241: «Todas las reflexiones de Roger están conectadas. Las ideas técnicas desarrolladas en su teoría de los operadores de torsión, su pensamiento filosófico, sus ideas acerca de la mecánica cuántica, sus ideas acerca del cerebro y la mente, todas están conectadas». 197 En Penrose, 1999a: 111 se pone en paralelo el triángulo de Penrose con su esquema de los tres mundos
152
para afirmar que no es casualidad que se parezcan tanto. Personalmente tomaría pie de este paralelismo para afirmar que, al igual que el triángulo de Penrose no puede ser real, aunque localmente lo parezca, tampoco su esquema global de los tres mundos es real, aunque los misterios locales sigan existiendo. 198 Por contraste, lo algorítmico o computacional carecería de una radical apertura a la novedad, a lo que no está previsto: solo itiría las novedades consideradas en su programación, sin poder trascender el aspecto local de aquello para lo que ha sido programado.
153
Bibliografía La bibliografía se ha dividido en principal y secundaria. En el primer apartado se contiene la obra ensayística de Roger Penrose, separada en libros y artículos, así como algunas entrevistas o artículos realizados por otros autores y directamente relacionados con su obra. Entre los artículos solo se incluyen aquellas publicaciones que se han citado o que tienen especial relevancia filosófica. De igual modo, en la bibliografía secundaria solo se incluyen las obras citadas o más significativas para una comprensión global. 1. Principal Libros del autor Penrose, R., Shadows of the mind: a search for the missing science of consciousness, Oxford, Oxford University Press, 1994a. — Lo grande, lo pequeño y la mente humana, Madrid, Cambridge University Press, 1999a. Traducción realizada por Javier García Sanz de The large, the small and the human mind, Cambridge, Cambridge University Press, 1997. — La nueva mente del emperador, Barcelona, Grijalbo Mondadori, 1999b. Traducción realizada por Javier García Sanz de The emperor’s new mind: concerning computers, minds, and the laws of physics, Oxford, Oxford University Press, 1989. — El camino a la realidad: una guía completa de las leyes del universo, Barcelona, Debate, 2006, traducción realizada por Javier García Sanz de The Road to Reality: A Complete Guide to the Laws of the Universe, Londres, Jonathan Cape, 2004. — Ciclos del tiempo: una extraordinaria nueva visión del universo, Barcelona, Debate, 2010a, traducción realizada por Javier García Sanz de Cycles of Time: An Extraordinary New View of the Universe, Londres, Bodley Head, 2010. — Roger Penrose: Collected Works, Oxford, Oxford University Press, 2010b, recopilación en seis volúmenes de los artículos publicados por Roger Penrose hasta 2003. Hawking, S. W. y Penrose, R., The Nature of Space and Time, Princeton, Princeton University Press, 2010, edición actualizada del debate entre ambos autores que tuvo lugar en la universidad de Cambridge, en 1994, y que se publicó por primera vez en 1996. Artículos del autor Penrose, R., «A generalized inverse for matrices», Proc. Camb. Phil. Soc., 51, 1955, págs. 406-413. — Tensor methods in algebraic geometry, Cambridge, 1957. — «The apparent shape of a relativistically moving sphere», Proc. Camb. Phil. Soc., 55, 1959, págs. 137-139. — «The role of aesthetics in pure and applied mathematical research», Bull. IMA, 10, 1974, págs. 266-271. — «Singularities and time-asymmetry», en S. W. Hawking y W. Israel (eds.), General relativity an Einstein centenary survey, Cambridge, Cambridge University Press, 1979, págs. 581-638. — «Newton, quantum theory and reality», en S. W. Hawking y W. Israel (eds.), Three hundred years of gravitation, Cambridge, Cambridge University Press, 1987a, págs. 17-49. — «Quantum physics and conscious thought», en B. Hiley y F. D. Peat (eds.), Quantum implications: Essays in honour of David Bohm, Londres, Routledge, 1987b, págs. 105-120. — «Big bangs, black holes and “Time’s Arrow”», The nature of time, Oxford, Blackwell, 1988a, págs. 36-62. — «Fundamental Asymmetry in physics laws. The mathematical heritage of Hermann Weyl (1987)», Proc. Sympos. Pure Math. 48, 1988b, páginas 317-328. — «On the physics and mathematics of thought», The universal Turing machine: A half-century survey, Nueva York, Oxford University Press, 1988c, págs. 491-522. — «Minds, machines and mathematics», en C. Blakemore y S. Greenfield (eds.), Mindwaves, Oxford, Blackwell, 1989, págs. 259-276. — «Précis of the Emperor’s New Mind: Concerning Computers, Minds and the Laws of Physics», Behavioral and Brain Sciences, 13, 4, 1990a, págs. 643-655. — «Author’s response – The nonalgorithmic mind», Behavioral and Brain Sciences, 13, 4, 1990b, págs. 692-705. — «¿Para qué sirve la mente?», Revista de Occidente, 119, 1991, págs. 175-182.
154
— «The modern physicist’s view of nature», en J. Torrance (ed.), The concept of nature: The Herbert Spencer Lectures, Oxford, Clarendon Press, 1992a, págs. 117-166. — «Setting the scene: the claim and the issues», en D. Broadbent (ed.), The simulation of human intelligence (Wolfson College Lectures), Oxford, Blackwell, 1992b, págs. 1-32. — «Mathematical intelligence», What is intelligence?, Cambridge, Cambridge University Press, 1994b, págs. 107-136. — «Must mathematical Physics be reductionist?», en J. Cornwell (ed.), Nature’s imagination, Oxford, Oxford University Press, 1995, págs. 12-26. — «La conciencia incluye ingredientes no computables», en J. Brockman (ed.), La tercera cultura: más allá de la revolución científica, Barcelona, Tusquets, 1996a, págs. 224-241. — «Space-time and cosmology», en G. B. Peterson (ed.), The Tanner lectures on human values, vol. 17, Salt Lake City, University of Utah Press, 1996b, págs. 347-391. — «The need for a non-computational extension of quantum action in the brain», en P. Arhem (ed.), Matter matters? On the material basis of the cognitive activity of mind, Berlin, Springer, 1997a, págs. 11-27. — «On understanding understanding», International Studies in the Philosophy of Science, 11, 1, 1997b, págs. 720. — «Can a computer understand?», en S. Rose (ed.), From brains to consciousness?, Londres, Allen Lane, 1998a, págs. 154-179. — «Lionel Penrose: colleague and father», en S. Povey y M. Press (eds.), Penrose: Pionner in Human Genetics (Report on a symposium held to celebrate the centenary of the birth of Lionel Penrose, held 12th and 13th march 1998), Londres, Center for Human Genetics at University College, 1998b, págs. 4-8. — «Foreword», en J. Stachel (ed.), Einstein’s miraculous year: five papers that changed the face of physics, Princeton, Princeton University Press, 1998c, págs. vii-xiv. — «Por qué se necesita una nueva física para comprender la mente», La biología del futuro: ¿qué es la vida? cincuenta años después, Tusquets, 1999c, págs. 161-180. — «Mathematical Physics of the 20th and 21st Centuries», en Arnold, V., Atiyah, M., Lax, P. D. y Mazur, B. (eds.), Mathematics: Frontiers and perspectives, Providence, American Mathematical Society, 2000a, págs. 219-234. — «Wavefunction collapse as a real gravitational effect», en A. Fokas, T. W. B. Kibble, A. Grigouriou y B. Zegarlinski (eds.), Mathematical physics, Londres, Imperial College Press, 2000b, págs. 266-282. — «Consciousness, the Brain, and Spacetime Geometry: An addendum. Some new developments in the Orch OR model for consciousness», en P. C. Marijuan (ed.), Cajal and consciousness: Scientific approaches to consciousness on the centennial of Ramón y Cajal’s textura, vol. 929, Nueva York, Annals of the NY Academy of Sciences, 2001, págs. 105-110. — «Consciousness, computation, and the Chinese room», en J. Preston y M. Bishop (eds.), Views into the Chinese room: New essays on Searle and artificial intelligence, Oxford, Oxford University Press, 2002a, págs. 226249. — «The rediscovery of gravity. The Einstein equation of General Relativity», en G. Farmelo (ed.), It must be beautiful, Londres, Granta, 2002b, págs. 180-212. — «The problem of spacetime singularities: implications for quantum gravity?», en G. W. Gibbons, E. P. S. Shellard y S. J. Rankin (eds.), The future of theoretical physics and cosmology, Cambridge, Cambridge University Press, 2003a, págs. 51-73. — «The remarkable role of mathematics in the physical universe», en R. O. Wells (ed.), The founding of International University Bremen: Perspectives for the twenty-first century, Bremen, International University Bremen, 2003b, págs. 98-109. Penrose, R. y Penrose, L. S., «A self-reproducing analogue», Nature, 179, 1957, págs. 1183. — «Puzzles for Christmas», New Scientist, diciembre de 1958a, págs. 1580-1581, 1597-1598. — «Impossible objects: A special type of visual illusion», British journal of psychology, 49, 1958b, págs. 31-33. Penrose, R., Whitehead, J. H. C. y Zeeman, E. C., «Imbedding of manifolds in Euclidean space», Annals of Math, 73, 2, 1961, págs. 613-623. Libros y artículos de otros autores Aldiss, B. W. y Penrose, R., White Mars or the mind set free: a 21st century utopia, Nueva York, St. Martin’s Press, 1999.
155
Alfieri, C., «Roger Penrose: «creo en un universo de ciclos sucesivos»», Revista de occidente, 319, 2007, págs. 118-131. Alonso, E., «Mentalismo, mecanicismo: el nuevo argumento de Penrose», Revista de filosofía, 26, 2001, págs. 139-164. Béjar Gallego, M., «Physics, Consciouness and Transcendence: The Physics of Roger Penrose and David Bohm as Regards a Scientific Explanation of the Human Mind Open to Reality», Pensamiento, 64, 2008, págs. 715-739. Eastwood, M. y Penrose, R., «Drawing with Complex Numbers», Mathematical intelligencer, 22, 4, 2000, págs. 8-13. Feferman, S., «Penrose’s Gödelian argument», Psyche, 2, 1995, págs. 249-256. García Prada, O., «Interview with Sir Roger Penrose. Part 1», EMS, diciembre de 2000, págs. 17-21. — «Interview with Sir Roger Penrose. Part 2», EMS, marzo de 2001, páginas 12-17. Gherab-Martín, K., «La relación entre determinismo y libertad en la filosofía natural de Roger Penrose», en F. Rodríguez Valls, C. Diosdado y J. Arana (eds.), Asalto a lo mental: neurociencias, consciencia y libertad, Madrid, Biblioteca Nueva, 2011, págs. 81-88. Gurzadyan, V. G. y Penrose, R., «Concentric circles in WMAP data may provide evidence of violent pre-BigBang activity», 2010, http://arxiv.org/abs/1011.3706 (submitted on 16/11/2010). — «CCC-predicted low-variance circles in CMB sky and LCDM», 2011, http://arxiv.org/abs/1104.5675 (submitted on 29/4/2011). Hameroff, S. y Penrose, R., «What ‘gaps’? Reply to Grush and Churchland», J. Consc. Stud., 2, 1995, págs. 98111. — «Conscious events as orchestrated space-time selections», J. Consc. Stud., 3, 1996a, págs. 36-53. — «Orchestrated Reduction of quantum coherence in brain microtubules: a model for consciousness?», en S. R. Hameroff, A. W. Kaszniak y A. C. Scott, (eds.), Toward a science of consciousness: The first Tucson discussions and debates, Cambridge, MIT Press, 1996b, págs. 507-540. — «How quantum brain biology can rescue conscious free will», Frontiers in integrative neuroscience, 6, 93, 2012, págs. 1-17. Hawking, S. W. y Penrose, R., Cuestiones cuánticas y cosmológicas, Madrid, Alianza, 1993. Huggett, S. A., The geometric universe: science, geometry, and the work of Roger Penrose, Oxford, Oxford University Press, 1998. Kruglinski, S., «The discover Interview: Roger Penrose», Discover, 30, 8, 2009, págs. 54-57. Kumar, M., «Cycles of Time: An Extraordinary New View of the Universe by Roger Penrose – review», The Guardian, Saturday, 16 de octubre de 2010. Lindström, P., «Penrose’s New Argument», Journal of Philosophical Logic, 30, 3, 2001, págs. 241-250. — «Remarks on Penrose’s «New Argument»», Journal of Philosophical Logic, 35, 3, 2006, págs. 231-237. Maldonado, C. E., «El programa de Roger Penrose contra el dualismo», Universitas Philosophica, 31, 1998, págs. 31-54. McKemmish, L., «Penrose-Hameroff orchestrated objective-reduction proposal for human consciousness is not biologically feasible», Phys. Rev. E 80, 2, 2009, http://link.aps.org/ doi/10.1103/PhysRevE.80.021912. Monserrat, J., «Penrose y la mente computacional», Pensamiento: Revista de investigación e Información filosófica, 55, 1999, págs. 177-216. Pascual, R., «Los sentimientos de un ordenador: sobre «The Emperor’s New Mind», de Roger Penrose», Saber leer, 45, 1991, págs. 8-9. — «Entender la inteligencia: sobre «Shadows of the mind», de Roger Penrose», Saber leer, 87, 1995, págs. 10-11. Rowe, D. E., «ing an Era: Roger Penrose’s paper on “Gravitational collapse: the role of general relativity”», Mathematical intelligencer, 30, 1, 2008, págs. 27-36. Sánchez Cañizares, J., «Reseñas. El camino a la realidad: Una guía completa de las leyes del universo», Anuario filosófico, 41, 2, 2008, págs. 501-504. — «Reseñas. Cycles of time», Anuario filosófico, 44, 2, 2011, págs. 416-418. Sánchez Ron, J. M., «El mundo de Roger Penrose», Claves de razón práctica, 17, 1991, págs. 58-63. — «Roger Penrose», Claves de razón práctica, 29, 1993 págs. 48-55. Shapiro, S., «Mechanism, Truth, and Penrose’s New Argument», Journal of Philosophical Logic, 32, 1, 2003, págs. 19-42. Valentini, A., «Book reviews. The Geometric Universe: Science, Geometry, and the Work of Roger Penrose», Studies in history and philosophy of modern physics, 33, 1, 2002, págs. 131-135.
156
2. Secundaria Aertsen, J., La filosofía medieval y los trascendentales: un estudio sobre Tomás de Aquino, Pamplona, Eunsa, 2003. Albright, J. R., «Cosmology: what one needs to know», Zygon, 35, 1, 2000, págs. 173-180. Arana, J., «Naturaleza y razón: ciencia natural y filosofía de la naturaleza», Thémata, 5, 1988, págs. 9-31. — «¿Es idealista la Interpretación de Copenhague de la mecánica Cuántica?», Ontology Studies, 1, 2000, págs. 185-202. — Materia, universo, vida, Madrid, Tecnos, 2001. — Los sótanos del universo: la determinación natural y sus mecanismos ocultos, Madrid, Biblioteca Nueva, 2012. Artigas, M., Filosofía de la ciencia experimental: la objetividad y la verdad en las ciencias, 3.ª ed., Pamplona, Eunsa, 1999a. — La mente del universo, Pamplona, Eunsa, 1999b. — «Finalità», en G. Tanzella-Nitti y A. Strumia (eds.), Dizionario Interdisciplinare di Scienza e Fede, Roma, Città Nuova, 2002, págs. 652-664. — Filosofía de la naturaleza, 5.ª ed., Pamplona, Eunsa, 2008. Bacciagaluppi, G., «The Role of Decoherence in Quantum Mechanics», en E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy, invierno de 2012. Barker-Plummer, D., «Turing Machines», en E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy, otoño de 2012. Barrow, J. D. y Tipler, F. J., The anthropic cosmological principle, Oxford, Oxford University Press, 1989. Benacerraf, P. y Putnam, H., Philosophy of mathematics: selected readings, Oxford, Blackwell, 1964. Berg, J. M., «Lionel Sharples Penrose (1898-1972): aspects of the man and his works, with particular to his undertakings in the fields of intellectual disability and mental disorder», Journal of intellectual disability research, 42, 2, 1998, págs. 104-111. Berto, F., There’s something about Gödel!: the complete guide to the incompleteness theorem, Malden Massachusetts, Wiley-Blackwell, 2009. Bishop, R., «Chaos», en E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy, otoño de 2009. Caba, A., «Aspectos metodológicos del naturalismo matemático. La aproximación conjuntista de Maddy», Contrastes, 4, 2000, págs. 5-23. Čapek, M., El impacto filosófico de la física contemporánea, Madrid, Tecnos, 1973. Chalmers, D. J., The conscious mind: in search of a fundamental theory, Oxford, Oxford University Press, 1997. Cole, D., «The Chinese Room Argument», en E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy, invierno de 2009. Corcó Juviña, J., Novedades en el universo: la cosmovisión emergentista de Karl R. Popper, Pamplona, Eunsa, 1995. Cruz, J., «Filosofar hoy. Entrevista con Leonardo Polo», Anuario Filosófico, 25, 1992, págs. 27-51. Davies, P. C. W., The mind of god: science and the search for ultimate meaning, Londres, Simon & Schuster, 1992. Del Ponte, M., Realismo y entidades abstractas. Los problemas del conocimiento en matemáticas, La Laguna, Universidad de La Laguna, 2006. Diéguez Lucena, A., Filosofía de la ciencia, Madrid, Biblioteca nueva, 2005. Eagle, A., «Chance versus Randomness», en E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy, primavera de 2012. Feynman, R. P., QED: the strange theory of light and matter, Princeton, Princeton University Press, 1985. Gaifman, H., «What Gödel’s Incompleteness Result Does and Does Not Show», The journal of philosophy, 97, 8, 2000, págs. 462-470. Ghirardi, G. C., Grassi, R. y Rimini, A., «Continuous-spontaneous-reduction model involving gravity», Phys. Rev. A, 42, 3, 1990, págs. 1057-1064. Ghirardi, G. C., Rimini, A. y Weber, T., «Unified dynamics for microscopic and macroscopic systems», Phys. Rev. D, 34, 2, 1986, págs. 470-491. Gödel, K., «What is Cantor’s Continuum Problem?», The American Mathematical Monthly, 54, 9, 1947, págs. 515-525. Harris, H., «Lionel Sharples Penrose (1898-1972)», Journal of medical genetics, 11, 1, 1974, págs. 1-24. Hartvig, P. y Kjelsberg, E., «Penrose’s Law revisited: The relationship between mental institution beds, prison population and crime rate», Nordic journal of psychiatry, 63, 1, 2009, págs. 51-56.
157
Heller, M., Creative tension: essays on science and religion, Filadelfia, Templeton Foundation Press, 2003. Hod, S., «Return of the quantum cosmic censor», Physics letters B, 668, 4, 2008, págs. 346-349. Hofstadter, D. R., Yo soy un extraño bucle, Barcelona, Tusquets, 2008. Horsten, L., «Philosophy of Mathematics», en E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy, otoño de 2008. Iemhoff, R., «Intuitionism in the Philosophy of Mathematics», en E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy, otoño de 2012. Kauffman, S., «Autonomous Agents», en J. D. Barrow, P. C. W. Davies y C. L. Harper (eds.), Science and Ultimate Reality: Quantum Theory, Cosmology, and Complexity, Cambridge, Cambridge University Press, 2004, págs. 654-666. Lapiedra, R., Las carencias de la realidad: la conciencia, el universo y la mecánica cuántica, Barcelona, Tusquets, 2008. Laxova, R., «Lionel Sharples Penrose, 1898-1972: A personal memoir in celebration of the centenary of his birth», Genetics, 150, 4, 1998, páginas 1333-1340. Lindner, I., «A Special Case of Penrose’s Limit Theorem When Abstention is Allowed», Theory and Decision, 64, 4, 2008, págs. 495-518. Linnebo, Ø., «Platonism in the Philosophy of Mathematics», en E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy, otoño de 2011. Livi, A., Crítica del sentido común, Alcalá, Rialp, 1995. Lombo, J. Á. y Russo, F., Antropologia filosofica: una introduzione, Roma, Edusc, 2005. Maddy, P., Second philosophy: a naturalistic method, Oxford, Oxford University Press, 2007. — Defending the axioms: on the philosophical foundations of set theory, Oxford, Oxford University Press, 2011. McMullin, E., «Contingencia evolutiva y finalidad del cosmos», Scripta theologica, 30, 1, 1998, págs. 227-251. Miller, L., Roland Penrose, Lee Miller: the surrealist and the photographer, Edinburgh, National Galleries of Scotland, 2001. Monserrat, J., «John Polkinghorne, ciencia y religión desde la física teórica», Pensamiento: Revista de investigacion e información filosófica, 61, 231, 2005, págs. 363-393. Moore, M., «Naturalism, Truth and Beauty in Mathematics», Philosophia mathematica, 15, 3, 2007, págs. 141165. Mosterín, J. y Torretti, R., Diccionario de lógica y filosofía de la ciencia, Madrid, Alianza, 2010. Nemiroff, R. J., Connolly, R., Holmes, J. y Kostinski, A. B., «Bounds on spectral dispersion from fermi-detected gamma ray bursts», Phys.rev.lett., 108, 23, 2012. Oppy, G. y Dowe, D., «The Turing Test», en E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy, primavera de 2011. Ortiz de Landázuri, C., «El infinito cuántico y relativista: Hacia una revisión de Plank y Einstein después de Bell (A través de Heisenberg, De Fineti, Ulam y Neumann, Chandrasekhar, Hawkings y Penrose)», Ontology Studies, 10, 2010, págs. 101-114. Paseau, A., «Naturalism in the Philosophy of Mathematics», en E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy, otoño de 2010. Polkinghorne, J. C., Quarks, chaos & Christianity: questions to science and religion, Nueva York, Crossroad, 2005. — Quantum physics and theology: an unexpected kinship, New Haven, Yale University Press, 2007. Riaza, E. y Sols, F., La historia del comienzo: Georges Lemaître, padre del big bang, Madrid, Encuentro, 2010. Roland, J., «Maddy and Mathematics: Naturalism or Not», British Journal for the Philosophy of Science, 58, 3, 2007, págs. 423-450. Rosenblum, B. y Kuttner, F., El enigma cuántico: encuentros entre la física y la conciencia, Barcelona, Tusquets, 2010. Ruse, M., Science and spirituality: making room for faith in the age of science, Cambridge, Cambridge University Press, 2010. Russell, B., ABC of relativity, Londres, Routledge, 2009. Schrödinger, E., What is life?, Londres, Folio Society, 2000. — La nueva mecánica ondulatoria y otros escritos, Madrid, Biblioteca Nueva, 2001. Searle, J. R., «Minds, brains, and programs», Behavioral and Brain Sciences, 3, 3, 1980, págs. 417-457. Shapiro, S., Thinking about mathematics: the Philosophy of Mathematics, Oxford, Oxford University Press, 2000. Silva, I., Divine action in nature. Thomas Aquinas and the contemporary debate, Tesis doctoral, Universidad de Oxford, 2009.
158
Smith, M., Lionel Sharples Penrose: a biography, Londres, M. Smith, 1999. Smith, P., An introduction to Gödel’s Theorems, Cambridge, Cambridge University Press, 2007. Smullyan, R. M., Gödel’s incompletness theorems, Nueva York, Oxford University Press, 1992. Steinhardt, P., «New perspectives on forbidden symmetries, quasicrystals, and Penrose’s tilings», Proceedings of the National Academy of Sciences, 93, 25, 1996, págs. 14267-14270. Thorne, K. S., Agujeros negros y tiempo curvo: el escandaloso legado de Einstein, Barcelona, Grijalbo Mondadori, 1995. Vargas, C., «Implicaciones filosóficas del abandono del concepto de “masa relativística”», Rev. Filosofía Univ. Costa Rica, 47, 122, 2009, págs. 81-86. Watt, D., «Lionel Penrose, F. R. S. (1898-1972) and Eugenics. Part One», Notes and Records of the Royal Society, 52, 1, 1998a, págs. 137-151. — «Lionel Penrose, F.R.S. (1898-1972) and Eugenics. Part Two», Notes and Records of the Royal Society, 52, 2, 1998b, págs. 339-354. Weinberg, S., Los tres primeros minutos del universo: una concepción moderna del origen del universo, Madrid, Alianza, 1999. Weir, A., «Formalism in the Philosophy of Mathematics», en E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy, otoño de 2011. Witten, E., «Perturbative gauge theory as a string theory in twistor space», Commun. Math. Phys., 252, 2004, págs. 189-258.
159
Índice Índice Presentación Introducción Capítulo I ¿Quién es Roger Penrose?
6 8 9 14 14
1. Retrato de familia 2. La herencia de un padre 3. Pasión por las matemáticas 4. Unos años intensos 5. Maduración de una vida 6. Compartir el saber
14 15 17 18 22 23
Capítulo II Bases filosóficas
28 28
1. El método científico 1.1. ¿Es posible conocer? 1.2. ¿Qué es conocer la realidad? 1.3. Sentido común y apertura a la filosofía 1.4. Los límites 2. Las matemáticas 2.1. Formalismo y realismo 2.2. Intuición matemática 3. Una realidad dinámica 3.1. Matemáticas y realidad física 3.2. Selección natural y principio antrópico
Capítulo III Fundamentos físicos
29 30 32 34 39 40 40 44 45 46 47
55 55
1. Teorías de la relatividad 1.1. Antecedentes 1.1.1. La relatividad galileana 1.1.2. El principio de equivalencia 1.1.3. La velocidad de la luz 1.2. Conos de luz y paradoja de los gemelos 160
56 56 56 57 58 58
1.3. Relatividad especial y relatividad general 1.4. Singularidades en el espaciotiempo 2. Teoría estándar de la física cuántica 2.1. Dualidad onda-corpúsculo 2.2. El proceso de medida 2.3. Entrelazamiento cuántico y efectos EPR 2.4. Relatividad y cuántica 2.5. Interacciones débil y fuerte 2.6. Soluciones de tipo «infinito» 3. Termodinámica y asimetría temporal 3.1. Entropía en general 3.2. ... y en particular 3.2.1. Entropía en el big bang 3.2.2. Entropía en los agujeros negros 3.2.3. La baja entropía de los seres vivos 3.3. El modelo estándar de cosmología
Capítulo IV El origen del problema
61 62 63 64 66 67 70 72 74 76 76 78 78 79 81 82
90 90
1. El estatuto de las matemáticas 1.1. Tipos de realismo matemático 1.2. Una alternativa al realismo de Penrose 2. Computación y consciencia 2.1. Cuatro perspectivas y tres argumentos 2.1.1. El argumento de John Searle 2.1.2. El argumento de David Chalmers 2.1.3. El argumento «científico» 2.2. ¿Qué es y qué no es computación? 2.2.1. Top-down y bottom-up 2.2.2. Caos y computación analógica 2.2.3. Aleatoriedad 3. No-computabilidad en el pensamiento matemático 3.1. Gödel, Hilbert y Turing 3.2. El nuevo argumento de Penrose 3.3. Alcance del argumento 3.4. Conclusiones 161
91 92 94 96 96 98 99 99 100 101 102 103 103 104 105 107 108
3.5. Necesidad de un elemento no-algorítmico
Capítulo V Un intento de respuesta
111
116 116
1. Hacia la gravitación cuántica 1.1. Condiciones de contorno 1.1.1. En los agujeros negros 1.1.2. En la singularidad inicial 1.2. Determinismo y probabilismo 1.2.1. Formalismo 1.2.2. Ontología 1.3. Gravedad, cuántica y asimetría temporal 1.4. Elementos no algorítmicos 2. El fenómeno de la consciencia 3. Hacia la base física de la consciencia 4. Dificultades de la propuesta
Conclusiones Bibliografía
116 118 118 119 121 121 123 125 128 130 134 139
144 154
162