Ads-728

Ads-728

Psicología

Astrofísica

Genética

Neurociencia

» » » » El problema metafísico de la consciencia. Por qué no somos máquinas

por Juan Antonio Negrete, 15 de enero de 2013

El problema metafísico de la consciencia. 
Por qué no somos máquinas, y por qué somos seres sobrenaturales

La Libertad, es decir, el hecho de que nuestros actos (no nuestros movimientos, que son su aspecto o correlato material, como el plástico del CD o la partitura lo son de la música) están causados por nuestras deliberaciones acerca de lo correcto y lo deseable, es irreducible a naturaleza físico-mecánica, es además imprescindible para explicar no solo aspectos esenciales de nuestra realidad sino también la propia actividad filosófica que consiste en negarla, y no es ni puede ser incompatible con nuestras hipótesis científico-naturales si no se malentienden estas o la propia libertad. No hay razones para la “esperanza” de que se la pueda echar al saco de las entidades ilusorias como se hizo con la generación espontánea. Más en general, cualquier actividad mental que implique, al menos, la racionalidad o alguna forma de normatividad o validez, de universalidad y necesidad (o sea, toda actividad, bien entendida), es intrínsecamente irreducible a meros hechos naturales mecánicos. El caso paradigmático es, quizás, la actividad más puramente teórica, la matemática por ejemplo: la matemática no puede describirse como un cúmulo de hechos neuronales.

O, dirá Penrose, sería inteligible como una actividad cerebral solo si podemos llegar a comprender a esta de una manera muy distinta a la forma en la que la entendemos hasta ahora. Voy en esta entrada a recordar y comentar el argumento que este gran matemático y buen filósofo “platónico” ofrece, sobre todo en la primera parte de "Las sombras de la mente" (Crítica, Barcelona, 2007 –el original es de 1994-), para rechazar cierta forma típica de reduccionismo que podemos llamar “funcionalismo”, o “Inteligencia Artificial fuerte”, y que es una versión moderna del mecanicismo aplicado a lo mental (del homme machine).

Acerca de la naturaleza de la mente (o, más bien, como él señala, de la consciencia y la inteligencia, en el sentido de “conocimiento” y capacidad de “comprender”) Penrose rechaza tanto la tesis de la Inteligencia Artificial fuerte (I. A.), según la cual la consciencia es el aspecto funcional del cerebro, siendo este una máquina (una entidad enteramente computacional y computable, o algorítmica) y, por tanto, replicable en principio mediante un ordenador; como la posición de la Inteligencia Artificial débil (representada sobre todo por J. Searle), según la cual, aunque todo lo que hace un ser inteligente podría simularse mediante una máquina, esa simulación no conllevaría necesariamente la conciencia, pues una máquina puede ser completamente inconsciente de lo que “hace” cuando “simula” a un ser inteligente; como el “misticismo” (la postura filosófica de Gödel), según el cual la mente es intrínsecamente inasequible para la ciencia porque no es algorítmica.

Contra la posición de Searle, Penrose argumenta (correctamente, a mi juicio) que es una posición poco o nada contrastable. Al fin y al cabo, la única mente que podemos observar es la nuestra propia. Y, si podemos inferir por analogía con nuestra conducta la existencia de mente asociada a los cuerpos de otras personas, ¿por qué no inferirla para todos los cuerpos que se comporten indistinguiblemente igual (en lo esencial) que yo? (Luego veremos que esto no es tan claro y que la postura de Searle no es tan débil como parece, aunque por razones distintas a las que maneja él).

Contra el “misticismo”, Penrose piensa que es preferible apostar por que la ciencia pueda llegar a explicar las “sombras de la mente” aunque para ello haya que “estirar” algo la noción de ciencia, porque fuera de la ciencia no hay nada prometedor. Diré algo sobre esto, más abajo.

Pero la posición contra la que Penrose está más interesado en luchar, tanto por ser la más relevante y contrastable, como por ser quizás la más seductora para un espíritu científico medio, es la teoría reduccionista mecanicista de la I. A. La línea general del argumento principal (y en cierto modo único) de Penrose contra ese mecanicismo moderno, aplicado a la consciencia, es la siguiente:

a) Los teoremas de tipo Gödel-Turing prueban que un sistema formal suficientemente complejo como para contener la serie infinita más simple (la de los números naturales) no es computable, y, por tanto, la matemática no es reducible a un algoritmo.

b) Ahora bien, nosotros somos capaces de entender esas proposiciones que no se pueden reducir a un algoritmo (por ejemplo, entendemos los números naturales y que son una serie infinita);

c) Todas las teorías físicas que conocemos, y cuantas sean cualitativamente similares, son computables (salvo en que incluyen reductos al parecer intrínsecamente aleatorios, lo que no supone, sin embargo, ninguna esperanza para comprender la racionalidad matemática –como no lo suponía para salvar la libertad-)

luego…

¿Luego qué? ¿Qué se deduce de aquí?

Gödel mismo deducía que nuestra inteligencia no puede ser una entidad natural o física, sino que es esencialmente irreducible al cerebro, es decir, a una máquina computacional (puesto que Gödel pensaba que la ciencia natural es y será siempre algorítmica, y no puede ser de otro modo). A esto, decía, Penrose lo califica de misticismo, y le parece una solución desesperada.

Turing, en cambio, dando por evidente que la mente no puede existir  independientemente del cerebro (lo que Gödel calificaba como “prejuicio de nuestra época”), pero aceptando, como Gödel, que la naturaleza y con ella toda ciencia natural es algorítmica, se veía abocado a sostener que el proceso por el que entendemos proposiciones matemáticas verdaderas no computables, tiene que ser un proceso él mismo computable (un proceso en el cerebro) que, por tanto, no es aquel mediante el que creemos que comprendemos la matemática, sino que es para nosotros inconsciente. Penrose considera esta opción más implausible si cabe que el misticismo, y hasta inconsistente. Dedica toda la primera parte del libro a argumentarlo.

Su propia posición es que la mente debe ser asequible a la ciencia y que, de hecho, está estrechamente relacionada con el cerebro, pero que este tiene que poder ser descrito mediante una teoría no-computacional, pues la consciencia no es reducible a algoritmo. Este asunto lo aborda en la parte constructiva y física del libro, la segunda. Aquí me fijaré en la primera, en la argumentación contra el carácter algorítmico de la inteligencia.

Recordémosla otra vez, antes de discutir el contraargumento principal. Penrose da por sentada la corrección de los teoremas tipo Gödel-Turing (que expone, por cierto, en una versión bastante comprensible). Esos teoremas demuestran que, así como los números reales (según probó Cantor mediante el método de diagonalización) tienen una cardinalidad mayor a la de los naturales (transfinita), así, y por un argumento análogo, resulta que las proposiciones matemáticas más simples y obvias para cualquier ser inteligente (como que hay números naturales, y en una cantidad infinita) no se pueden reducir a un proceso algorítmico o computable. Dado que las teorías científicas actuales, incluidas las (mal)llamadas teorías del caos, son todas computables (salvo en aquellos puntos en que son aleatorias), no es posible que la inteligencia sea algorítmica o computable. Esto debería desmontar las pretensiones de quienes piensan que la inteligencia puede ser descrita como una máquina (por ejemplo, estudiando el cerebro más exhaustivamente pero con las herramientas conceptuales –algorítmicas- que ya conocemos). También parece hacer imposible la pretensión de construir máquinas inteligentes, es decir, capaces de comprender realmente la matemática, ya que la manera de construir esas máquinas sería implementar en ellas algún algoritmo (“de arriba-abajo”) que las capacitase para comprender la matemática (incluidas las verdades no-computables) como podemos comprenderlas nosotros, y eso es una contradicción, pues tal algoritmo no existe.

Penrose se entrega durante unas páginas a contestar a posibles réplicas menores a este argumento, unas más interesantes que otras, y las soluciona correctamente, a mi parecer. Pero el principal contraargumento general de los defensores del carácter computacional de inteligencia, y al que Penrose dedica el mayor espacio de la primera parte del libro, es el siguiente (ya mencionado como la posición de Turing):

"[...] es posible que la forma en que nosotros comprendemos la matemática (incluidas las proposiciones matemáticas no computables) sea, de todos modos, mediante un algoritmo finito del que no somos conscientes, pero que es el algoritmo con el que funciona nuestro cerebro, y que podríamos quizás incluso descubrir empíricamente."

Según Penrose esto es altamente implausible, si no inconsistente. Suponiendo que fuera posible, tendríamos al menos lo siguiente:

Lo primero, y muy chocante o paradójico, es que resultaría que los matemáticos no creen lo que creen por lo que ellos creen que lo creen (por la cadena de axiomas, teoremas, etc., que se representan conscientemente) sino por un proceso inconsciente (¿freudianoide?). Es decir, literalmente no sabemos lo que estamos “haciendo” cuando hacemos matemáticas (o pensando en general). Lo que creemos hacer (al seguir cadenas de razonamientos, o aceptar axiomas intuitivamente, o, sencillamente, entender que todo número natural tiene un posterior) sería solo un epifenómeno de la verdadera “razón” (¿o “causa”?)  por la que creemos lo que creemos. Parece muy paradójico que la más pura e inteligente de las ciencias, se lleve a cabo mediante un procedimiento del que el matemático no es consciente (y que incluso es inconsistente con él). Los matemáticos no creen estar operando así, sino de una manera muy consciente. Resultaría que la propia consciencia es un epifenómeno (como quieren los filósofos de la sospecha). Pero, ¿podría ser cierto eso?

Ese algoritmo inconsciente “por medio del cual” el cerebro del matemático “comprendería” los teoremas que el matemático cree verdaderos, debería, si no quiere entrar en contradicción con el resultado de Gödel, ser un algoritmo, además, completamente incognoscible para siempre y por principio (si es que eso tiene sentido), al menos si era un algoritmo correcto, es decir, adecuado (lógico-matemáticamente) para concluir en la creencia en la que concluye. Porque si fuese un algoritmo cognoscible y correcto, entonces haría falsa la conclusión de Gödel de que no hay un procedimiento matemático finito para comprender los números naturales.

¿Podría, aquel algoritmo inconsciente “por el que” “comprendemos” la matemática, ser acaso un algoritmo incorrecto o inválido? En ese caso no estaría sujeto a la imposibilidad de Gödel (pues la prueba de Gödel solo dice que no existe un procedimiento computable correcto para la matemática) pero estaría sujeto a algo peor: si el procedimiento por el que el cerebro alcanza las verdades matemáticas no necesita ser correcto, entonces no puede, lógicamente (epistémicamente), discriminar la verdad del error. “Verdad” y “error” serían epifenómenos que, al nivel del algoritmo del cerebro carecerían de sentido. Pero ¿tiene sentido una concepción científica para la cual, correcto e incorrecto, verdadero y falso, son meros epifenómenos o ficciones a las que les subyace una “operación” no evaluable como correcta?

De ser posible, pues, el algoritmo “con el que” “alcanzamos” “verdades” matemáticas, debería ser o intrínsecamente incognoscible o no-correcto. A lo sumo, la conjetura de que existe un algoritmo válido por el que llegamos a “comprender” lo que prohíbe Gödel, sería una conjetura intrínsecamente indemostrable, si es que no es directamente inconsistente. ¿Es aceptable la conjetura de que existe un algoritmo intrínsecamente incognoscible, que nos conduce a “comprender” teoremas? Incluso si eso fuese admisible, la tesis computacional de la inteligencia perdería todo su atractivo: nunca podríamos encontrar el algoritmo por el que funciona. Y ya no sería posible nunca fabricar un robot inteligente instalándole el algoritmo de nuestra inteligencia.

¿Qué explicación proveería, entonces, la ciencia acerca de la inteligencia? ¿Cómo podría haberse originado esta? No de manera natural (de acuerdo, por ejemplo, con las teorías biológicas: evolucionismo, etc.) Toda la teoría evolutiva, como toda teoría biológica, química, o física, es computacional. Los reductos de aleatoriedad de la mecánica cuántica tampoco son una salida para explicar algo, salvo mandándolo a la oscuridad. No importa, tampoco, cuán complejo o cuán “caótico” (es decir, sensible a condiciones iniciales) nos imaginemos el entorno. Si la mente es explicable computacionalmente, tiene que serlo desde su origen. El origen de la mente, como un algoritmo incognoscible por la ciencia, sería algo así como un milagro, como el origen divino. Toda descripción computacional cognoscible violaría la conclusión de Gödel. Y si, para escapar a esto, estuviésemos dispuestos a aceptar algo no algorítmico en el entorno, ¿por qué no aceptarlo en el propio cerebro?

“Pero, se dirá, ¿es que no podemos, entonces, fabricar robots que simulen perfectamente nuestra conducta inteligente? Eso parece inaceptable, viendo que cada vez hay más máquinas que simulan perfectamente y hasta superan lo que consideramos habilidades propias de la inteligencia”. Aquí hay un malentendido fundamental (o uno de los aspectos del malentendido fundamental). Sí, podemos y podremos fabricar robots que simulen con cualquier grado de precisión las habilidades inteligentes, pero eso es porque nosotros sabemos ya, ¡y no computacionalmente, según el teorema de Gödel!, qué proposiciones matemáticas son verdaderas o no y qué operaciones son correctas o no: es decir, somos nosotros quienes determinamos, de manera intuitiva, propiamente matemática, que esas proposiciones y operaciones son verdaderas o correctas. El robot no puede hacerlo: simplemente nos repite o simula, como un loro. Nosotros se las hemos transferido. Si hubiésemos fabricado un robot que “descubre” y “demuestra” teoremas matemáticos falsos, el algoritmo con el que lo fabricaríamos sería del mismo tipo que el algoritmo con el que fabricamos robots que encuentran la verdad. Sencillamente, ese algoritmo lo que hace es reproducir lo que nosotros sabemos, independientemente, que es verdadero.

Supongamos que fabricamos, con un algoritmo como el que podría describir el funcionamiento de nuestro cerebro, un robot capaz de ir incluso más allá de nosotros y comprender no solo esos teoremas que ya conocemos, sino otros prácticamente inasequibles para nosotros. Ese robot comprendería la prueba de Gödel de que no hay un algoritmo para llegar a verdades matemáticas tan simples como que hay infinitos números naturales. Por tanto, debería deducir que él no comprende mediante un algoritmo así. Sin embargo, la forma en que le hemos fabricado es mediante un algoritmo. Si él pudiera llegar a conocer el algoritmo con el que le hemos construido, haría falsa la prueba de Gödel, a no ser que ese algoritmo con el que le hemos fabricado no fuese “correcto”, es decir, que no fuese una justificación lógica de las conclusiones a las que llega el robots como creencias. Así pues, o bien el robot no comprende mediante el algoritmo con que le hemos fabricado (es decir, que no hemos fabricado su inteligencia, pues ni nosotros sabríamos computarla), o bien no comprende en absoluto.

Penrose se hace cargo de la sospecha que puede quedarnos acerca de si no estaremos abusando de la autorreferencia en esta argumentación. Porque el argumento de Penrose se parece al de la paradoja de Richard: “el número que no se puede definir con menos de veinticuatro sílabas” se puede definir con las veintitrés sílabas de la frase anterior. Obviamente, se trata de falta de rigor en la definición. Como dice Penrose, su argumento no implica más autorreferencia que la que implica el teorema de Gödel, al que se considera libre de un uso incorrecto de ella.

                                                         ****
Creo que la argumentación de Penrose prueba con gran claridad que la inteligencia no es mecánica, al menos si: a) definimos máquina mediante los conceptos de computabilidad y similares, b) aceptamos la corrección del teorema de Gödel y c) aceptamos que existen en matemáticas comprensiones como la de que los números naturales tienen una cardinalidad infinita. Penrose “solo” pretende y consigue demostrar que, si se quiere explicar de alguna manera desde la ciencia natural el fenómeno de la mente y la comprensión de las matemáticas, entonces la ciencia como la conocemos es radicalmente insuficiente. La glándula pineal tiene que ser no-mecánica, no-algorítmica… No creo en las glándulas pineales, por muy cuánticas que sean, pero cada vez me doy más cuenta (o eso creo) de que reírse de la glándula pineal es no haber entendido bien ni el problema al que pretende ofrecer una solución ni el carácter de la solución. Aunque también creo que confiar en que alguna glándula pineal salvará la distancia entre consciencia y naturaleza es no ser plenamente consciente de la radical heterogeneidad de ambos “mundos”.

Ninguna ciencia físico-química “explicará” ni reducirá nunca el carácter sobrenatural de la consciencia. La matemática solo se explica desde la matemática, y la ética desde la ética. Y me extraña que el propio Penrose no vea en su propia argumentación la razón: ningún cúmulo de fenómenos podrá suplir la normatividad. Porque, más allá de lo que Penrose pretenda, su argumento delata una vez más la falacia propia de todo reduccionismo “hacia abajo” (naturalista, mecanicista…), de sustituir un ámbito intencional-normativo que tiene sus criterios intrínsecos e irreducibles de validez, por una descripción fáctica de lo que ocurre simultáneamente en el soporte material de la consciencia que comprende.

Penrose se extraña, con toda la razón, de que se pueda llamar comprensión y conocimiento a algo semejante a lo que “hace” (más bien, le pasa) al algoritmo con que pondríamos, conjeturalmente, describir el funcionamiento del cerebro. Aquí se está jugando con términos como “creer”, “comprender”, “demostrar”, “concluir”… Se está sustituyendo su verdadera naturaleza epistémica (que es el único ámbito donde tienen sentido porque es un ámbito de normatividad o validez, que permite discriminar entre correcto e incorrecto), por el correlato fáctico de lo que ocurre en la naturaleza. No es verdad que estemos “comprendiendo” “verdades” “mediante” el algoritmo con el que se describe el cerebro. El cerebro no comprende, ni intuye, ni deduce, ni prueba nada. Todo eso lo hace la consciencia, y esos conceptos sólo tienen sentido en ella. En lo fáctico no hay más que una materialización o correlato material de la conciencia, y esto solo somos capaces de apreciarlo porque conocemos autónomamente lo normativo.

Penrose dice que podemos y seguramente debemos estirar un poco la ciencia, para que quepa en ella el problema de la mente. Pero si queremos seguir entendiendo por ciencia algo que, de alguna manera tiene que poderse contrastar empíricamente, entonces toda tesis científica tiene que ser de alguna manera conmensurable con entidades espacio-temporales. Ahora bien, ningún hecho espacio-temporal ni cúmulo de ellos puede soportar algo tan simple como el infinito de los números naturales. Por tanto, la consciencia es intrínsecamente inasequible a la ciencia, si entendemos por esta algo contrastable empírico-naturalmente.

Preguntémonos: ¿es contrastable empíricamente lo que dicen tanto la teoría de la Inteligencia Artificial fuerte como Penrose? No lo es, en ninguna de las dos teorías. Ni la teoría de que se puede fabricar inteligencia artificial ni la que dice lo contrario, son contrastables, sencillamente porque la consciencia no es empíricamente contrastable. La fabricación de una máquina que imitase perfectamente todos nuestros actos no probaría lo más mínimo que entiende, sino simplemente, como decía, que copia aquellos actos que nosotros sabemos independientemente que son correctos y le hemos trasmitido. Paralelamente, aunque el día de mañana se desarrollase una teoría física no-computacional, como sueña Penrose, esto no resolvería el problema de la consciencia en ningún sentido. Simplemente haría más inteligiblemente compatible la consciencia con el cerebro, pues ambos podrían ser considerados ámbitos no-algorítmicos, pero las microentidades físicas que aquella ciencia física futura postulase, no podrían explicar ni soportar el “hecho” de la normatividad.

Se ha dicho siempre que en lo natural no hay valores. Eso es cierto: no están allí más que en forma de copia ya no axiológica. Pero “correcto” e “incorrecto” en su sentido y uso teórico son también valores, son axiología, la axiología del conocimiento: tienen un papel normativo y trascendental (si no trascendente) y no pueden encontrarse en lo fáctico, al que sin embargo hacen posible e inteligible. Otra manera de expresar esto es diciendo, con Platón (y con Gödel), que si comprendemos lo infinito (pero “comprender lo infinito” es un pleonasmo), si comprendemos lo infinito, entonces no somos naturales.


- Imagen: Consciencia .
- Portada libro de R. Penrose "Las sombras de la mente".
.

,

,

«
Next
Entrada más reciente
»
Previous
Entrada antigua
Editor del blog Pedro Donaire

Filosofía

Educación

Deporte

Tecnología

Materiales