Tonatiuh Suárez Meaney
El error de considerar el error antes del caos
Las matemáticas modelan el mundo pero no solamente.
En realidad modelan las ideas, definen las estructuras y cuando una idea es
definida matemáticamente, es posible explorarla con más libertad y certeza. Por
ejemplo, los sistemas de conteo modelan muy bien el mundo a cierto nivel. Una
res, dos reses… 10 reses. Pero no es lo mismo una res feliz que una no feliz, y
la primera producirá más leche. El simple conteo de las matemáticas primitivas,
no fue suficiente para explorar el mundo. Los árabes y los griegos,
construyeron unas matemáticas muy fuertes que duraron varios milenios sin
grandes cambios. Tuvieron tanto éxito que se pensó que eran infranqueables y
que todo lo que se describía matemáticamente, era irremediablemente cierto.
Pero fueron ocurriendo sorpresas. La última vez que se vio a las matemáticas
como un monolito estable fue durante el renacimiento, con los desarrollos de
Descartes y Galileo. Parecía la cumbre de las matemáticas. Las ciencias
naturales comenzaron a utilizar las matemáticas como el sustento. Kepler
definió las órbitas de los planetas, Newton desarrolló las teorías de cómo se
comporta el universo y desarrollo las idas de cálculo al mismo tiempo que
Leibinitz. Ya había algunas ideas que eran poco intuitivas como el del infinito
acotado. En la física todo iba muy bien, hasta que la termodinámica mostró que
las cosas no eran tan simples. Se comprendió que existía el error, que la
física ya no podía ofrecer determinismo y las matemáticas también tenía
desencantos. Sobre todo en el siglo XX cuando Einstein mostró con ideas
matemáticas modernas que la gravedad existía por la curvatura del universo.
Aquí vemos como el concepto de error ha evolucionado. Desde que se creía que no
existía, hasta que no solo se aceptó, sino que se llegó a la conclusión, en la
estadística, que lo único certero es que había error. He seguido la lógica propuesta para el desarrollo de los temas tal
como se muestra en la figura 1.
Figura 1
a) Determinismo
y el demonio de Laplace
Laplace imagina un mundo perfecto desde el punto de
vista de la comprensión. El mundo no se puede calificar como perfecto o
erróneo, pero si la percepción del mismo. En el mundo de Laplace, siempre podrá
haber, por ejemplo, un basquetbolista perfecto que siempre atine, o bien, un
billarista que siempre pueda atinar a todos los hoyos si tiene la suficiente
información del medio y suficiente capacidad de cómputo. El problema para
Laplace no es que las cosas sigan un programa sino acceder a él. El programa
del mundo existe según este célebre científico, porque todas las cosas son
causadas por algo y causan otras cosas, y además solo pueden causar un
fenómeno. El estado actual del mundo depende de una cantidad gigantesca de
funciones donde cada objeto tiene una función que lo controla. La posición de
la partícula P(id,t=1,x(t=1),y(t=1),z(t=1)) del universo, se moverá según un
programa a la posición P(id,t=2,x(t=2),y(t=2),z(t=2)). El conjunto Demonio
de todas las funciones que determinan las
posiciones del mundo, sería capaz de describir el estado total del mundo y del
universo con suficiente capacidad de cómputo. A la aceptación de que ese demonio
puede existir, le llamamos determinismo. Una persona es determinística si cree
en el destino.
Se trata de una idea muy física. Pero precisamente
en el siglo XIX ocurrieron sismas en la ciencia, como el de la termodinámica y
a comprensión de la entropía y la irreversibilidad. Es decir, del proceso
natural que hace que el universo tienda al desorden y por otro lado, existen
procesos que no pueden regresar a su estado original. A todos nos ha pasado,
arreglamos nuestra computadora, ordenamos los archivos, no dejamos nada en el
escritorio. En una semana eso es un desorden. En la naturaleza también. Eso es
porque suceden cosas siempre y esas cosas en realidad, no siguen un programa
tan detallado. Las cosas pueden seguir un programa pero no con un nivel de
exactitud discreto. Esto se aceptó cuando de aceptó que Dios sí juega a los
dados. En realidad, con lo que juega Dios es con los datos. Fisher y otros
matemáticos, desarrollaron la formalización de la estadística. Otros
estadísticos como Borel, permitieron establecer que establecer probabilidades
no era en realidad un juego tan burdo como se había llegado a pensar. Así la
estadística clásica en la que se estudia como un dado solo puede caer en uno de
sus lados, avanzó a un nivel de comprensión mayor: “no tenemos todos los
eventos, pero si se pudieran computar todos los eventos, con exactitud, cada
estado tendría estas proporciones”. Este brinco es el que hace pasar a la
estadística de un conjunto de habilidades para apostadores a una ciencia que
permite predecir y conocer lo que aun no sucede. Esto es porque todo lo que
puede suceder ha de suceder, en un universo utópico donde no existiera el
tiempo, todo lo sucedible estaría sucediendo, por lo tanto sería en las
proporciones que marca la estadística a cada evento. Esto es gracias a que no
existe el demonio de Laplace.
El gran aprendizaje de todo esto es que los
distintos fenómenos tienen escalas diferentes. Que las reglas del macromundo no
son necesariamente las mismas del micromundo. Eso lo hizo comprender al mundo
Shrödinger con su paradoja del gato.
b) El
principio de incertidumbre de Heissenberg
Este principio se basa en las teorías de la nueva
física. Establece que no es posible conocer al mismo tiempo la posición y la
velocidad de una partìcula. En realidad, aunque trate del micromundo, es una
principio bastante intuitivo. Si bien el principio de incertidumbre de
Heinssenberg es de la física cuántica también aplica en las teorías
ondulatorias. Se me ha ocurrido el siguiente ejemplo. Si sacamos una fotografía
de un barco en un gran oleaje, a una gran velocidad podremos tener aun en
movimiento una imagen muy nítida como la
Figura 2.
La
fórmula de Heissenberg nos dice
Donde
es la incertidumbre de posición y
la de momento que involucra a la de momento.
del lado derecho de la inecuación, es una
constante, por lo tanto entre
sea mayor,
será menor. Y si
es cero
es infinito, y viceversa. Por eso, si el
desenfoque es total en el barco, no sabremos nada de su posición absolutamente,
y si el enfoque es total, no sabremos nada de la velocidad.
En el macro mundo, podemos tener dos cámaras, una a
una velocidad y otra a otra y podemos conocer la posición y la velocidad. Pero
en el mundo cuántico no se pueden usar dos cámaras no por la capacidad
tecnológica sino por las características del micromundo.
a) Edward
N. Lorenz, atractores extraños y la teoría del Caos.
Gracias
al desarrollo de la ciencia cuántica se llegó a la teoría del caos. El caos es la dependencia sensible a las
condiciones iniciales. Una forma muy simple de conocerla es como El caos no significa desorden sino cambio
sensible.
La teoría del caos, establece que un sistema está
compuesto de subsistemas, dentro de los cuales, hay nuevamente subsistemas y así
sucesivamente. Dentro de cada sistema los agentes se comportan de tal modo que
el comportamiento de uno modifica el estado del subsistema. Esta relación se da
en grados diversos. Siempre hay interacción de un integrante al menos con otro
integrante.
Lorenz estipuló su efecto mariposa en un artículo
llamado: Puede una mariposa en Brasil ocasionar una tormenta en Florida? Es
decir, se preguntaba que pequeñas cosas podrían generar grandes eventos. No se
trata de una gota que desborde el vaso, la analogía va más allá. Una lectura
popular de esto es que las cosas pequeñas desencadenan cosas grandes por lo que
es impredecible lo que pueda ocurrir. Sin embargo, dice casi lo contrario, lo
que dice es que las posiciones iniciales son irrelevantes en el comportamiento
posterior, el cual girará independientemente de la partícula alrededor de un
atractor extraño, como lo muestra la gráfica 3. Cuando dos partículas son
dejadas en determinado ambiente simulado, al principio tienen camions muy
caóticos y luego comienzan a seguir rutas similares.
Figura 3.
Aunque el efecto mariposa tuvo nombre por la anécdota
de la mariposa, también es válido asociarlo al nombre de las gráficas de los
atractores extraños que tienen forma de mariposa, es decir la gráfica de muchas
partículas en sus ambientes, que reportan los mismos trayectos una vez que se
han desprendido de los recorridos iniciales.
a) El
problema no. 2 de Hilbert y el teorema de incompletitud de Gödel
Mientras que la
misma ciencia avanzaba poniendo las cosas en su lugar, las matemáticas hacían
lo propio, más o menos en caminos paralelos. Por ejemplo, Hilbert imaginó un
mundo que no era esférico ni elíptico, sino hiperbóreo. Einstein no sólo lo
imaginó sino que lo modeló obteniendo como resultado respuestas a la
gravitación. Por ejemplo, que la gravitación existe porque el mundo es en
realidad curvo, una de las mayores sorpresas de la ciencia. Sin embargo, la
suerte de Hilbert no fue tan buena en otras cosas. Por ejemplo, creía en unas
matemáticas que fueran perfectamente cifrables y que nunca pudieran permitir
contradicciones. Esto por el pavor que comenzó a existir entre los matemáticos
cuando surgieron las paradojas, como la de Russell:
¿La clase de todas las clases que no se contienen a
si mismas, se contiene a si misma?
Esta paradoja tiene muchas versiones, veamos
algunas:
¿El barbero que afeita a todos los barberos que no
se afeitan a ellos mismos se afeita a él mismo?
¿El político que vota por todos los políticos que no
votan por ellos mismos, vota por sí mismo?
Etc.
Se dice que esa
paradoja se la envió Russell en una hoja a Firedge que estaba por formalizar
una teoría de conjuntos en un libro por salir. Al recibir la hoja Friedge pidió
que detuvieran la prensa. Había descubierto que su teoría se derrumbaba.
La recursión como
la de la paradoja ha sido el lado flaco de los grandes formalizadores. Russell
soñó con unas matemáticas completamente rigurosas a pruebas de paradojas. Comenzó
el camino junto con Wittgenstain quien desde la filosofía decía primero que era
imposible comunicarnos pues mientras que unos entendían una cosa cuando se
referían a un objeto, otros entendían otra. Pero su pensamiento evolucionó a
tal grado que se le conoce como Wittgenstein II porque dijó después que si era
posible comunicarnos, siempre y cuando tuviéramos un sistema perfecto capaz de
definir cualquier proposición. A eso dedicó muchos años de su vida. La paradoja
la “resolvió” modificando la teoría, estableciendo el concepto de “capas” y
declarando que no puede haber conjuntos que no se contengan a si mismos. Sin
embargo, esto no fue satisfactorio para los matemáticos, pues no se comprendía
el problema, sino simplemente se modificaban las definiciones para que con
ellas no existiera el problema.
De cualquier
forma Hilbert permanecía optimista. En una conferencia listo los 20 problemas
que en el siglo XX serían los más importantes de las matemáticas y estaba
seguro de que encontrarían solución. El problema 2 era una afronta directa a
las ideas de Gôdel pues se refiere a si es posible demostrar que dos
proposiciones en un sistema no se pueden contradecir.
El teorema de
Gödel tiene mucho que ver con la máquina de Turing y también con la recursión.
De hecho, junto con el problema de Hilbert, son interpretaciones del mismo
problema. Ya se ha visto en el curso anteriormente la máquina de Turing. A
final de cuentas, lo que importa es si existe un algoritmo universal para
resolver cualquier problema. Turing resuelve que no. El teorema de Godel nos
dice que en un sistema habrá proposiciones contradictorias.
Lo que hizo Gödel es mucho más generalizado a las
estructuras. Lo que dice es, imaginemos una aritmética con un número finito de
operaciones y de signos para representar todos sus números. Por ejemplo la
siguiente tira:
|
0
|
1
|
2
|
3
|
4
|
5
|
6
|
7
|
8
|
9
|
+
|
-
|
/
|
*
|
=
|
<
|
|
1
|
2
|
3
|
4
|
5
|
6
|
7
|
8
|
9
|
A
|
B
|
C
|
D
|
E
|
F
|
G
|
Ahora, podemos
numerar cualquier aseveración con un número Hexagesimarl.
Por ejemplo
1<8 es la proposición numero 2G8 que es cierta, pero también se pueden
numerar las faltas, por ejemplo 3<1 es la número 4G0. 1+1=2, es 2B2. No hay
ninguna proposición que no se pueda numerar con una proposición.
También se
deberá desprender de alguna proposición alguna otra, por ejemplo si 3>1,
también será cierto que 9>1, es decir 4G0->AG1.
Godel fue capaz
de demostrar que ciertas proposiciones, inlcuirian su negación recursiva por lo
que no es posible un sistema autoconsistente y siempre va a faltarle una parte.
Las
consecuencias del teorema son muchas. Por un lado nos lelvand a pensar que las
máquinas no pueden pensar, pues siempre hay en los procedimientos automatizados
una incompletitud que tiene que ser cubierta del exterior.
En resumen el
concepto de error ha cambiado, pero no tanto para pensar, que las máquinas
realizaran el pensamiento por los humanos.
Referencias
Piñeiro Gustavo
Ernesto (2012) Los teoremas de incompletitud Dodel: la intuición tiene su
lógica. National Geographic.
Arean
Luis Fernando (2014). ¿Existen problamas irresulubles? Matemáticas, complejidad
y computación. El mundo es matemático. National Geographic.
Videos
El demonio de Laplace. http://webcache.googleusercontent.com/search?q=cache:http://seneca.fis.ucm.es/parr/QM/km0qm/laplace.htm
https://www.youtube.com/watch?v=STIzCV1aRyg



No hay comentarios:
Publicar un comentario