GENERAL PROBLEM SOLVER(GPS)
Después del Teórico de Lógica, Newell y Simon
llevaron a cabo juntos otro proyecto, proyecto que concluyó en 1957.
Esta vez no trataron de investigar el posible funcionamiento del cerebro humano,
sino que se ciñeron a la potencia (de aquel entonces) ofrecida por los
ordenadores y las matemáticas. Así nació el GPS (General
Problem Sover) [Solucionador General de Problemas]. Se trataba de un programa,
al que se le podían ofrecer pequeños problemas (como el típico
del mono que debe coger un plátano que se encuentra colgado del techo),
y este (el programa) deberá describir todos los pasos que realiza hasta
conseguir su fin, es decir, completar el problema positivamente (en este caso
llegar a una altura que le permita coger el plátano). Se puso en practica
el análisis medios-fines, un principio de la retroalimentación
de Wiener llevado a un mayor nivel de abstracción. El análisis
medios-fines consiste en detectar las diferencias entre un objetivo deseado
y la situación actual y reducir después esas diferencias. También
se aplicó por primera vez el Backtracking [vuelta atrás] (probar
si funciona y si no, volver atrás y probar otra cosa) que se convirtió
desde aquel momento en una herramienta básica de la I.A.(Fuente: Aircenter.net)
ELIZA
En 1976, Joseph Weizenbaum publicó Computer Power and
Human Reason [El poder del ordenador y la razón humana]. Básicamente
Weizenbaum admitía la viabilidad de la I.A., pero se oponía a
ella basándose en razones morales. Hacia 1965, Weizenbaum trabajaba en
el MIT, intentando que los ordenadores hablaran en inglés con la gente.
Pensó que los programas existentes como STUDENT se basaban en dominios
limitados, y los dominios que describían esos programas estaban ligados
a la propia estructura del programa. Y dado que Weizenbaum se dio cuenta de
que no podría conseguir ese fin en tan poco tiempo, penso en crear un
programa con unas cuantas ideas que se le habían ocurrido. Una de esas
ideas era que el conocimiento sobre los dominios se encontrase en módulos
ajenos al propio programa, así cambiar de tema seria tan fácil
como cambiar de módulo. Uno de esos módulos, y el más famoso,
fue el que imitaba a un psicoanalista rogeriano (el psicoanalista Carl Rogers
ponía en funcionamiento una terapia que consistía simplemente
en animar a los pacientes a hablar de sus problemas, respondiendo a sus preguntas
con otras preguntas). El programa en cuestión recibió el nombre
de ELIZA (ahora todo un mito de la historia de la I.A.). Aunque a simple vista
ELIZA parece estar hablando animadamente con la persona que le cuenta sus problemas,
la verdad es muy diferente. ELIZA hace creer a su interlocutor que se está
hablando con "un ser" que razona y entiendo, realente todo ello se
logra mediante trucos como repetir frases cambiando "yo" por "tu",
o echar mano a una frase del principio cuando el "hilo" se acaba transformándola
en pregunta. Otro truco utilizado por este programa es insertas frases como
"ya veo" o "háblame más acerca de esto". Algo
con lo que contaba a su favor ELIZA era que el planteamiento de las conversaciones
seguirían siempre un patrón común de los psicoanálisis
rogelianos ¿en que otra conversación no iba a resultar extraño
escuchar frases como esta "háblame algo más acerca de los
coches rojos con motas verdes que apartan cerca de tu casa"?. Por lo que
no es de extrañar que, cuando Daniel Bobrow probó como conejillo
de indias a un vicepresidente de ventas de la BNN, haciendo que este hablara
con ELIZA mientras creía estar haciéndolo con el mismo Bobrow
a través de un terminal, la conversación entre ambos surgiera
así:
Persona>¿Crees que no puedo utilizar el ordenador esta mañana?
ELIZA>¿Por qué me lo preguntas?
Persona>Debería hacer algunas ventas más por la red.
ELIZA>¿Por qué no estas seguro?
Persona> Mis clientes potenciales nunca han visto una demostración
de este sistema
ELIZA>¿Eso significa mucho para ti?
Persona>Naturalmente
ELIZA>Pareces entusiasmado con eso
Persona>Esto es ridículo
ELIZA>¿Qué quieres decir con que esto es ridículo?
Persona>¿Hay alguna razón por la que no pueda utilizar ahora
el ordenador?
ELIZA>Cuéntame algo más acerca de tus clientes potenciales
Aunque en cierta forma, nosotros que estamos sobre aviso detectamos algo "sospechoso"
en esta conversación, podríamos decir que esta no es del todo
negativa. Entonces, ¿estamos en posición de afirmar que ELIZA
ha superado el test de Turing?, NO, pues en la prueba de Turing debía
de enfrentar a dos partes, una persona y un ordenador, ambas debían de
comportarse de forma normal y habría que averiguar quien era la persona
y quien el ordenador, este hecho quedaría al descubierto en cuanto ELIZA
dijese (por ejemplo): "Cuéntame algo más acerca de tus gusto
por las películas en versión original", en una conversación
normal no se utilizan esas expresiones. Lo que realmente le preocupaba a Weizenbaum
era que mucha gente no se enfrentaba a ELIZA con la actitud adecuada. Aún
sabiendo de lo que se trata realmente, habían personas que llegaban a
creerse la humanidad y la compañía de ELIZA, hasta el punto de
que, un famoso científico soviético en una conversación
con ELIZA empezó a hablar con la máquina a un nivel muy personal,
todo ello delante de sus anfitriones norteamericanos (en Stanford). Weizenbaum
explicó en su libro Computer Power and Human Reason, que los seres humanos
no se pueden reducir a una máquina de procesamiento de información
puesto que, en gran medida, un organismo se define por los problemas que puede
abordar. Nosotros nos enfrentamos a problemas de los que ninguna máquina
puede hacerse cargo. Hay nociones que ninguna máquina podrá entender
nunca porque las máquinas no comparten nuestros objetivos. (Fuente: Aircenter.net)
OTRA CONVERSACIÓN CON ELIZA (FUENTE: www.aircenter.net)
PERSONA> Todos los hombres son iguales.
ELIZA>¿De que forma?
PERSONA> Siempre nos están fastidiando de una forma u otra.
ELIZA>¿Se te ocurre algún ejemplo específico?
PERSONA> Sí, mi novio me hizo venir aquí.
ELIZA> Tu novio te hizo venir aquí
PERSONA> Dice que me paso deprimida la mayor parte del tiempo.
ELIZA> Siento enterarme de que estas deprimida
PERSONA> Es verdad. No soy feliz.
ELIZA>¿Crees que venir aquí te ayudará a ser feliz?
PERSONA> Necesito alguna ayuda, eso sí es verdad.
ELIZA>¿Qué significa para ti obtener alguna ayuda?
PERSONA> Quizá pueda aprender a sobrellevar a mi madre.
ELIZA> Háblame algo más acerca de tu familia.
PERSONA> Mi madre se preocupa por mí.
ELIZA>¿Quién más se preocupa por ti en tu familia?
PERSONA> Mi padre
ELIZA> Tu padre
PERSONA> En algunas cosas te pareces a mi padre
ELIZA>¿Qué parecido ves?
PERSONA> No eres muy agresivo, pero creo que no quieres que yo me dé
cuenta de eso.
ELIZA>¿Por qué piensas que yo no soy muy agresivo?
PERSONA> Tú no discutes conmigo.
ELIZA>¿Por que crees que yo no discuto contigo?
PERSONA> Me tienes miedo
ELIZA>¿Te gusta creer que te tengo miedo? PERSONA> Mi padre tiene
el miedo a todo el mundo.
ELIZA>¿Que más se te ocurre cuando piensas en tu padre?
PERSONA> En matones.
ELIZA> ¿Tiene eso que ver con el hecho de que tu novio te hizo venir
aquí?
SHRDLU
Terry Winograd fue el autor de una tesis sobre los Micromundos de Bloques. Shrdlu
mostraba en pantalla una simulación del Micromundo, bloques, pirámides
y una caja donde meterlos, pero había más, Shrdlu era capaz de
explicar sus acciones. En cierta forma, el hecho de que el ordenador fuese capaz
de expresar la razones que le habían llevado ha hacer algo, cuando nosotros
le preguntásemos…era una prueba de la existencia de autoconciendia
del programa. Para escribir este programa, Winograd utilizó una versión
de PLANNER, se trataba de un lenguaje de programación basado en el LISP,
desarrollado por Carl Hewitt e implementado por Gerald Sussmann, Eugene Charniak
y el mismo Winograd. (Fuente: Aircenter.net)
MYCIN.
MTCIN (desarrollado entre 1972 y 1980, Universidad de Stanford) es un sistema
interactivo experto que ayudaba a los físicos en la selección
de un apropiada terapia antimicrobiana para los pacientes de los hospitales
con bacteremia, meningitis e infecciones de cistitis. El sistema diagnosticaba
la causa de la infección usando el conocimiento relativo a la infección
de los microorganismos con historiales de pacientes, síntomas y los resultados
de los test de laboratorio. El sistema recomendaba un tratamiento de medicinas
(tipo y dosificación) acorde a los procedimientos seguidos por la experiencia
de los físicos en las terapias.
El sistema MYCIN fue desarrollado originalmente en la consulta y diagnosis de
una terapia para infecciones. Desde el principio, en el proyecto se habían
impuesto una serie de obligaciones
- Tenía que ser funcional (esto implicaba competencia y consistencia).
El área de uso era elegido según una necesidad demostrada. (Por
ejemplo, a principios de los 70 a una cuarta parte de la población de
USA se le recetaba penicilina, el 90 % de esas prescripciones eran innecesarias).
- El programa tenía que ser diseñado con un énfasis de
sus soportes de roles como una utilidad para un físico, a pesar de reemplazar
sus propios procesos de razonamiento.
- El programa debía albergar una cantidad ingente de información
técnica.
- El sistema tenía que interactuar mediante diálogos, tenía
que dar una explicación concreta de su razonamiento para llegar a la
solución propuesta.
- Velocidad, accesibidad y facilidad de uso.
PERCEPTRON
En 1962, Frank Rosenblatt presenta los resultados de una máquina a
la que denominó "Perceptrón", la cual reproducía
una estructura neuronal muy simplificada, capaz de aprender a reconocer y clasificar
determinadas figuras.
En la misma década, Minsky y Pappert (autoridades de la IA clásica)
publicaron un libro en el que se ponían de manifiesto las limitaciones
de los perceptrones de una capa. Esto hará que se pierda interés
en el campo de las redes neuronales hasta la década de los 80, en que
el estudio de nuevas arquitecturas de redes y la mayor potencia de los ordenadores
permiten el diseño de redes muy eficientes en tareas en las que otros
procedimientos de tipo simbólico encuentran dificultades.
AUTOMATAS CELULARES
Los autómatas
celulares son redes de autómatas simples conectados localmente que producen
una salida a partir de una entrada, modificando en el proceso su estado según
una función de transición.
Un autómata celular es una máquina de estados finitos que consiste
en una cuadrícula de células en la cual la evolución de
cada célula depende de su estado actual y de los estados de sus vecinos
inmediatos. En un autómata celular todos los autómatas simples
o células pasan a la siguiente generación al mismo tiempo y según
un mismo algoritmo de cambio que puede hacer variar su estado dentro de un conjunto
limitado de estados.
• Los primeros autómatas celulares
Los estudios sobre autómatas finitos, máquinas de Turing, y otros
modelos que siguen la misma filosofía configuran lo que se ha denominado
Teoría de Autómatas y Máquinas de Turing, o simplemente
Teoría de Autómatas, dentro de la Teoría de la Computación.
En la década de los 50, dos neurofisiólogos, Warren S. McCulloch
y Walter Pitts diseñaron un modelo matemático para representar
el funcionamiento de las células cerebrales que fue el origen de los
que hoy se conoce por redes neuronales. El modelo era una aproximación
muy sencilla al comportamiento real de las neuronas, pero tenía grandes
aplicaciones en otros contextos. En el campo puramente matemático, Kleene
redefinió el modelo y dio lugar a los autómatas finitos, especie
de máquinas ideales o modelos matemáticos, al modo de la máquina
de Turing, con posibilidades bastante más reducidas, pero muy adecuadas
para ciertos procesos de cálculo.
Por otra parte el inglés Turing consiguió definir conceptualmente
una máquina de cálculo que se considera universal, es decir, el
mecanismo de procesar cualquier algoritmo. Turing diseñó un modelo
matemático de autómata que siguiendo unas reglas simples conseguía
solucionar una gran gama de problemas. En principio, la máquina de Turing
constituye el instrumento de cálculo universal, el más general.
No es posible dar una demostración rigurosa de esto, aunque sí
se tiene una gran cantidad de indicios, agrupados en lo que se conoce como Tesis
de Church, que puede plantearse así: "No existen funciones que puedan
ser definidas por personas, y cuyo cálculo sea descrito por algún
algoritmo, que no puedan computarse con una máquina de Turing".
Basándose en la máquina de Turing, Von Neumann trabajó
en una máquina autorreproductiva que llamó kinematon y en la idea
de autómata celular.
MÁQUINA DE TURING
En 1936, Alan Turing contestó al entscheidungsproblem, la cuestión planteada por David Hilbert sobre si las matemáticas son decidibles, es decir, si hay un método definido que pueda aplicarse a cualquier sentencia matemática y que nos diga si esa sentencia es cierta o no. En el artículo On Computable Numbers, Turing construyó un modelo formal de computador, la Máquina de Turing, y demostró que había problemas tales que una máquina no podía resolver. La máquina de Turing es el primer modelo teórico de lo que luego sería un computador programable. Con el tiempo a este tipo de máquina se la conoció como máquina de estado finito, debido a que en cada etapa de un cálculo, la siguiente acción de la máquina se contrastaba con una lista finita de instrucciones de estado posibles.
¿Cómo funciona la máquina de Turing?
Una máquina de Turing es un dispositivo que transforma un INPUT en un OUTPUT después de algunos pasos. Tanto el INPUT como el OUPUT constan de números en código binario (ceros y unos). En su versión original la máquina de Turing consiste en una cinta infinitamente larga con unos y ceros que pasa a través de una caja. La caja es tan fina que solo el trozo de cinta que ocupa un bit (0 ó 1) está en su interior. La máquina tiene una serie de estados internos finitos que también se pueden numerar en binario.Para llevar a cabo algún algoritmo, la máquina se inicializa en algún estado interno arbitrario. A continuación, se pone en marcha y la máquina lee el bit que se encuentra en ese momento en su interior y ejecuta alguna operación con ese bit (lo cambia o no, dependiendo de su estado interno). Después se mueve hacia la derecha o hacia la izquierda, y vuelve a procesar el siguiente bit de la misma manera. Al final se para, dejando el resultado al lado izquierdo por ejemplo.
Una instrucción típica podría ser: 01?11011
La traducción es como sigue: si la máquina se encuentra en el estado interno 0 y lee 1 en la cinta, entonces pasará al estado interno 1101 (13), escribirá 1 y se moverá hacia la izquierda un paso (la cinta se moverá hacia la derecha). A continuación es conveniente inventar una notación para la secuencia del INPUT. Esta notación se llama notación binaria expandida. Consiste en cambiar la secuencia original binaria por otra construida de la siguiente forma: el 0 se cambia por 0 y el 1 por 10 y se ponen un cero a la izquierda y/o a la derecha del resultado si empieza o acaba en 1 respectivamente. Así por ejemplo, el número 13 que en binario es 1101 es en binario expandido 1010010 con un cero delante por esta última regla 01010010. Para volver al original hay que contraer el binario expandido con la siguiente regla: Empezamos a leer por la izquierda el binario expandido. Cuando encontremos un 0 tomamos nota de cuántos 1 hay hasta llegar al siguiente 0 y lo escribimos. Si encontramos que hay dos 0 seguidos, apuntaríamos un 0 porque no habría ningún 1.Veamos con el 13 cómo se haría. El primer 0 se encuentra en la primera posición y el siguiente 0 está en la posición 3. Entre los dos solo hay un 1. Lo anotamos. Seguidamente hay un 1, y después un 0, entonces apuntamos 1 porque hay un 1 entre medias de ellos. Esto es lo que se hace sucesivamente y encontramos: 1101 que es el número original.
La máquina
de Turing, como modelo matemático, consta de un cabezal lector/escritor
y una cinta infinita en lo que el cabezal lee el contenido, borra el contenido
anterior y escribe un nuevo valor. Las operaciones que se pueden realizar en
esta máquina se limitan a:
• avanzar el cabezal lector/escritor para la derecha;
• avanzar el cabezal lector/escritor para la izquierda.
La computación es determinada a partir de una tabla de estados de la
forma:
(estado,valor) (\nuevo estado, \nuevo valor, dirección)
Esta tabla toma como parámetros el estado actual de la máquina
y el caracter leído de la cinta, dando la dirección para mover
el cabezal, el nuevo estado de la máquina y el valor a ser escrito en
la cinta.
Con este aparato extremadamente sencillo es posible realizar cualquier computación
que un computador digital sea capaz de realizar.
Mediante este modelo teórico y el análisis de complejidad de algoritmos,
fue posible la categorización de problemas computacionales de acuerdo
a su comportamiento, apareciendo así, el conjunto de problemas denominados
P y NP, cuyas soluciones en tiempo polinomial son encontradas según el
determinismo y no determinismo respectivamente de la máquina de turing.
De hecho, puedese probar matemáticamente que para cualquier programa
de computadora es posible crear una máquina de Turing equivalente. Esta
prueba resulta de la Tesis de Church-Turing, formulada por Alan Turing y Alonzo
Church, de forma independiente a mediados del siglo XX.
TESIS DE CHURCH-TURING
Tesis de Church. La clase de las funciones que pueden ser calculadas mediante
un algoritmo coincide con la clase de las funciones recursivas.
Además, bajo esa tesis y utilizando la noción de función
-definible, dió ejemplos de problemas de decisión irresolubles,
y demostró que el Entscheidungsproblem era uno de esos problemas.
Por otra parte, en el artículo de Kleene que se publicó pocos
meses despues, se demuestra formalmente la equivalencia entre funciones -definible
y funciones recursivas de Herbrand-Gödel, y se dan ejemplos de problemas
irresolubles utilizando la noción de función recursiva.
La tercera noción de función calculable proviene del matemático
inglés A. Turing. Este era alumno de M. Newman, quien leyó las
cuestiones de Hilbert en Cambridge. Turing reflexionó sobre la frase
de Newman "un proceso mecánico" y en 1936 publicó su
célebre trabajo "Números Computables: Una Aplicación
al Entscheidungsproblem".
Turing argumentó que la tercera cuestión de Hilbert (el Entscheidungsproblem)
podía atacarse con la ayuda de una máquina, al menos con el concepto
abstracto de máquina. El propósito de Turing al describir las
máquinas que hoy llevan su nombre, era reducir los cálculos a
sus rasgos esenciales más escuetos, describiendo de un modo sencillo
algunos procedimientos básicos que son manifiestamente efectivos y a
los que pueda reducirse cualquier procedimiento efectivo.
Turing postuló en su artículo antes citado que había tenido
éxito en hacer lo que se habia propuesto, es decir, caracterizar de un
modo matemáticamente preciso, por medio de sus máquinas, la clase
de las funciones calculables mediante un algoritmo, lo que se conoce hoy como
Tesis de Turing. La clase de las funciones que pueden ser calculadas mediante
un método definido coincide con la clase de las funciones calculables
mediante una Máquina de Turing.
Aunque no se puede dar ninguna prueba formal de que una máquina pueda
tener esa propiedad, Turing dió un elevado número de argumentos
a su favor, en base a lo cual presentó la tesis como un teorema demostrado.
Además, utilizó su concepto de máquina para demostrar que
existen funciones que no son calculables por un método definido y en
particular, que el Entscheidungsproblem era uno de esos problemas.
Cuando Turing redactó su articulo, desconocia los trabajos de Church-Kleene,
pero durante el proceso de revisión tuvo conocimiento de estos trabajos
de forma que cuando su artículo fué publicado le anexionó
un apéndice demostrando que los conceptos de función -definible
y función calculable por medio de una máquina de Turing coinciden.
Naturalmente a la luz de esto la Tesis de Turing resulta ser equivalente a la
de Church.
Finalmente, cabe reseñar el trabajo de E. Post. Este estaba interesado
en marcar la frontera entre lo que se puede hacer en matemáticas simplemente
por procedimientos formales y lo que depende de la comprensión y el entendimiento.
De esta forma, Post formula un modelo de procedimiento efectivo a través
de los llamados sistemas deductivos normales. Estos son sistemas puramente formales
en los que puede `deducirse' sucesiones finitas de símbolos como consecuencia
de otras sucesiones finitas de símbolos por medio de un tipo normalizado
de reglas y a partir de un conjunto de axiomas. Así pues, dada una sucesión
finita de símbolos como entrada, las reglas permiten convertirla en una
sucesión finita de salida. En su artículo, Post demostró
resultados de incompletitud e indecibilidad en estos sistemas.
Post conocía los trabajos de Church-Kleene, si bien desconocia el trabajo
de Turing, de tal forma que el modelo de procedimiento efectivo de Post, en
esencia, difiere muy poco de las máquinas de Turing.
Los resultados hasta ahora citados, correspondientes al periodo 1931-36, se
refieren a funciones totales. La existencia de algoritmos que con determinadas
entradas nunca terminan, condujo de forma natural a considerar funciones parciales.
Kleene fué el primero en hacer tal consideración en 1938. El estudio
de estas funciones ha mostrado la posibilidad de generalizar todos los resultados
anteriores a funciones parciales. Por otro lado, el estudio de las funciones
parciales calculables ha resultado esencial para el posterior desarrollo de
la materia. De hecho las funciones parciales son necesarias para la demostración
del teorema del punto fijo, y en particular del primer teorema de recursión
de Kleene (1952).
Posteriormente, se demostró la equivalencia entre lo que se podía
calcular mediante una máquina de Turing y lo que se podía calcular
mediante un sistema formal en general:
Teorema. En los sistemas deductivos donde el conjunto de reglas de producción,
y el conjunto de axiomas sea recursivamente enumerable, una función (parcial)
aritmética es calculable si y solo si es una función (parcial)
recursiva.
A la vista de estos resultados, la Tesis de Church-Turing es aceptada como un
axioma en la teoría de la computación, postulado que ha servido
como punto de partida para la investigación de los problemas que se pueden
resolver mediante un algoritmo.
TEOREMA DE GÖDEL
Y, sin embargo, desde el punto de vista de la necesaria autocomprensión
de lo que la actividad matemática es en realidad, ningún teorema
ni teoría pueden ser comparados en profundidad e importancia para el
pensamiento matemático con lo que representa el teorema de Gödel
sobre la necesaria incompletitud de cualquier sistema matemático. En
este aspecto, el auténtico teorema del siglo 20, mucho más que
el de Fermat o el de los cuatro colores, será, para la historia, el teorema
de Gödel.
El teorema de Gödel es la respuesta tajante y frustradora al sueño
que Hilbert expresaba en 1925, en su artículo famoso Über das Unendliche:
"En cierto sentido la matemática se ha convertido en una corte de
arbitraje, un tribunal supremo para decidir cuestiones fundamentales sobre una
base concreta en la que todos pueden concordar y donde cada afirmación
sea controlable,...Un ejemplo del tipo de cuestiones fundamentales que pueden
ser tratadas de este modo es la tesis de que todo problema matemático
es soluble. Todos nosotros estamos convencidos de que realmente es así.
De hecho uno de los principales atractivos para atacar un problema matemático
es que siempre oímos esta voz dentro de nosotros: Ahí está
el problema, encuentra la contestación, siempre la puedes encontrar puramente
pensando, pues en matemática no hay ningún ignorabimus".
Hilbert trató de realizar este sueño de cerciorarse del "no
ignoraremos" a través del proceso de formalización, es decir,
tratando de considerar la matemática como un sistema formal, una especie
de juego de símbolos, como las fichas de ajedrez, en un principio desprovistos
por sí mismos de significado que lo adquieren a través de las
convenciones iniciales de los postulados o axiomas del sistema. Estos objetos
se manipulan a través de las reglas de manejo que sus definiciones introducen
y a través de las reglas de implicación lógica en las que
todos convenimos. Así van resultando los teoremas del sistema. Se trataría
entonces de asegurarse de que cualquier proposición que se pueda proponer
en el sistema con sentido dentro de él podría ser demostrada o
bien refutada, es decir su negación demostrada.
En su artículo Sobre proposiciones formalmente indecidibles de los Principia
Mathematica y sistemas emparentados, en 1931, Kurt Gödel demostraba con
la esperanza de Hilbert. En cualquier sistema formal en el que se pueda desarrollar
la aritmética existen proposiciones legítimas del sistema que
son indecidibles, es decir ni su afirmación ni su negación son
demostrables. Y una de ellas es la que afirma la consistencia del sistema, es
decir la imposibilidad de que en él aparezcan contradicciones.
En un artículo de 1931, Gödel demostró que ha de existir
algún enunciado concerniente a los números naturales que es verdadero,
pero no puede ser demostrado. O sea, que existen objetos que obedecen a los
axiomas de la teoría de números, pero que, en otros aspectos,
dejan de comportarse como números ("teorema de incompletitud").
Si los axiomas no se contradicen entre sí, entonces, ese mismo hecho,
codificado en enunciado numérico será "formalmente indecidible"
–esto es, ni demostrable ni refutable- a partir de dichos axiomas. Cualquier
demostración de consistencia habrá de apelar a principios más
fuertes que los propios axiomas.
El teorema afirmaba que ningún sistema de leyes (axiomas o reglas) puede tener potencia suficiente para demostrar todos los enunciados verdaderos de la aritmética, sin ser al mismo tiempo tan fuerte que demuestre también enunciados falsos. El resultado frustró a Hilbert, quien tenía confianza en la posibilidad de fijar los fundamentos de las matemáticas mediante un proceso "autoconstructivo", en el que la consistencia pudiera deducirse de una teoría lógica sencilla y evidente. Gödel no creyó que sus conclusiones demostrasen la arbitrariedad del método axiomático- deductivo, sino sólo que la deducción de teoremas no puede mecanizarse del todo, justificando así el papel de la intuición en la investigación formal.
La generalización
de sus ideas han permitido la deducción de diversas consecuencias relativas
a los límites de los procesos informáticos y computacionales.
Una de ellas es la demostración de que ningún programa que no
altere el sistema operativo de un ordenador será capaz de detectar todos
los programas que sí lo hagan (virus). La consecuencia parece ampliable
incluso a campos tan distantes como el uso policial de la violencia o la filosofía
de las matemáticas y la lógica. En este último campo, el
teorema de Gödel debilita el proyecto de una reducción logicista
de la matemática.
Home - IA - Tareas - Prácticas - Noticias - Descargas - Integrantes