GENERAL PROBLEM SOLVER(GPS)

Después del Teórico de Lógica, Newell y Simon llevaron a cabo juntos otro proyecto, proyecto que concluyó en 1957. Esta vez no trataron de investigar el posible funcionamiento del cerebro humano, sino que se ciñeron a la potencia (de aquel entonces) ofrecida por los ordenadores y las matemáticas. Así nació el GPS (General Problem Sover) [Solucionador General de Problemas]. Se trataba de un programa, al que se le podían ofrecer pequeños problemas (como el típico del mono que debe coger un plátano que se encuentra colgado del techo), y este (el programa) deberá describir todos los pasos que realiza hasta conseguir su fin, es decir, completar el problema positivamente (en este caso llegar a una altura que le permita coger el plátano). Se puso en practica el análisis medios-fines, un principio de la retroalimentación de Wiener llevado a un mayor nivel de abstracción. El análisis medios-fines consiste en detectar las diferencias entre un objetivo deseado y la situación actual y reducir después esas diferencias. También se aplicó por primera vez el Backtracking [vuelta atrás] (probar si funciona y si no, volver atrás y probar otra cosa) que se convirtió desde aquel momento en una herramienta básica de la I.A.(Fuente: Aircenter.net)

ELIZA

En 1976, Joseph Weizenbaum publicó Computer Power and Human Reason [El poder del ordenador y la razón humana]. Básicamente Weizenbaum admitía la viabilidad de la I.A., pero se oponía a ella basándose en razones morales. Hacia 1965, Weizenbaum trabajaba en el MIT, intentando que los ordenadores hablaran en inglés con la gente. Pensó que los programas existentes como STUDENT se basaban en dominios limitados, y los dominios que describían esos programas estaban ligados a la propia estructura del programa. Y dado que Weizenbaum se dio cuenta de que no podría conseguir ese fin en tan poco tiempo, penso en crear un programa con unas cuantas ideas que se le habían ocurrido. Una de esas ideas era que el conocimiento sobre los dominios se encontrase en módulos ajenos al propio programa, así cambiar de tema seria tan fácil como cambiar de módulo. Uno de esos módulos, y el más famoso, fue el que imitaba a un psicoanalista rogeriano (el psicoanalista Carl Rogers ponía en funcionamiento una terapia que consistía simplemente en animar a los pacientes a hablar de sus problemas, respondiendo a sus preguntas con otras preguntas). El programa en cuestión recibió el nombre de ELIZA (ahora todo un mito de la historia de la I.A.). Aunque a simple vista ELIZA parece estar hablando animadamente con la persona que le cuenta sus problemas, la verdad es muy diferente. ELIZA hace creer a su interlocutor que se está hablando con "un ser" que razona y entiendo, realente todo ello se logra mediante trucos como repetir frases cambiando "yo" por "tu", o echar mano a una frase del principio cuando el "hilo" se acaba transformándola en pregunta. Otro truco utilizado por este programa es insertas frases como "ya veo" o "háblame más acerca de esto". Algo con lo que contaba a su favor ELIZA era que el planteamiento de las conversaciones seguirían siempre un patrón común de los psicoanálisis rogelianos ¿en que otra conversación no iba a resultar extraño escuchar frases como esta "háblame algo más acerca de los coches rojos con motas verdes que apartan cerca de tu casa"?. Por lo que no es de extrañar que, cuando Daniel Bobrow probó como conejillo de indias a un vicepresidente de ventas de la BNN, haciendo que este hablara con ELIZA mientras creía estar haciéndolo con el mismo Bobrow a través de un terminal, la conversación entre ambos surgiera así:
Persona>¿Crees que no puedo utilizar el ordenador esta mañana?
ELIZA>¿Por qué me lo preguntas?
Persona>Debería hacer algunas ventas más por la red.
ELIZA>¿Por qué no estas seguro?
Persona> Mis clientes potenciales nunca han visto una demostración de este sistema
ELIZA>¿Eso significa mucho para ti?
Persona>Naturalmente
ELIZA>Pareces entusiasmado con eso
Persona>Esto es ridículo
ELIZA>¿Qué quieres decir con que esto es ridículo?
Persona>¿Hay alguna razón por la que no pueda utilizar ahora el ordenador?
ELIZA>Cuéntame algo más acerca de tus clientes potenciales

Aunque en cierta forma, nosotros que estamos sobre aviso detectamos algo "sospechoso" en esta conversación, podríamos decir que esta no es del todo negativa. Entonces, ¿estamos en posición de afirmar que ELIZA ha superado el test de Turing?, NO, pues en la prueba de Turing debía de enfrentar a dos partes, una persona y un ordenador, ambas debían de comportarse de forma normal y habría que averiguar quien era la persona y quien el ordenador, este hecho quedaría al descubierto en cuanto ELIZA dijese (por ejemplo): "Cuéntame algo más acerca de tus gusto por las películas en versión original", en una conversación normal no se utilizan esas expresiones. Lo que realmente le preocupaba a Weizenbaum era que mucha gente no se enfrentaba a ELIZA con la actitud adecuada. Aún sabiendo de lo que se trata realmente, habían personas que llegaban a creerse la humanidad y la compañía de ELIZA, hasta el punto de que, un famoso científico soviético en una conversación con ELIZA empezó a hablar con la máquina a un nivel muy personal, todo ello delante de sus anfitriones norteamericanos (en Stanford). Weizenbaum explicó en su libro Computer Power and Human Reason, que los seres humanos no se pueden reducir a una máquina de procesamiento de información puesto que, en gran medida, un organismo se define por los problemas que puede abordar. Nosotros nos enfrentamos a problemas de los que ninguna máquina puede hacerse cargo. Hay nociones que ninguna máquina podrá entender nunca porque las máquinas no comparten nuestros objetivos. (Fuente: Aircenter.net)
OTRA CONVERSACIÓN CON ELIZA (FUENTE: www.aircenter.net)

PERSONA> Todos los hombres son iguales.
ELIZA>¿De que forma?
PERSONA> Siempre nos están fastidiando de una forma u otra.
ELIZA>¿Se te ocurre algún ejemplo específico?
PERSONA> Sí, mi novio me hizo venir aquí.
ELIZA> Tu novio te hizo venir aquí
PERSONA> Dice que me paso deprimida la mayor parte del tiempo.
ELIZA> Siento enterarme de que estas deprimida
PERSONA> Es verdad. No soy feliz.
ELIZA>¿Crees que venir aquí te ayudará a ser feliz?
PERSONA> Necesito alguna ayuda, eso sí es verdad.
ELIZA>¿Qué significa para ti obtener alguna ayuda?
PERSONA> Quizá pueda aprender a sobrellevar a mi madre.
ELIZA> Háblame algo más acerca de tu familia.
PERSONA> Mi madre se preocupa por mí.
ELIZA>¿Quién más se preocupa por ti en tu familia?
PERSONA> Mi padre
ELIZA> Tu padre
PERSONA> En algunas cosas te pareces a mi padre
ELIZA>¿Qué parecido ves?
PERSONA> No eres muy agresivo, pero creo que no quieres que yo me dé cuenta de eso.
ELIZA>¿Por qué piensas que yo no soy muy agresivo?
PERSONA> Tú no discutes conmigo.
ELIZA>¿Por que crees que yo no discuto contigo?
PERSONA> Me tienes miedo
ELIZA>¿Te gusta creer que te tengo miedo? PERSONA> Mi padre tiene el miedo a todo el mundo.
ELIZA>¿Que más se te ocurre cuando piensas en tu padre?
PERSONA> En matones.
ELIZA> ¿Tiene eso que ver con el hecho de que tu novio te hizo venir aquí?
SHRDLU
Terry Winograd fue el autor de una tesis sobre los Micromundos de Bloques. Shrdlu mostraba en pantalla una simulación del Micromundo, bloques, pirámides y una caja donde meterlos, pero había más, Shrdlu era capaz de explicar sus acciones. En cierta forma, el hecho de que el ordenador fuese capaz de expresar la razones que le habían llevado ha hacer algo, cuando nosotros le preguntásemos…era una prueba de la existencia de autoconciendia del programa. Para escribir este programa, Winograd utilizó una versión de PLANNER, se trataba de un lenguaje de programación basado en el LISP, desarrollado por Carl Hewitt e implementado por Gerald Sussmann, Eugene Charniak y el mismo Winograd. (Fuente: Aircenter.net)

MYCIN.

MTCIN (desarrollado entre 1972 y 1980, Universidad de Stanford) es un sistema interactivo experto que ayudaba a los físicos en la selección de un apropiada terapia antimicrobiana para los pacientes de los hospitales con bacteremia, meningitis e infecciones de cistitis. El sistema diagnosticaba la causa de la infección usando el conocimiento relativo a la infección de los microorganismos con historiales de pacientes, síntomas y los resultados de los test de laboratorio. El sistema recomendaba un tratamiento de medicinas (tipo y dosificación) acorde a los procedimientos seguidos por la experiencia de los físicos en las terapias.
El sistema MYCIN fue desarrollado originalmente en la consulta y diagnosis de una terapia para infecciones. Desde el principio, en el proyecto se habían impuesto una serie de obligaciones
- Tenía que ser funcional (esto implicaba competencia y consistencia). El área de uso era elegido según una necesidad demostrada. (Por ejemplo, a principios de los 70 a una cuarta parte de la población de USA se le recetaba penicilina, el 90 % de esas prescripciones eran innecesarias).
- El programa tenía que ser diseñado con un énfasis de sus soportes de roles como una utilidad para un físico, a pesar de reemplazar sus propios procesos de razonamiento.
- El programa debía albergar una cantidad ingente de información técnica.
- El sistema tenía que interactuar mediante diálogos, tenía que dar una explicación concreta de su razonamiento para llegar a la solución propuesta.
- Velocidad, accesibidad y facilidad de uso.

PERCEPTRON

En 1962, Frank Rosenblatt presenta los resultados de una máquina a la que denominó "Perceptrón", la cual reproducía una estructura neuronal muy simplificada, capaz de aprender a reconocer y clasificar determinadas figuras.
En la misma década, Minsky y Pappert (autoridades de la IA clásica) publicaron un libro en el que se ponían de manifiesto las limitaciones de los perceptrones de una capa. Esto hará que se pierda interés en el campo de las redes neuronales hasta la década de los 80, en que el estudio de nuevas arquitecturas de redes y la mayor potencia de los ordenadores permiten el diseño de redes muy eficientes en tareas en las que otros procedimientos de tipo simbólico encuentran dificultades.

 


AUTOMATAS CELULARES

Los autómatas celulares son redes de autómatas simples conectados localmente que producen una salida a partir de una entrada, modificando en el proceso su estado según una función de transición.
Un autómata celular es una máquina de estados finitos que consiste en una cuadrícula de células en la cual la evolución de cada célula depende de su estado actual y de los estados de sus vecinos inmediatos. En un autómata celular todos los autómatas simples o células pasan a la siguiente generación al mismo tiempo y según un mismo algoritmo de cambio que puede hacer variar su estado dentro de un conjunto limitado de estados.
• Los primeros autómatas celulares
Los estudios sobre autómatas finitos, máquinas de Turing, y otros modelos que siguen la misma filosofía configuran lo que se ha denominado Teoría de Autómatas y Máquinas de Turing, o simplemente Teoría de Autómatas, dentro de la Teoría de la Computación.
En la década de los 50, dos neurofisiólogos, Warren S. McCulloch y Walter Pitts diseñaron un modelo matemático para representar el funcionamiento de las células cerebrales que fue el origen de los que hoy se conoce por redes neuronales. El modelo era una aproximación muy sencilla al comportamiento real de las neuronas, pero tenía grandes aplicaciones en otros contextos. En el campo puramente matemático, Kleene redefinió el modelo y dio lugar a los autómatas finitos, especie de máquinas ideales o modelos matemáticos, al modo de la máquina de Turing, con posibilidades bastante más reducidas, pero muy adecuadas para ciertos procesos de cálculo.
Por otra parte el inglés Turing consiguió definir conceptualmente una máquina de cálculo que se considera universal, es decir, el mecanismo de procesar cualquier algoritmo. Turing diseñó un modelo matemático de autómata que siguiendo unas reglas simples conseguía solucionar una gran gama de problemas. En principio, la máquina de Turing constituye el instrumento de cálculo universal, el más general. No es posible dar una demostración rigurosa de esto, aunque sí se tiene una gran cantidad de indicios, agrupados en lo que se conoce como Tesis de Church, que puede plantearse así: "No existen funciones que puedan ser definidas por personas, y cuyo cálculo sea descrito por algún algoritmo, que no puedan computarse con una máquina de Turing". Basándose en la máquina de Turing, Von Neumann trabajó en una máquina autorreproductiva que llamó kinematon y en la idea de autómata celular.

 

MÁQUINA DE TURING

En 1936, Alan Turing contestó al entscheidungsproblem, la cuestión planteada por David Hilbert sobre si las matemáticas son decidibles, es decir, si hay un método definido que pueda aplicarse a cualquier sentencia matemática y que nos diga si esa sentencia es cierta o no. En el artículo On Computable Numbers, Turing construyó un modelo formal de computador, la Máquina de Turing, y demostró que había problemas tales que una máquina no podía resolver. La máquina de Turing es el primer modelo teórico de lo que luego sería un computador programable. Con el tiempo a este tipo de máquina se la conoció como máquina de estado finito, debido a que en cada etapa de un cálculo, la siguiente acción de la máquina se contrastaba con una lista finita de instrucciones de estado posibles.


¿Cómo funciona la máquina de Turing?

Una máquina de Turing es un dispositivo que transforma un INPUT en un OUTPUT después de algunos pasos. Tanto el INPUT como el OUPUT constan de números en código binario (ceros y unos). En su versión original la máquina de Turing consiste en una cinta infinitamente larga con unos y ceros que pasa a través de una caja. La caja es tan fina que solo el trozo de cinta que ocupa un bit (0 ó 1) está en su interior. La máquina tiene una serie de estados internos finitos que también se pueden numerar en binario.Para llevar a cabo algún algoritmo, la máquina se inicializa en algún estado interno arbitrario. A continuación, se pone en marcha y la máquina lee el bit que se encuentra en ese momento en su interior y ejecuta alguna operación con ese bit (lo cambia o no, dependiendo de su estado interno). Después se mueve hacia la derecha o hacia la izquierda, y vuelve a procesar el siguiente bit de la misma manera. Al final se para, dejando el resultado al lado izquierdo por ejemplo.

Una instrucción típica podría ser: 01?11011

La traducción es como sigue: si la máquina se encuentra en el estado interno 0 y lee 1 en la cinta, entonces pasará al estado interno 1101 (13), escribirá 1 y se moverá hacia la izquierda un paso (la cinta se moverá hacia la derecha). A continuación es conveniente inventar una notación para la secuencia del INPUT. Esta notación se llama notación binaria expandida. Consiste en cambiar la secuencia original binaria por otra construida de la siguiente forma: el 0 se cambia por 0 y el 1 por 10 y se ponen un cero a la izquierda y/o a la derecha del resultado si empieza o acaba en 1 respectivamente. Así por ejemplo, el número 13 que en binario es 1101 es en binario expandido 1010010 con un cero delante por esta última regla 01010010. Para volver al original hay que contraer el binario expandido con la siguiente regla: Empezamos a leer por la izquierda el binario expandido. Cuando encontremos un 0 tomamos nota de cuántos 1 hay hasta llegar al siguiente 0 y lo escribimos. Si encontramos que hay dos 0 seguidos, apuntaríamos un 0 porque no habría ningún 1.Veamos con el 13 cómo se haría. El primer 0 se encuentra en la primera posición y el siguiente 0 está en la posición 3. Entre los dos solo hay un 1. Lo anotamos. Seguidamente hay un 1, y después un 0, entonces apuntamos 1 porque hay un 1 entre medias de ellos. Esto es lo que se hace sucesivamente y encontramos: 1101 que es el número original.

La máquina de Turing, como modelo matemático, consta de un cabezal lector/escritor y una cinta infinita en lo que el cabezal lee el contenido, borra el contenido anterior y escribe un nuevo valor. Las operaciones que se pueden realizar en esta máquina se limitan a:
• avanzar el cabezal lector/escritor para la derecha;
• avanzar el cabezal lector/escritor para la izquierda.

La computación es determinada a partir de una tabla de estados de la forma:
(estado,valor) (\nuevo estado, \nuevo valor, dirección)
Esta tabla toma como parámetros el estado actual de la máquina y el caracter leído de la cinta, dando la dirección para mover el cabezal, el nuevo estado de la máquina y el valor a ser escrito en la cinta.
Con este aparato extremadamente sencillo es posible realizar cualquier computación que un computador digital sea capaz de realizar.
Mediante este modelo teórico y el análisis de complejidad de algoritmos, fue posible la categorización de problemas computacionales de acuerdo a su comportamiento, apareciendo así, el conjunto de problemas denominados P y NP, cuyas soluciones en tiempo polinomial son encontradas según el determinismo y no determinismo respectivamente de la máquina de turing.
De hecho, puedese probar matemáticamente que para cualquier programa de computadora es posible crear una máquina de Turing equivalente. Esta prueba resulta de la Tesis de Church-Turing, formulada por Alan Turing y Alonzo Church, de forma independiente a mediados del siglo XX.

TESIS DE CHURCH-TURING


Tesis de Church. La clase de las funciones que pueden ser calculadas mediante un algoritmo coincide con la clase de las funciones recursivas.
Además, bajo esa tesis y utilizando la noción de función -definible, dió ejemplos de problemas de decisión irresolubles, y demostró que el Entscheidungsproblem era uno de esos problemas.
Por otra parte, en el artículo de Kleene que se publicó pocos meses despues, se demuestra formalmente la equivalencia entre funciones -definible y funciones recursivas de Herbrand-Gödel, y se dan ejemplos de problemas irresolubles utilizando la noción de función recursiva.
La tercera noción de función calculable proviene del matemático inglés A. Turing. Este era alumno de M. Newman, quien leyó las cuestiones de Hilbert en Cambridge. Turing reflexionó sobre la frase de Newman "un proceso mecánico" y en 1936 publicó su célebre trabajo "Números Computables: Una Aplicación al Entscheidungsproblem".
Turing argumentó que la tercera cuestión de Hilbert (el Entscheidungsproblem) podía atacarse con la ayuda de una máquina, al menos con el concepto abstracto de máquina. El propósito de Turing al describir las máquinas que hoy llevan su nombre, era reducir los cálculos a sus rasgos esenciales más escuetos, describiendo de un modo sencillo algunos procedimientos básicos que son manifiestamente efectivos y a los que pueda reducirse cualquier procedimiento efectivo.
Turing postuló en su artículo antes citado que había tenido éxito en hacer lo que se habia propuesto, es decir, caracterizar de un modo matemáticamente preciso, por medio de sus máquinas, la clase de las funciones calculables mediante un algoritmo, lo que se conoce hoy como
Tesis de Turing. La clase de las funciones que pueden ser calculadas mediante un método definido coincide con la clase de las funciones calculables mediante una Máquina de Turing.
Aunque no se puede dar ninguna prueba formal de que una máquina pueda tener esa propiedad, Turing dió un elevado número de argumentos a su favor, en base a lo cual presentó la tesis como un teorema demostrado. Además, utilizó su concepto de máquina para demostrar que existen funciones que no son calculables por un método definido y en particular, que el Entscheidungsproblem era uno de esos problemas.
Cuando Turing redactó su articulo, desconocia los trabajos de Church-Kleene, pero durante el proceso de revisión tuvo conocimiento de estos trabajos de forma que cuando su artículo fué publicado le anexionó un apéndice demostrando que los conceptos de función -definible y función calculable por medio de una máquina de Turing coinciden. Naturalmente a la luz de esto la Tesis de Turing resulta ser equivalente a la de Church.
Finalmente, cabe reseñar el trabajo de E. Post. Este estaba interesado en marcar la frontera entre lo que se puede hacer en matemáticas simplemente por procedimientos formales y lo que depende de la comprensión y el entendimiento. De esta forma, Post formula un modelo de procedimiento efectivo a través de los llamados sistemas deductivos normales. Estos son sistemas puramente formales en los que puede `deducirse' sucesiones finitas de símbolos como consecuencia de otras sucesiones finitas de símbolos por medio de un tipo normalizado de reglas y a partir de un conjunto de axiomas. Así pues, dada una sucesión finita de símbolos como entrada, las reglas permiten convertirla en una sucesión finita de salida. En su artículo, Post demostró resultados de incompletitud e indecibilidad en estos sistemas.
Post conocía los trabajos de Church-Kleene, si bien desconocia el trabajo de Turing, de tal forma que el modelo de procedimiento efectivo de Post, en esencia, difiere muy poco de las máquinas de Turing.
Los resultados hasta ahora citados, correspondientes al periodo 1931-36, se refieren a funciones totales. La existencia de algoritmos que con determinadas entradas nunca terminan, condujo de forma natural a considerar funciones parciales. Kleene fué el primero en hacer tal consideración en 1938. El estudio de estas funciones ha mostrado la posibilidad de generalizar todos los resultados anteriores a funciones parciales. Por otro lado, el estudio de las funciones parciales calculables ha resultado esencial para el posterior desarrollo de la materia. De hecho las funciones parciales son necesarias para la demostración del teorema del punto fijo, y en particular del primer teorema de recursión de Kleene (1952).
Posteriormente, se demostró la equivalencia entre lo que se podía calcular mediante una máquina de Turing y lo que se podía calcular mediante un sistema formal en general:
Teorema. En los sistemas deductivos donde el conjunto de reglas de producción, y el conjunto de axiomas sea recursivamente enumerable, una función (parcial) aritmética es calculable si y solo si es una función (parcial) recursiva.
A la vista de estos resultados, la Tesis de Church-Turing es aceptada como un axioma en la teoría de la computación, postulado que ha servido como punto de partida para la investigación de los problemas que se pueden resolver mediante un algoritmo.

TEOREMA DE GÖDEL


Y, sin embargo, desde el punto de vista de la necesaria autocomprensión de lo que la actividad matemática es en realidad, ningún teorema ni teoría pueden ser comparados en profundidad e importancia para el pensamiento matemático con lo que representa el teorema de Gödel sobre la necesaria incompletitud de cualquier sistema matemático. En este aspecto, el auténtico teorema del siglo 20, mucho más que el de Fermat o el de los cuatro colores, será, para la historia, el teorema de Gödel.
El teorema de Gödel es la respuesta tajante y frustradora al sueño que Hilbert expresaba en 1925, en su artículo famoso Über das Unendliche: "En cierto sentido la matemática se ha convertido en una corte de arbitraje, un tribunal supremo para decidir cuestiones fundamentales sobre una base concreta en la que todos pueden concordar y donde cada afirmación sea controlable,...Un ejemplo del tipo de cuestiones fundamentales que pueden ser tratadas de este modo es la tesis de que todo problema matemático es soluble. Todos nosotros estamos convencidos de que realmente es así. De hecho uno de los principales atractivos para atacar un problema matemático es que siempre oímos esta voz dentro de nosotros: Ahí está el problema, encuentra la contestación, siempre la puedes encontrar puramente pensando, pues en matemática no hay ningún ignorabimus".
Hilbert trató de realizar este sueño de cerciorarse del "no ignoraremos" a través del proceso de formalización, es decir, tratando de considerar la matemática como un sistema formal, una especie de juego de símbolos, como las fichas de ajedrez, en un principio desprovistos por sí mismos de significado que lo adquieren a través de las convenciones iniciales de los postulados o axiomas del sistema. Estos objetos se manipulan a través de las reglas de manejo que sus definiciones introducen y a través de las reglas de implicación lógica en las que todos convenimos. Así van resultando los teoremas del sistema. Se trataría entonces de asegurarse de que cualquier proposición que se pueda proponer en el sistema con sentido dentro de él podría ser demostrada o bien refutada, es decir su negación demostrada.
En su artículo Sobre proposiciones formalmente indecidibles de los Principia Mathematica y sistemas emparentados, en 1931, Kurt Gödel demostraba con la esperanza de Hilbert. En cualquier sistema formal en el que se pueda desarrollar la aritmética existen proposiciones legítimas del sistema que son indecidibles, es decir ni su afirmación ni su negación son demostrables. Y una de ellas es la que afirma la consistencia del sistema, es decir la imposibilidad de que en él aparezcan contradicciones.


En un artículo de 1931, Gödel demostró que ha de existir algún enunciado concerniente a los números naturales que es verdadero, pero no puede ser demostrado. O sea, que existen objetos que obedecen a los axiomas de la teoría de números, pero que, en otros aspectos, dejan de comportarse como números ("teorema de incompletitud"). Si los axiomas no se contradicen entre sí, entonces, ese mismo hecho, codificado en enunciado numérico será "formalmente indecidible" –esto es, ni demostrable ni refutable- a partir de dichos axiomas. Cualquier demostración de consistencia habrá de apelar a principios más fuertes que los propios axiomas.

El teorema afirmaba que ningún sistema de leyes (axiomas o reglas) puede tener potencia suficiente para demostrar todos los enunciados verdaderos de la aritmética, sin ser al mismo tiempo tan fuerte que demuestre también enunciados falsos. El resultado frustró a Hilbert, quien tenía confianza en la posibilidad de fijar los fundamentos de las matemáticas mediante un proceso "autoconstructivo", en el que la consistencia pudiera deducirse de una teoría lógica sencilla y evidente. Gödel no creyó que sus conclusiones demostrasen la arbitrariedad del método axiomático- deductivo, sino sólo que la deducción de teoremas no puede mecanizarse del todo, justificando así el papel de la intuición en la investigación formal.

La generalización de sus ideas han permitido la deducción de diversas consecuencias relativas a los límites de los procesos informáticos y computacionales. Una de ellas es la demostración de que ningún programa que no altere el sistema operativo de un ordenador será capaz de detectar todos los programas que sí lo hagan (virus). La consecuencia parece ampliable incluso a campos tan distantes como el uso policial de la violencia o la filosofía de las matemáticas y la lógica. En este último campo, el teorema de Gödel debilita el proyecto de una reducción logicista de la matemática.

 


Home - IA - Tareas - Prácticas - Noticias - Descargas - Integrantes