INTRODUCCIÓN
La inteligencia artificial tiene varios
fundamentos como la filosofía, economía, neurociencia, matemática, etc., cada
una de ellas ha aportado para el crecimiento de la IA, esta clase fue impartida por la Docente
Hiraida Santana y el tema el cual expuso está en el silabo del curso el tema a
tratar es sobre los fundamentos de la
IA.
Además, no solo recibimos clase de la docente
si no también hubo diferentes exposiciones
que aportaban a la clase. El objetivo de la clase fue que los alumnos aprendieran
con que ramas la IA esta relacionada.
La IA viene siendo estudiada indirectamente
desde hace siglos, y en la actualidad es la unión de diferentes ramas, y el
objetivo fundamental es el estudio del razonamiento, cómo funciona el cerebro
humano.
MARCO
TEÓRICO
FUNDAMENTOS
DE LA INTELIGENCIA ARTIFICIAL
Filosofía (desde el año 428 a.C.
hasta el presente)
Aristóteles (384-322 a.C.) fue el primero en
formular un conjunto preciso de leyes que gobernaban la parte racional de la inteligencia.
Él desarrolló un sistema informal para razonar adecuadamente con silogismos,
que en principio permitía extraer conclusiones mecánicamente, a partir de
premisas iniciales. Ramón Lull (d. 1315) tuvo la idea de que el razonamiento
útil se podría obtener por medios artificiales. Thomas Hobbes (1588-1679)
propuso que el razonamiento era como la computación numérica, de forma que «nosotros
sumamos y restamos silenciosamente en nuestros pensamientos». La primera
máquina calculadora conocida se construyó alrededor de 1623 por el científico
alemán Wilhelm Schickard (1592-1635), aunque la Pascalina, construida en 1642
por Blaise Pascal (1623-1662), sea más famosa. Pascal escribió que «la máquina
aritmética produce efectos que parecen más similares a los pensamientos que a
las acciones animales». Gottfried Wilhelm Leibniz (1646-1716) construyó un
dispositivo mecánico con el objetivo de llevar a cabo operaciones sobre
conceptos en lugar de sobre números, pero su campo de acción era muy limitado.
René Descartes (1596-1650) proporciona la
primera discusión clara sobre la distinción entre la mente y la materia y los
problemas que surgen. Uno de los problemas de una concepción puramente física
de la mente es que parece dejar poco margen de maniobra al libre albedrío: si
el pensamiento está totalmente gobernado por leyes físicas, entonces una piedra
podría «decidir» caer en dirección al centro de la Tierra gracias a su libre
albedrío. A pesar de ser denodado defensor de la capacidad de razonamiento,
Descartes fue un defensor del dualismo. Sostenía que existe una parte de la
mente (o del alma o del espíritu) que está al margen de la naturaleza, exenta
de la influencia de las leyes
físicas. Los animales, por el contrario, no poseen esta cualidad dual; a ellos
se le podría concebir como si se tratasen de máquinas. Una alternativa al
dualismo es el materialismo, que considera que las operaciones del cerebro
realizadas de acuerdo a las leyes de la física constituyen la mente. El libre
albedrío es simplemente la forma en la que la percepción de las opciones
disponibles aparecen en el proceso de selección.
Este asunto es vital para la IA, ya que la
inteligencia requiere tanto acción como razonamiento. Más aún, simplemente con
comprender cómo se justifican determinadas acciones se puede llegar a saber
cómo construir un agente cuyas acciones sean justificables (o racionales).
Aristóteles argumenta que las acciones se pueden justificar por la conexión
lógica entre los objetivos y el conocimiento de los efectos de las acciones,
El algoritmo de Aristóteles se implementó
2.300 años más tarde por Newell y Simón con la ayuda de su programa SRGP «Sistema
de Resolución General de Problemas». El cual se conoce como sistema de
planificación regresivo.
Matemáticas (aproximadamente
desde el año 800 al presente)
Los filósofos delimitaron las ideas más
importantes de la IA, pero para pasar de ahí a una ciencia formal es necesario
contar con una formulación matemática en tres áreas fundamentales: lógica,
computación y probabilidad.
El concepto de lógica formal se remonta a los
filósofos de la antigua Grecia, pero su desarrollo matemático comenzó realmente
con el trabajo de George Boole (1815-1864) que definió la lógica proposicional
o Booleana (Boole, 1847). En 1879, Gottlob Frege (1848-1925) extendió la lógica
de Boole para incluir objetos y relaciones, y creó la lógica de primer orden
que se utiliza hoy como el sistema más básico de representación de
conocimiento. Alfred Tarski (1902-1983) introdujo una teoría de referencia que
enseña cómo relacionar objetos de una lógica con objetos del mundo real. El
paso siguiente consistió en definir los límites de lo que se podía hacer con la
lógica y la informática.
Se piensa que el primer algoritmo no trivial
es el algoritmo Euclídeo para el cálculo del máximo común divisor. El
considerar los algoritmos como objetos en sí mismos se remonta a la época de
al-Khowarazmi, un matemático persa del siglo ix, con cuyos escritos también se
introdujeron los números arábigos y el álgebra en Europa. Boole, entre otros,
presentó algoritmos para llevar a cabo deducciones lógicas y hacia el final del
siglo xix se llevaron a cabo numerosos esfuerzos para formalizar el
razonamiento matemático general con la lógica deductiva. En 1900, David Hilbert
(1862-1943) presentó una lista de 23 problemas, en el último de ellos se
preguntaba si existe un algoritmo que permita determinar la validez de
cualquier proposición lógica en la que aparezcan números naturales.
Básicamente, lo que Hilbert se preguntaba es si hay límites fundamentales en la
capacidad de los procedimientos efectivos de demostración. En 1930, Kurt Godel
(1906-1978) demostró que existe un procedimiento eficiente para demostrar
cualquier aseveración verdadera en la lógica de primer orden de Frege y
Russell, sin embargo con la lógica de primer orden no era posible capturar el
principio de inducción matemática necesario para la caracterización de los
números naturales. En 1931, demostró que, en efecto, existen límites reales.
Mediante su teorema de incompletitud demostró que en cualquier lenguaje que tuviera
la capacidad suficiente para expresar las propiedades de los números naturales,
existen aseveraciones verdaderas no decidible en el sentido de que no es
posible decidir su validez mediante ningún algoritmo.
El resultado fundamental anterior se puede
interpretar también como la indicación de que existen algunas funciones de los
números enteros que no se pueden representar mediante un algoritmo, es decir no
se pueden calcular. Lo anterior llevó a Alan Turing (1912-1954) a tratar de
caracterizar exactamente aquellas funciones que sí eran susceptibles de ser
caracterizadas. La noción anterior es de hecho problemática hasta cierto punto,
porque no es posible dar una definición formal a la noción de cálculo o
procedimiento efectivo. Turing también demostró que existen algunas funciones
que no se pueden calcular mediante la máquina de Turing. Por ejemplo, ninguna
máquina puede decidir en general si un programa dado producirá una respuesta a
partir de unas entradas, o si seguirá calculando indefinidamente.
Si bien ser no decidible ni computable son
importantes para comprender el proceso del cálculo, la noción de intratabilidad
tuvo repercusiones más importantes. En términos generales se dice que un
problema es intratable si el tiempo necesario para la resolución de casos
particulares de dicho problema crece exponencialmente con el tamaño de dichos
casos. Es importante porque un crecimiento exponencial implica la imposibilidad
de resolver casos moderadamente grandes en un tiempo razonable. Por tanto, se
debe optar por dividir el problema de la generación de una conducta inteligente
en subproblemas que sean tratables en vez de manejar problemas intratables.
Steven Cook (1971) y Richard Karp (1972) demostraron la existencia de grandes clases de
problemas de razonamiento y búsqueda combinatoria canónica que son NP completos.
Toda clase de problema a la que la clase de problemas NP completos se pueda
reducir será seguramente intratable.
Recientemente la IA ha ayudado a explicar por
qué algunos ejemplos de problemas NP completos son difíciles de resolver y
otros son fáciles.
Además de la lógica y el cálculo, la tercera
gran contribución de las matemáticas a la IA es la teoría de la probabilidad.
El italiano Gerolamo Cardano (1501-1576) fue el primero en proponer la idea de
probabilidad, presentándola en términos de los resultados de juegos de apuesta.
La probabilidad se convirtió pronto en parte imprescindible de las ciencias
cuantitativas, ayudando en el tratamiento de mediciones con incertidumbre y de
teorías incompletas. Pierre Fermat (1601-1665), Blaise Pascal (1623-1662),
James Bernoulli (1654-1705), Pierre Laplace (1749-1827), entre otros, hicieron
avanzar esta teoría e introdujeron nuevos métodos estadísticos. Thomas Bayes (1702-1761)
propuso una regla para la actualización de probabilidades subjetivas a la luz
de nuevas evidencias. La regla de Bayes y el área resultante llamado análisis
Bayesiano conforman la base de las propuestas más modernas que abordan el
razonamiento incierto en sistemas de IA.
Economía (desde el año 1776 hasta
el presente)
La mayor parte de la gente cree que la
economía sólo se trata de dinero, pero los economistas dicen que ellos
realmente estudian cómo la gente toma decisiones que les llevan a obtener los
beneficios esperados. La teoría de la decisión, que combina la teoría de la
probabilidad con la teoría de la utilidad, proporciona un marco completo y
formal para la toma de decisiones (económicas o de otra índole) realizadas bajo
incertidumbre, esto es, en casos en los que las descripciones probabilísticas
capturan adecuadamente la forma en la que se toman las decisiones en el
entorno; lo cual es adecuado para «grandes» economías en las que cada agente no
necesita prestar atención a las acciones que lleven a cabo el resto de los
agentes individualmente. Cuando se trata de «pequeñas» economías, la situación
se asemeja más a la de un juego; las acciones de un jugador pueden afectar
significativamente a la utilidad de otro (tanto positiva como negativamente).
Los desarrollos de von Neumann y Morgenstern a partir de la teoría de juegos mostraban el hecho sorprendente de que, en
algunos juegos, un agente racional debía actuar de forma aleatoria o, al menos,
aleatoria en apariencia con respecto a sus contrincantes.
El trabajo en la economía y la investigación
operativa ha contribuido en gran medida a la noción de agente racional que aquí
se presenta, aunque durante muchos años la investigación en el campo de la IA
se ha desarrollado por sendas separadas. Una razón fue la complejidad aparente
que trae consigo el tomar decisiones racionales.
Neurociencia (desde el año 1861
hasta el presente)
La Neurotioicia es el estudio del sistema
neurológico, y en especial del cerebro. La forma exacta en la que en un cerebro
se genera el pensamiento es uno de los grandes misterios de la ciencia. Se ha
observado durante miles de años que el cerebro está de alguna manera
involucrado en los procesos de pensamiento, ya que fuertes golpes en la cabeza
pueden ocasionar minusvalía mental. También es ampliamente conocido que los cerebros
humanos son de alguna manera diferentes.
El estudio de Paul Broca (1824-1880) sobre la
afasia (dificultad para hablar) en pacientes con el cerebro dañado, en 1861, le
dio fuerza a este campo y convenció a la sociedad médica de la existencia de
áreas localizadas en el cerebro responsables de funciones cognitivas
específicas.
Cerebros y computadores digitales realizan
tareas bastante diferentes y tienen propiedades distintas. La ley de Moore
predice que el número de puertas lógicas de la UCP se igualará con el de
neuronas del cerebro alrededor del año 2020. Por supuesto, poco se puede
inferir de esta predicción; más aún, la diferencia en la capacidad de
almacenamiento es insignificante comparada con las diferencias en la velocidad
de intercambio y en paralelismo. Los circuitos de los computadores pueden
ejecutar una instrucción en un nanosegundo, mientras que las neuronas son
millones de veces más lentas. Las neuronas y las sinapsis del cerebro están
activas simultáneamente, mientras que los computadores actuales tienen una o
como mucho varias UCP. Por tanto, incluso sabiendo que un computador es un
millón de veces más rápido en cuanto a su velocidad de intercambio, el cerebro
acaba siendo 100.000 veces más rápido en lo que hace.
Psicología (desde el año 1879
hasta el presente)
La psicología científica se inició con los
trabajos del físico alemán Hermann von Helmholtz (1821-1894), y su discípulo
Wilhelm Wundt (1832-1920). Helmholtz aplicó el método científico al estudio de
la vista humana, y su obra Handbook of Physiological Optics. En 1879, Wundt
abrió el primer laboratorio de psicología experimental en la Universidad de
Leipzig. Wundt puso mucho énfasis en la realización de experimentos controlados
cuidadosamente en la que sus operarios realizaban tareas de percepción o
asociación al tiempo que sometían a introspección sus procesos mentales. Los
meticulosos controles evolucionaron durante un largo período de tiempo hasta
convertir la psicología en una ciencia, pero la naturaleza subjetiva de los
datos hizo poco probable que un investigador pudiera contradecir sus propias
teorías. El movimiento conductista, liderado por John Watson (1878-1958) aplicó
este punto de vista a los humanos, rechazando cualquier teoría en la que
intervinieran procesos mentales, argumentando que la introspección no aportaba
una evidencia fiable. Los conductistas insistieron en el estudio exclusivo de
mediciones objetivas de percepciones (o estímulos) sobre animales y de las
acciones resultantes (o respuestas).
Kenneth Craik (1943), establece tres
elementos clave que hay que tener en cuenta para diseñar un agente basado en
conocimiento: (1) el estímulo deberá ser traducido a una representación interna,
(2) esta representación se debe manipular mediante procesos cognitivos para así
generar nuevas representaciones internas, y (3) éstas, a su vez, se traducirán
de nuevo en acciones.
Los psicólogos comparten en la actualidad el
punto de vista común de que «la teoría cognitiva debe ser como un programa de
computadora, o dicho de otra forma, debe describir un mecanismo de
procesamiento de información detallado, lo cual lleva consigo la implementación
de algunas funciones cognitivas.
Ingeniería computacional (desde
el año 1940 hasta el presente)
Para que la inteligencia artificial pueda
llegar a ser una realidad se necesitan dos cosas: inteligencia y un artefacto.
El computador ha sido el artefacto elegido. El computador electrónico digital
moderno se inventó de manera independiente y casi simultánea por científicos en
tres países involucrados en la Segunda Guerra Mundial. El equipo de Alan Turing
construyó, en 1940, el primer computador operacional de carácter
electromecánico, llamado Heath Robinson, con un único propósito: descifrar
mensajes alemanes. En 1943 el mismo grupo desarrolló el Colossus, una máquina
potente de propósito general basada en válvulas de vacío. El primer computador
operacional programable fue el Z-3, inventado por Konrad Zuse en Alemania, en
1941. Zuse también inventó los números de coma flotante y el primer lenguaje de
programación de alto nivel, Plankalkúl. El primer computador electrónico, el
ABC, fue creado por John Atanasoff junto a su discípulo Clifford Beny entre
1940 y 1942 en la Universidad Estatal de Iowa. Las investigaciones de Atanasoff
recibieron poco apoyo y reconocimiento; el ENIAC, desarrollado en el marco de
un proyecto militar secreto, en la Universidad de Pensilvania, por un equipo en
el que trabajaban entre otros John Mauchly y John Eckert, puede considerarse como
el precursor de los computadores modernos.
Por supuesto que antes de la aparición de los
computadores ya había dispositivos de cálculo. Las primeras máquinas
automáticas, que datan del siglo XVII. La primera máquina programable fue un
telar, desarrollado en 1805 por Joseph Marie Jacquard (1752-1834) que utilizaba
tarjetas perforadas para almacenar información sobre los patrones de los bordados.
A mediados del siglo XIX, Charles Babbage (1792-1871) diseñó dos máquinas, La
«Máquina de Diferencias», se concibió con la intención de facilitar los
cálculos de tablas matemáticas para proyectos científicos y de ingeniería. Finalmente
se construyó y se presentó en 1991 en el Museo de la Ciencia de Londres. La
«Máquina Analítica» de Babbage era mucho más ambiciosa: incluía memoria
direccionable, programas almacenados y saltos condicionales; fue el primer artefacto
dotado de los elementos necesarios para realizar una computación universal.
La IA también tiene una deuda con la parte
software de la informática que ha proporcionado los sistemas operativos, los
lenguajes de programación, y las herramientas necesarias para escribir
programas. Sin embargo, en este área la deuda se ha saldado: la investigación
en IA ha generado numerosas ideas novedosas de las que se ha beneficiado la
informática en general, como por ejemplo el tiempo compartido, los intérpretes
imperativos, los computadores personales con interfaces gráficas y ratones,
entornos de desarrollo rápido, listas enlazadas, administración automática de
memoria, y conceptos claves de la programación simbólica, funcional, dinámica y
orientada a objetos.
Teoría de control y cibernética
(desde el año 1948 hasta el presente)
Ktesibios de Alejandría (250 a.C.) construyó
la primera máquina auto controlada; un reloj de agua con un regulador que
mantenía el flujo de agua circulando por él, con un ritmo constante y
predecible. Esta invención cambió la definición de lo que un artefacto podía hacer.
Anteriormente, solamente seres vivos podían modificar su comportamiento como
respuesta a cambios en su entorno. Otros ejemplos de sistemas de control auto
regulables y retroalimentados son el motor de vapor, creado por James Watt
(1736-1819), y el termostato, inventado por Cornelis Drebbel (1572-1633), que
también inventó el submarino. La teoría matemática de los sistemas con
retroalimentación estables se desarrolló en el siglo xix.
La teoría de control moderna, especialmente
la rama conocida como control óptimo estocástico, tiene como objetivo el diseño
de sistemas que maximizan una fundón objetivo en el tiempo. Lo cual se asemeja
ligeramente a nuestra visión de lo que es la IA: diseño de sistemas que se
comportan de forma óptima. El cálculo y el álgebra matricial, herramientas de
la teoría de control, se utilizaron en la definición de sistemas que se podían
describir mediante conjuntos fijos de variables continuas: más aún, el análisis
exacto es sólo posible en sistemas lineales. La IA se fundó en parte para
escapar de las limitaciones matemáticas de la teoría de control en los años 50.
Las herramientas de inferencia lógica y computación permitieron a los
investigadores de IA afrontar problemas relacionados con el lenguaje, visión y
planificación, que estaban completamente fuera del punto de mira de la teoría
de control.
Lingüística (desde el año 1957
hasta el presente)
La lingüística moderna y la IA «nacieron», al
mismo tiempo y maduraron juntas, solapándose en un campo híbrido llamado Lingüística
computacional o procesamiento del lenguaje natural. El problema del
entendimiento del lenguaje se mostró pronto mucho más complejo de lo que se
había pensado en 1957. El entendimiento del lenguaje requiere la comprensión de
la materia bajo estudio y de su contexto, y no solamente el entendimiento de la
estructura de las sentencias. Lo cual puede parecer obvio, pero no lo fue para
la mayoría de la comunidad investigadora hasta los años 60. Gran parte de los
primeros trabajos de investigación en el área de la representación del
conocimiento (el estudio de cómo representar el conocimiento de forma que el
computador pueda razonar a partir de dicha representación) estaban vinculados
al lenguaje y a la búsqueda de información en el campo del lenguaje, y su base
eran las investigaciones realizadas durante décadas en el análisis filosófico
del lenguaje.
CONCLUSIÓN
La IA no es algo que estamos tratando de
ahora la IA viene ya desde hace mucho tiempo solo que ahora está mucho más avanzada.
La clase obtuvo el objetivo deseado ya que el estudiante aprendió sobre donde
la inteligencia artificial también es aplicada. En las diferente ramas que se
esparce.
BIBLIOGRAFÍA
Russell, S, y Norving P. 2004. Inteligencia
Artificial Un Enfoque Moderno. 2da ed.
Cap. 1. Pág. 1-33.
Arias, A. 2012. Fundamentos de Inteligencia
Artificial: Entrevista con Antonio Benítez. Ciencia Cognitiva. En línea.
Formato HTML. Disponible en:
http://www.academia.edu/1766647/Fundamentos_de_Inteligencia_Artificial_Entrevista_con_Antonio_Benitez
No hay comentarios:
Publicar un comentario