sábado, 9 de agosto de 2014

REFERENCIA DEL AUTOR



Zambrano Zambrano María Lourdes






Nació en Manta Cantón Manta, el 12 de Mayo de 1993, realizó sus estudios primarios en la Escuela Fiscal Simón Bolívar, sus estudios secundarios los realizó en la Unidad Educativa Nacional “13 de Octubre”, obtuvo el título de bachiller en Físico Matemático, actualmente cursa sus estudios superiores en la Escuela Superior Politécnica Agropecuaria de Manabí Manuel Félix López, está en sexto semestre de la carrera de Informática.

EXPOSICIÓN



INTRODUCCIÓN

Este tema fuel la ultimo clase de la materia estas fueron exposiciones realizadas por los estudiante. El objetivo de la clase es reconocer los diferentes tipos de rede neuronales tenemos el percertrón unicapa multicaca el adeline las de base radial y asi muchos mas.

MARCO TEÓRICO

REDES DE NEURONAS DE BASE RADIAL


Las redes de neuronas de base radial son redes multicapa con conexiones hacia adelante, al igual que el PERCETRON multicapa.
Las redes de base radial se caracterizan porque están formadas por una única capa oculta y cada neurona  de esta capa posee un carácter local. Cada neurona oculta se activa en una región distinta del espacio de entrada. El carácter local se debe al uso de las funciones de base radial como funciones  de activación, generalmente la función gaussiana.
Las neuronas de salida realizan una combinación lineal de las activaciones  de las neuronas ocultas.
La mayor contribución a la teoría, diseño y aplicaciones de las redes de neuronas de base radial se debe a Moody y Darken (1989), Renals (1989), Poggio y Girossi (1990). Uno de los objetivos principales  era construir una red de neuronas que requiriese un menor tiempo de aprendizaje que el del PERCEPTRON multicapa.
Al igual que el PERCEPTRON multicapa, las redes de neuronas de base radial son aproximadores universales, en el sentido de que pueden aproximar cualquier  función continua sobre un compacto de R^n.
Las funciones de base radial (RBF) definen hiperesferas o hiperelipses  que dividen el espacio de entrada. Cada RBF (cada neurona) construye una aproximación local no lineal en una determinada región del espacio de entrada.
Se han aplicado a gran variedad de problemas:
– Análisis de series temporales
– Procesamiento de imágenes
– Reconocimiento automático del habla
– Diagnósticos médicos, etc

ARQUITECTURA DE LAS REDES DE BASE RADIAL
Cada red de base radial tiene 3 capas diferentes en total:
Capa de entrada: Transmiten las señales de entrada a las neuronas ocultas sin realizar procesamiento, es decir, las conexiones de la capa de entrada a la capa oculta no llevan pesos asociados.
Capa oculta: Realizan una transformación local y no lineal de dichas señales.
Capa de salida: Realiza una combinación lineal de las activaciones de las neuronas ocultas.

ACTIVACIONES DE LAS REDES DE BASE RADIAL
Dada una red de base radial con espacio de entrada de p dimensiones, espacio de salida de r dimensiones, m neuronas ocultas, las activaciones de las neuronas de salida para el patrón de entrada n serán:
Patrón de entrada: X(n)=(x1(n), x2(n),.... xp(n)), denotamos como yk(n), viene dadas por la siguiente expresión:


wik: peso de la conexión de la neurona oculta i a la de salida k
• φi(n): activación de la neurona oculta i
• uk : umbral de la neurona de salida k
Funciones de base radial determinan las activaciones de las neuronas ocultas en función del vector de entrada.


Φ: es una función de base radial
Ci=(ci1, c12, ...cip) son vectores: centros de las funciones de base radial
di: son números reales: desviaciones de las funciones
|| . ||: es la distancia euclídea desde el vector de entrada al centro de la función, definida como:


Funciones de base radial más habituales:



APRENDIZAJE DE LAS REDES DE BASE RADIAL
El proceso de aprendizaje implica la determinación de todos los parámetros que intervienen en la red de base radial. Estos son: los centros y las desviaciones de las neuronas ocultas y los pesos de la capa oculta a la capa de salida, así como los umbrales de las neuronas de salida.
Debido a que las capas de neuronas en una red de base radial realizan tareas diferentes, es razonable separar el proceso de optimización de los parámetros de la capa oculta y los de la capa de salida mediante la utilización de diferentes técnicas.

MÉTODO DE APRENDIZAJE HÍBRIDO
Realiza el aprendizaje en dos fases:
Fase no supervisada: determinación de los centros y amplitudes de  las neuronas de la capa oculta.
Fase supervisada: determinación de pesos y umbrales de la capa de  salida.
FASE NO SUPERVISADA
Puesto que las neuronas ocultas se caracterizan porque representan zonas diferentes del espacio de entradas, los centros y las desviaciones deben de ser calculados con este objetivo (clasificar el espacio de entradas en diferentes clases).
Determinación de los centros
El método más utilizado para la determinación de los centros es el algoritmo de K- medias.
Los pasos para la aplicación del algoritmo son los siguientes:
1.    Se inicializan aleatoriamente los centros de los K clusters (centroides)
2.    Se asignan Ni patrones de entrada a cada cluster i del siguiente modo
– El patrón X(n) pertenece al cluster i si


– Por tanto, cada cluster tendrá asociado un determinado número de patrones de entrada, aquellos más cercanos a su centroide
3. Se calcula la nueva posición de los centroides como la media de todos
los patrones que pertenecen al cluster, es decir:



4. Se repiten los pasos 2 y 3 hasta que las nuevas posiciones de los  centroides no se modifiquen respecto a su posición anterior, es decir  hasta que:


Determinación las Amplitudes
Se deben de calcular de manera que cada  neurona de la capa oculta se active en  una región del espacio de entradas y de  manera que el solapamiento de las zonas  de activación de una neurona sea lo más  ligero posible, para suavizar así la  interpolación.
Varias aproximaciones:
• Media Uniforme de las distancias euclídeas del centro Ci a los p centros más cercanos.


• Media geométrica de la distancia del centro a sus dos vecinos más cercanos
.

con Ct y Cs los más cercanos a Ci


FASE SUPERVISADA
En esta fase se calculan los pesos y umbrales de las neuronas de salida de la red; el objetivo es minimizar las diferencias entre las salidas de la red y  las salidas deseadas, el proceso de aprendizaje está guiado por la minimización de una función error computada en la salida de la red:



Como la salida de la red (yk) depende linealmente de los pesos, puede utilizarse un método directo (Método de la seudoinversa), o bien el método de mínimos cuadrados.

MÉTODO DE APRENDIZAJE TOTALMENTE SUPERVISADO
A diferencia con el método anterior, este tipo de aprendizaje no conserva, en principio, las propiedades o características locales de las redes de base radial. En este caso, todos los parámetros de la red, centros, amplitudes, pesos y umbrales, se determinan de manera completamente supervisada y con el objetivo de minimizar el error cuadrático medio.
En este proceso, en ningún momento se tiene en cuenta que las amplitudes alcancen valores tales que el solapamiento de las activaciones de las neuronas de la capa oculta sea lo más suave posible. Así que en principio, esa característica de localidad se puede perder.
Cálculo de parámetros:





BIBLIOGRAFÍA
Valls, J.2007, Redes de Neuronas. (En línea). ES. Formato PDF. Consultado, el 19 de Julio 2014. Disponible en: http://eva.evannai.inf.uc3m.es/et/docencia/rn-inf/documentacion/Tema4-RNBR.pdf


Isasi, P. Galván, I. 2004, Redes Neuronales Artificiales un Enfoque Práctico. ES. Formato PDF. Pág. 75 hasta la 99. Volumen 2.

3.1 DEFINICIÓN Y RESEÑA HISTORICA DE LA RNA ; 3.2 CARACTERÍSTICAS




INTRODUCCIÓN
En esta clase abarcamos todo el capítulo de las redes neuronales artificiales las cuales son un paradigma de aprendizaje ya que lo que intentan con esto es simular las neuronas y el cerebro humano para que realice un trabajo perfecto.
Esta clase tiene como objetivo guiar al estudiante en la introducción sobre las redes neuronales artificiales.

MARCO TEÓRICO


HISTORIA

Los primeros modelos de redes neuronales datan de 1943 por los neurólogos McCulloch y Pitts. Años más tarde, en 1949, Donald Hebb desarrolló sus ideas sobre el aprendizaje neuronal, quedando reflejado en la "regla de Hebb". En 1958, Rosemblatt desarrolló el perceptrón simple, y en 1960, Widrow y Hoff desarrollaron el ADALINE, que fue la primera aplicación industrial real.
En los años siguientes, se redujo la investigación, debido a la falta de modelos de aprendizaje y el estudio de Minsky y Papert sobre las limitaciones del perceptrón. Sin embargo, en los años 80, volvieron a resurgir las RNA gracias al desarrollo de la red de Hopfield, y en especial, al algoritmo de aprendizaje de retropropagación ideado por Rumelhart y McLellan en 1986 que fue aplicado en el desarrollo de los perceptrones multicapa.

PROPIEDADES

Una red neuronal se compone de unidades llamadas neuronas. Cada neurona recibe una serie de entradas a través de interconexiones y emite una salida. Esta salida viene dada por tres funciones:
Una función de propagación (también conocida como función de excitación), que por lo general consiste en el sumatorio de cada entrada multiplicada por el peso de su interconexión (valor neto). Si el peso es positivo, la conexión se denominaexcitatoria; si es negativo, se denomina inhibitoria.
Una función de activación, que modifica a la anterior. Puede no existir, siendo en este caso la salida la misma función de propagación.
Una función de transferencia, que se aplica al valor devuelto por la función de activación. Se utiliza para acotar la salida de la neurona y generalmente viene dada por la interpretación que queramos darle a dichas salidas. Algunas de las más utilizadas son la función sigmoidea (para obtener valores en el intervalo [0,1]) y la tangente hiperbólica (para obtener valores en el intervalo [-1,1]).



Diseño y programación de una RNA (red neuronal artificial)

Con un paradigma convencional de programación en ingeniería del software, el objetivo del programador es modelar matemáticamente (con distintos grados de formalismo) el problema en cuestión y posteriormente formular una solución (programa) mediante un algoritmo codificado que tenga una serie de propiedades que permitan resolver dicho problema. En contraposición, la aproximación basada en las RNA parte de un conjunto de datos de entrada suficientemente significativo y el objetivo es conseguir que la redaprenda automáticamente las propiedades deseadas. En este sentido, el diseño de la red tiene menos que ver con cuestiones como los flujos de datos y la detección de condiciones, y más que ver con cuestiones tales como la selección del modelo de red, la de las variables a incorporar y el preprocesamiento de la información que formará elconjunto de entrenamiento. Asimismo, el proceso por el que los parámetros de la red se adecuan a la resolución de cada problema no se denomina genéricamente programación sino que se suele denominar entrenamiento neuronal.
Por ejemplo en una red que se va a aplicar al diagnóstico de imágenes médicas; durante la fase de entrenamiento el sistema recibe imágenes de tejidos que se sabe son cancerígenos y tejidos que se sabe son sanos, así como las respectivas clasificaciones de dichas imágenes. Si el entrenamiento es el adecuado, una vez concluido, el sistema podrá recibir imágenes de tejidos no clasificados y obtener su clasificación sano/no sano con un buen grado de seguridad. Las variables de entrada pueden ser desde los puntos individuales de cada imagen hasta un vector de características de las mismas que se puedan incorporar al sistema (por ejemplo, procedencia anatómica del tejido de la imagen o la edad del paciente al que se le extrajo la muestra).
CARACTERÍSTICAS DE LAS REDES NEURONALES ARTIFICIALES
Las Redes Neuronales Artificiales, ANN (Artificial Neural Networks) están inspiradas en las redes neuronales biológicas del cerebro humano. Están constituidas por elementos que se comportan de forma similar a la neurona biológica en sus funciones más comunes. Estos elementos están organizados de una forma parecida a la que presenta el cerebro humano.
Las ANN al margen de "parecerse" al cerebro presentan una serie de características propias del cerebro. Por ejemplo las ANN aprenden de la experiencia, generalizan de ejemplos previos a ejemplos nuevos y abstraen las características principales de una serie de datos.
 Aprender: adquirir el conocimiento de una cosa por medio del estudio, ejercicio o experiencia. Las ANN pueden cambiar su comportamiento en función del entorno. Se les muestra un conjunto de entradas y ellas mismas se ajustan para producir unas salidas consistentes.
 Generalizar: extender o ampliar una cosa. Las ANN generalizan automáticamente debido a su propia estructura y naturaleza. Estas redes pueden ofrecer, dentro de un margen, respuestas correctas a entradas que presentan pequeñas variaciones debido a los efectos de ruido o distorsión.
 Abstraer: aislar mentalmente o considerar por separado las cualidades de un objeto. Algunas ANN son capaces de abstraer la esencia de un conjunto de entradas que aparentemente no presentan aspectos comunes o relativos.


CONCLUSIÓN
Esta clase concluye en que el objetivo de las redes neuronales artificiales es simular una neurona biológica pero hasta el momento no se ha podido concluir ya que es muy compleja a raíz de esto existen muchos proyectos sobre este tema.

BIBLIOGRAFÍA


P Isasi y I Galvan. 2004, Redes Neuronales Artificiales, Un Enfoque Práctico. Editorial, Pearson Educación S.A., Madrid


Basoqain, X. 2010. Redes neuronales artificiales y sus aplicaciones. (En línea). Formato PDF. Disponible en: http://cvb.ehu.es/open_course_ware/castellano/tecnicas/redes_neuro/contenidos/pdf/libro-del-curso.pdf

2.4 ESTRUCTURA Y FASES DE LOS AGENTES





INTRODUCCIÓN
La clase expuesta por la Docente de la materia Hiraida Santana del silabo este tema es sobre estructura y fases de los agentes, lo cual entendí que la estructura de un agente inteligente está compuesta por la arquitectura más su software o programa.
Esta clase realizamos un resumen de todo el capítulo dejando así tarea de refuerzo para la casa.

MARCO TEÓRICO

ESTRUCTURA DE LOS AGENTES
El trabajo de la IA es diseñar el programa agente implemente la función del agente que proyecta las percepciones en las acciones. Se asume que este programa se ejecutará en algún tipo de computador con sensores físicos y actuadores, lo cual se conoce como arquitectura:
Agente = arquitectura + programa
Obviamente, el programa que se elija tiene que ser apropiado para la arquitectura. Si el programa tiene que recomendar acciones como Caminar, la arquitectura tiene que tener piernas. En general, la arquitectura hace que las percepciones de los sensores estén disponibles para el programa, ejecuta los programas, y se encarga de que los actuadores pongan en marcha las acciones generadas.
PROGRAMAS DE LOS AGENTES
Los programas de los agentes tienen la misma estructura: reciben las percepciones actuales como entradas de los sensores y devuelven una acción a los  actuadores. Hay que tener en cuenta la diferencia entre los programas de los agentes, que toman la percepción actual como entrada, y la función del agente, que recibe la percepción histórica completa. Los programas de los agentes reciben sólo la percepción actual como entrada porque no hay nada más disponible en el entorno; si las acciones del agente dependen de la secuencia completa de percepciones, el agente tendría que recordar las percepciones.
El Agente-Dirigido-Mediante tabla hace lo que nosotros queremos: implementa la función deseada para el agente. El desafío clave de la IA es encontrar la forma de escribir programas, que en la medida de lo posible, reproduzcan un comportamiento racional a partir de una pequeña cantidad de código en vez de a partir de una tabla con un gran número de entradas.
Los cuatro tipos básicos de programas para agentes que encarnan los principios que subyacen en casi todos los sistemas inteligentes.
Agentes reactivos simples.
Agentes reactivos basados en modelos.
Agentes basados en objetivos.
Agentes basados en utilidad. Después se explica, en términos generales, cómo convertir todos ellos en agentes que aprendan.
Agentes reactivos simples
El tipo de agente más sencillo es el agente reactivo simple. Estos agentes seleccionan las acciones sobre la base de las percepciones actuales, ignorando el resto de las percepciones históricas
Los agentes reactivos simples tienen la admirable propiedad de ser simples, pero poseen una inteligencia muy limitada.
Los bucles infinitos son a menudo inevitables para los agentes reactivos simples que operan en algunos entornos parcialmente observables.
Salir de los bucles infinitos es posible si los agentes pueden seleccionar sus acciones aleatoriamente. Por tanto, un agente reactivo simple con capacidad para elegir acciones de manera aleatoria puede mejorar los resultados que proporciona un agente reactivo simple determinista.
Agentes reactivos basados en modelos
La forma más efectiva que tienen los agentes de manejar la visibilidad parcial es almacenar información de las partes del mundo que no pueden ver. O lo que es lo mismo, el agente debe mantener algún tipo de estado interno que dependa de la historia percibida y que de ese modo refleje por lo menos alguno de los aspectos no observables del estado actual.
La actualización de la información de estado interno según pasa el tiempo requiere codificar dos tipos de conocimiento en el programa del agente. Primero, se necesita alguna información acerca de cómo evoluciona el mundo independientemente del agente. Segundo, se necesita más información sobre cómo afectan al mundo las acciones del agente. Este conocimiento acerca de «cómo funciona el mundo», tanto si está implementado con un circuito booleano simple o con teorías científicas completas, se denomina modelo del mundo. Un agente que utilice este modelo es un agente basado en modelos.
Agentes basados en objetivos
El conocimiento sobre el estado actual del mundo no es siempre suficiente para decidir qué hacer. En otras palabras, además de la descripción del estado actual, el agente necesita algún tipo de información sobre su meta que describa las situaciones que son deseables. El programa del agente se puede combinar con información sobre los resultados de las acciones posibles (la misma información que se utilizó para actualizar el estado interno en el caso del agente reflexivo) para elegir las acciones que permitan alcanzar el objetivo.
En algunas ocasiones, la selección de acciones basadas en objetivos es directa, cuando alcanzar los objetivos es el resultado inmediato de una acción individual. En otras ocasiones, puede ser más complicado, cuando el agente tiene que considerar secuencias complejas para encontrar el camino que le permita alcanzar el objetivo.
Hay que tener en cuenta que la toma de decisiones de este tipo es fundamentalmente diferente de las reglas de condición-acción descritas anteriormente, en las que hay que tener en cuenta consideraciones sobre el futuro. En los diseños de agentes reactivos, esta información no está representada explícitamente, porque las reglas que maneja el agente proyectan directamente las percepciones en las acciones.
Aunque el agente basado en objetivos pueda parecer menos eficiente, es más flexible ya que el conocimiento que soporta su decisión está representado explícitamente y puede modificarse.
El comportamiento del agente basado en objetivos puede cambiarse fácilmente para que se dirija a una localización diferente.
Agentes basados en utilidad
Las metas por si solas no son realmente suficientes para generar comportamiento de gran calidad en la mayoría de los entornos. Las metas sólo proporcionan una cruda distinción binaria entre los estados de «felicidad» y «tristeza», mientras que una medida de eficiencia más general debería permitir una comparación entre estados del mundo diferentes de acuerdo al nivel exacto de felicidad que el agente alcance cuando se llegue a un estado u otro. Como el término «felicidad» no suena muy científico, la terminología tradicional utilizada en estos casos para indicar que se prefiere un estado del mundo a otro es que un estado tiene más utilidad que otro para el agente.
Una función de utilidad proyecta un estado (o una secuencia de estados) en un número real, que representa un nivel de felicidad. La definición completa de una función de utilidad permite tomar decisiones racionales en dos tipos de casos en los que las metas son inadecuadas. Primero, cuando haya objetivos conflictivos, y sólo se puedan alcanzar algunos de ellos (por ejemplo, velocidad y seguridad), la función de utilidad determina el equilibrio adecuado. Segundo, cuando haya varios objetivos por los que se pueda guiar el agente, y ninguno de ellos se pueda alcanzar con certeza, la utilidad proporciona un mecanismo para ponderar la probabilidad de éxito en función de la importancia de los objetivos.
Por tanto, un agente que posea una función de utilidad explícita puede tomar decisiones racionales, y lo puede hacer con la ayuda de un algoritmo de propósito general que no dependa de la función específica de utilidad a maximizar. De esta forma, la definición «global» de racionalidad (identificando como racionales aquellas funciones de los agentes que proporcionan el mayor rendimiento) se transforma en una restricción «local» en el diseño de agentes racionales que se puede expresar con un simple programa.
Agentes que aprenden
Se han descrito programas para agentes que poseen varios métodos para seleccionar acciones. Hasta ahora no se ha explicado cómo poner en marcha estos programas de agentes. Turing (1950), en su temprano y famoso artículo, consideró la idea de programar sus máquinas inteligentes a mano. Estimó cuánto tiempo podía llevar y concluyó que «Sería deseable utilizar algún método más rápido». El método que propone es construir máquinas que aprendan y después enseñarlas. En muchas áreas de IA, éste es ahora el método más adecuado para crear sistemas novedosos. El aprendizaje tiene otras ventajas, como se ha explicado anteriormente: permite que el agente opere en medios inicialmente desconocidos y que sea más competente que si sólo utilizase un conocimiento inicial.
Un agente que aprende se puede dividir en cuatro componentes conceptuales. La distinción más importante entre elemento de aprendizaje y elemento de  actuación es que el primero está responsabilizado de hacer mejoras y el segundo se responsabiliza de la selección de acciones externas. El elemento de actuación es lo que anteriormente se había considerado como el agente completo: recibe estímulos y determina las acciones a realizar. El elemento de aprendizaje se realimenta con las críticas sobre la actuación del agente y determina cómo se debe modificar el elemento de actuación para proporcionar mejores resultados en el futuro.
El diseño del elemento de aprendizaje depende mucho del diseño del elemento de actuación. La crítica indica al elemento de aprendizaje qué tal lo está haciendo el agente con respecto a un nivel de actuación fijo. La crítica es necesaria porque las percepciones por sí mismas no prevén una indicación del éxito del agente. Es por tanto muy importante fijar el nivel de actuación. Conceptualmente, se debe tratar con el como si estuviese fuera del agente, ya que este no debe modificarlo para satisfacer su propio interés. El último componente del agente con capacidad de aprendizaje es el generador de problemas. Es responsable de sugerir acciones que lo guiaran hacia experiencias nuevas e informativas. Lo interesante es que si el elemento de actuación sigue su camino, puede continuar llevando a cabo las acciones que sean mejores, dado su conocimiento.
Pero si el agente está dispuesto a explorar un poco, y llevar a cabo algunas acciones que no sean totalmente optimas a corto plazo, puede descubrir acciones mejores a largo plazo. El trabajo del generador de problemas es sugerir estas acciones exploratorias. Esto es lo que los científicos hacen cuando llevan a cabo experimentos.
Los casos más simples incluyen el aprendizaje directo a partir de la secuencia percibida. La observación de pares de estados sucesivos del entorno puede permitir que el agente aprenda cómo evoluciona el mundo, y la observación de los resultados de sus acciones puede permitir que el agente aprenda que hacen sus acciones.
En resumen, los agentes tienen una gran variedad de componentes, y estos componentes se pueden representar de muchas formas en los programas de agentes, por lo que, parece haber una gran variedad de métodos de aprendizaje. Existe, sin embargo, una visión unificada sobre  un tema fundamental. El aprendizaje en el campo de los agentes inteligentes puede definirse como el proceso de modificación de cada componente del agente, lo cual permite a cada componente comportarse más en consonancia con la información que se recibe.

CONCLUSIÓN
A pesar de que la materia es muy teórica enriquece de conocimientos nuevos a los alumnos sobre toda este paradigma de los agentes inteligente saber cómo funciona todo esta tecnología en nuestro medio es impresionante.


BIBLIOGRAFÍA
Russell, S, y Norving P. 2004. Inteligencia Artificial Un Enfoque Moderno. 2da ed.  Cap. 2. Pág. 37-62.


Pavón, J. 2007. Agentes inteligentes modelos y arquitecturas. (En línea). Formato PDF. Disponible en: http://www.fdi.ucm.es/profesor/jpavon/doctorado/arquitecturas.pdf

2.3 LA NATURALEZA DEL ENTORNO




INTRODUCCIÓN
Esta clase empezó con sus respectivas narraciones de la clase anterior y exposición o introducción a la clase nueva, el refuerzo de la materia lo realizó la Docente Hiraida Santana que nos explicó sobre la naturaleza del entorno de los agentes inteligentes.
El objetivo de esta clase fue que los alumnos comprendieran más sobre los agentes inteligentes sabiendo todo sobre ella lo que será de mucha ayuda para el futuro profesional.



MARCO TEÓRICO


LA NATURALEZA DEL ENTORNO

Especificación del entorno de trabajo
El entorno de trabajo, para cuya denominación se utiliza el acrónimo REAS (Rendimiento, Entorno, Actuadores, Sensores). En el diseño de un agente, el primer paso debe ser siempre especificar el entorno de trabajo de la forma más completa posible.
Propiedades de los entornos de trabajo
El rango de los entornos de trabajo en los que se utilizan técnicas de IA es obviamente muy grande. Sin embargo, se puede identificar un pequeño número de dimensiones en las que categorizar estos entornos. Estas dimensiones determinan, hasta cierto punto, el diseño más adecuado para el agente y la utilización de cada una de las familias principales de técnicas en la implementación del agente. Primero se enumeran las dimensiones, y después se analizan varios entornos de trabajo para ilustrar estas ideas. Las definiciones dadas son informales.
        Totalmente observable vs. Parcialmente observable.
Si los sensores del agente le proporcionan acceso al estado completo del medio en cada momento, entonces se dice que el entorno de trabajo es totalmente observable. Un entorno de trabajo es, efectivamente, totalmente observable si los sensores detectan todos los aspectos que son relevantes en la toma de decisiones; la relevancia, en cada momento, depende de las medidas de rendimiento. Entornos totalmente observables son convenientes ya que el agente no necesita mantener ningún estado interno para saber qué sucede en el mundo. Un entorno puede ser parcialmente observable debido al mido y a la existencia de sensores poco exactos o porque los sensores no reciben información de parte del sistema.
        Determinista vs. Estocástico.
Si el siguiente estado del medio está totalmente determinado por el estado actual y la acción ejecutada por el agente, entonces se dice que el entorno es determinista; de otra forma es estocástico. En principio, un agente no se tiene que preocupar de la incertidumbre en un medio totalmente observable y determinista. Sin embargo, si el medio es parcialmente observable entonces puede parecer estocástico. Esto es particularmente cierto si se trata de un medio complejo, haciendo difícil el mantener constancia de todos los aspectos observados. Así, a menudo es mejor pensar en entornos deterministas o estocásticos desde el punto de vista del agente. Si el medio es determinista, excepto para las acciones de otros agentes, decimos que el medio es estratégico.
        Episódico vs. Secuencial.
En un entorno de trabajo episódico, la experiencia del agente se divide en episodios atómicos. Cada episodio consiste en la percepción del agente y la realización de una única acción posterior. Es muy importante tener en cuenta que el siguiente episodio no depende de las acciones que se realizaron en episodios previos. En los medios episódicos la elección de la acción en cada episodio depende sólo del episodio en sí mismo. Muchas tareas de clasificación son episódicas. En entornos secuenciales, por otro lado, la decisión presente puede afectar a decisiones futuras. Los medios episódicos son más simples que los secuenciales porque la gente no necesita pensar con tiempo.
        Estático vs. Dinámico.
Si el entorno puede cambiar cuando el agente está deliberando, entonces se dice que el entorno es dinámico para el agente; de otra forma se dice que es estático. Los medios estáticos son fáciles de tratar ya que el agente no necesita estar pendiente del mundo mientras está tomando una decisión sobre una acción, ni necesita preocuparse sobre el paso del tiempo. Los medios dinámicos, por el contrario, están preguntando continuamente al agente qué quiere hacer; si no se ha decidido aún, entonces se entiende que ha tomado la decisión de no hacer nada. Si el entorno no cambia con el paso del tiempo, pero el rendimiento del agente cambia, entonces se dice que el medio es semidinámico.
        Discreto vs. Continuo.
La distinción entre discreto y continuo se puede aplicar al estado del medio, a la forma en la que se maneja el tiempo y a las percepciones y acciones del agente.
        Agente individual vs. Multiagente.
La distinción entre el entorno de un agente individual y el de un sistema multiagente puede parecer suficientemente simple. Sin embargo hay algunas diferencias sutiles. Primero, se ha descrito que una entidad puede percibirse como un agente, pero no se ha explicado qué entidades se deben considerar agentes. La distinción clave está en identificar si el comportamiento B está mejor descrito por la maximización de una medida de rendimiento cuyo valor depende del comportamiento de A. Los problemas en el diseño de agentes que aparecen en los entornos multiagente son a menudo bastante diferentes de los que aparecen en entornos con un único agente; en algunos entornos competitivos parcialmente observables el comportamiento estocástico es racional ya que evita las dificultades de la predicción.
Como es de esperar, el caso más complejo es el parcialmente observable, estocástico, secuencia, dinámico, continuo y multiagente. De hecho, suele suceder que la mayoría de las situaciones reales son tan complejas que sería discutible clasificarlas como realmente deterministas. A efectos prácticos, se deben tratar como estocásticas. Hay que tener en cuenta que las respuestas no están siempre preparadas de antemano.
Otras entradas de la tabla dependen de cómo se haya definido el entorno de trabajo. Muchos entornos son, también, episódicos si se observan desde un nivel de abstracción más alto que el de las acciones individuales del agente.

CONCLUSIÓN
Esta clase sobre todo de los agente y su entorno se entendió de cómo trabaja en si el software de cada agente inteligente que es lo que hace según cual sea donde este aplicado. Lo cual ayudara a los estudiantes en un futuro profesional.

BIBLIOGRAFÍA
Russell, S, y Norving P. 2004. Inteligencia Artificial Un Enfoque Moderno. 2da ed.  Cap. 2. Pág. 37-62.


Aguerra, L. 2012. Agentes inteligentes. (En línea). Formato PDF. Disponible en: http://www.uv.mx/aguerra/documents/2013-ia2-01.pdf