Agentes, II
Un tutor interactivo de inglés.
Percepciones: palabras escritas
Acciones: crear ejercicios, sugerencias, correcciones
Objetivos: maximizar las calificaciones del alumno
Entorno: un conjunto de estudiantes
Un taxista automático.
Percepciones: cámaras, velocímetro, micrófono
Acciones: mover el volante, acelerar, frenar, hablar al pasajero
Objetivo: seguridad, rapidez, legalidad, comodidad
Entorno: carreteras, autopistas
Un agente simple
Algoritmo:
funcion agente-simple (percepción)
“returns” una acción
memoria (variable global)
memoria = actualiza-memoria(memoria, percepción)
acción = elige-mejor-acción(memoria)
memoria = actualiza-memoria (memoria, acción)
“return” acción
Observaciones:
Se debería mantener una secuencia de percepciones en memoria.
Se deberían tener criterios externos de éxito.
Un agente de búsqueda en tablas
Algoritmo:
funcion agente-de-búsqueda-en-tablas (percepción)
“returns” una acción
variables globales:
percepciones (lista inicialmente vacía)
tabla (indexada por lista de percepciones)
añade-percepción-al-final-de-
percepciones(percepción, percepciones)
acción = busca(percepciones, tabla)
“return” acción
Inconvenientes:
Tabla enorme (y difícil de generar).
Agente sin autonomía (si el entorno cambia, la tabla también debería hacerlo).
Un agente reflejo simple
Es imposible construir una tabla de búsqueda para cualquier secuencia de percepciones.
Uso de reglas:
Si “coche-de-enfrente-frena” entonces “frenar”
Algoritmo:
funcion agente-reflejo-simple (percepción)
“returns” una acción
reglas (variable global)
estado = interpreta (percepción)
regla = selecciona-regla (estado, reglas)
acción=aplica-regla(regla)
“return” acción
Un agente reflejo con estado
Se mantiene un estado del mundo (configurado por las percepciones).
Algoritmo:
funcion agente-reflejo-con-estado (percepción)
“returns” una acción
variables globales: estado, reglas
estado = actualiza-estado (estado, percepción)
regla = selecciona-regla (estado, reglas)
acción=aplica-regla(regla)
estado = actualiza-estado (estado, acción)
“return” acción
Otros agentes
Agente basado en el objetivo:
En una intersección, es posible “izquierda”, “derecha” o “recto”, pero importa el objetivo (no es únicamente un agente reflejo).
Búsqueda y Planificación (campos de IA).
Agentes basados en utilidad:
Utilidad(estado)=grado de preferencia para un estado.
Los agentes basados en el objetivo dan una solución pero puede ser un camino no muy satisfactorio.
Programas de juego.
Tipos de entorno
Accesible/no-accesible:
¿el agente tiene acceso al estado completo del entorno?
Si es accesible, no necesita mantener un estado interno del mundo.
Determinista/no-determinista:
¿el estado siguiente del entorno está completamente determinado por el estado actual y la cadena de acciones elegidas por el agente?
Episódico/no-episódico:
Episodio: percepción-acción.
¿son episodios independientes?
Estático/dinámico:
¿el entorno puede cambiar mientras el agente decide?
Discreto/continuo
¿número finito de percepciones/acciones?
Página anterior | Volver al principio del trabajo | Página siguiente |