Title: APRENDIZAJE
1APRENDIZAJE
- Carolina Guillén Romero
- Enriqueta Sánchez Blázquez
- Mª Ángeles Serna Moreno
2APRENDIZAJE
- APRENDIZAJE ANIMAL
- Componentes
- Habituación.
- Aprendizaje asociativo.
- Impronta.
- Imitación.
3APRENDIZAJE
- APRENDIZAJE AUTOMÁTICO
- Tipos
- Deductivo
- Componentes
- Resolución de problemas.
- Análisis de la traza.
- Filtrado.
- Generalización.
- Construir nueva información.
- Incorporar.
4APRENDIZAJE
- APRENDIZAJE AUTOMÁTICO
- Tipos
- Inductivo
- Adquisición de componentes (supervisado).
- Por observación (no supervisado).
5APRENDIZAJE
- APRENDIZAJE AUTOMÁTICO
- Tipos
- Por analogía
- Modelo unificado de analogía.
- Analogía transformacional.
- Algoritmo genético
- Conexionista
- Multiestrategia
6APRENDIZAJE
- APOYOS AL APRENDIZAJE
- Aprendizaje supervisado
- Aprendizaje no supervisado
- Aprendizaje con refuerzo de tablas
- Inmediato.
- Retardado.
71 Introducción
- Hay una corriente que dice que sin aprendizaje no
hay inteligencia, entonces los S.E. no son
inteligentes. - WienerUn sistema organizado que aprende es
aquel que recibe una señal de entrada y la
transforma en una de salida de acuerdo con algún
principio de organización. - Si tal principio esta sujeto a un criterio de
validez de funcionamiento (decir si funciona bien
o mal), hay un objetivo de funcionamiento que
permite ver la evolución del sistema. Si el
método de transformación se ajusta a fin de que
tienda a mejorar el funcionamiento del sistema de
acuerdo con ese criterio. Se dice que el sistema
aprende.
82 Aprendizaje animal (I)
- Se entiende como un proceso adaptativo que cumple
las funciones de wiener, aprendemos para
ajustarnos al medio. - Para que se produzca aprendizaje animal se
entiende que debe de perdurar en la memoria un
cierto tiempo
92 Aprendizaje animal (II)
- Es también difícil enunciar una definición, así
que se definen una serie de características - Habituación
- Aprendizaje asociativo
- Impronta
- Imitación
10Habituación
- El sistema aprende a no prestar atención de
ciertos inputs y nos habituamos a ello y no lo
consideramos importante. Es muy complicado en
sistemas artificiales decidir cuales aspectos son
importantes y hemos de prestarles, atención.
11Aprendizaje asociativo
- Aprenden asociando elementos que llegan a estar
asociados (paulov perro, comida y campanilla).
Hay un aprendizaje de este modo que se llama
latente el aprender habilita mayor capacidad de
aprender.
12Impronta
- Durante un periodo de, tiempo de su vida todo lo
que el ser ve lo sigue como a una madre. No
existe dentro de la inteligencia artificial. En
las primeras fases de la vida la impronta es más
fuerte que en la fases posteriores.
13Imitación
- Importante en sistemas biológicos. Consiste en
imitar el comportamiento de otro ser. No existe
dentro de sistemas artificiales.
142 Aprendizaje automático (artificial)(I)
- Tipos de aprendizaje automático
- Deductivo mediante procesos de inferencia
deductiva aplicando a hechos reglas conocidas.
Necesita conocimientos previos. Ejemplo hay
colillas -gt han fumado.
152 Aprendizaje automático (artificial)(II)
- Tipos de aprendizaje automático
- Inductivo consiste en inducir información de una
concepto a partir de un conjunto de cosas en
concreto. No requiere información previa del
dominio. Ejemplo ese gato tiene 4 patas -gt todos
los gatos tienen 4 patas. Si veo un caso supongo
que todos los casos son iguales hasta que
encuentre una contradicción que me obligue a
remodelar las informaciones. Se realiza una
estructura del dominio a base de inducciones.
162 Aprendizaje automático (artificial)(III)
- Tipos de aprendizaje automático
- Analogía aplicar un marco conocido a un problema
nuevo para resolver lo ? aprendizaje basado en
casos. - Algoritmos genéticos se basa en la teoría de
Darwin, mediante mutaciones se mejora el problema.
172 Aprendizaje automático (artificial)(IV)
- Tipos de aprendizaje automático
- Conexionista es el que se usa en redes
neuronales. Algunos están implícitos en la red y
otros son externos. - Multiestrategia usa distintos tipos de
aprendizaje.
183 Apoyos al aprendizaje
- Aprendizaje supervisado durante el proceso de
aprendizaje existe un profesor o tutor que
mostrando ejemplos y resultado al sistema. En la
clasificación de elementos el profesor le enseña
un elemento y el sistema le dice a que clase
pertenece. Por ejemplo backpropagation. - No supervisado no hay un profesor que guié el
aprendizaje sino que se le muestra el dominio
completo y se le deja al sistema que decida como
realizar esta clasificación, solo hay ejemplos.
Por ejemplo contrapropagación. - Con refuerzo hay un supervisor que informa si
los resultados son correctos o no. No dice que
clases hay.
19APRENDIZAJE INDUCTIVOAPRENDIZAJE AUTOMÁTICO
201 Definición (I)
- Consiste en la adquisición de un nuevo
conocimiento por la inferencia inductiva sobre
los datos por el entorno o el adiestrador. - Se suele caracterizar como una búsqueda
heurística en la que tenemos los siguientes
elementos - 1. Estado inicial datos de entrada y las
descripciones simbólicas asociadas. La
descripción simbólica son descripciones de los
elementos del dominio. - 2. Estado de sucesores son descripciones
simbólicas con mayor o menos número de
generalidad. - 3. Operadores serán diversas reglas de inducción
de dos tipos - a. Generalización de descriptores concretos a
descriptores mas generales. - b. Especialización de una descripción mas
general a una mas concreta. - 4. Estado final va a ser una descripción
simbólica con las siguientes características - a. Implica los datos de entrada.
- b. Satisface los requerimientos de1 dominio.
- c. Es suficientemente satisfactoria.
- Inducir es suponer que lo que vemos es siempre
así si vemos que un gato tiene 4 patas, todos
los gatos tienen 4 patas.
211 Definición (II)
- Las reglas de generalización pueden ser
- Reglas de selección va a modificar el
conocimiento obtenido. Tenemos los siguientes. - Supresión de conjugados eliminando un elemento de
la conjunción para, obtener un descriptor mas
general. Por ejemplo los latinos son simpáticos
y bajitos -gt los latinos son bajitos. - Adicción de disyuntados incluimos un descriptor
más como una disyunción y obtenemos una expresión
mas general. Ejemplo hay un fantasma bajo la
cama -gt hay un fantasma bajo la cama o en el
armario. - Cambio de constantes por variables. Por ejemplo
la hormiga atómica lleva casco -gt la hormiga X
lleva casco. - Reglas constructivas va a añadir nuevo
conocimiento (nuevos descriptores). - Adiciones cuantitativas por ejemplo cosa lisa y
negra -gt cosa lisa, negra y con tres picos - Detección de dependencias. Por ejemplo la serie
(3,6),(4,8),(5,10) seria dos números entre
paréntesis separados por una coma donde uno es la
mitad del otro. - Lo que hacemos es buscar un descriptor que mejor
identifique a cada clase para hacer una
clasificación eficiente. Para obtener buenos
descriptores usamos los operadores.
222 Tipos de aprendizaje inductivo (I)
- Hay fundamentalmente dos tipos
- Adquisición de conceptos (aprendizaje inductivo
supervisado). Contamos con una serie de elementos
ya clasificados y sabemos a que clase pertenece
cada elemento. Nuestro objetivo es obtener un
descriptor apropiado de cada clase. - Por observación (no supervisado). Tenemos todo el
dominio y hemos de clasificar los elementos de
nuestro sistema.
232 Tipos de aprendizaje inductivo (II)
- Método de Hayes-Roth (supervisado)
- Intenta las generalizaciones conjuntivas más
específicas a partir de un conjunto de
afirmaciones positivas, a ese conjunto se le
llama "maximal abstraction" o "inferencial
matches". - Ejemplo
- - Case Frame (elementos) El, E2 Y E3.
- - Case labell (propiedades) sombreado, liso,
grande, pequeño.... - - Parameters (partes) El esta formado por a, b y
c.
242 Tipos de aprendizaje inductivo (III)
- Método de Hayes-Roth. Ejemplo
- Buscamos un descriptor para los tres casos
- Paso 1 el primer elemento de entrada configura
el primer conjunto de generalizaciones
conjuntivas de la clase que llamaremos G1. En el
ejemplo GlE1. - Paso 2 Para un nuevo elemento de entrada se
consigue un nuevo conjunto de generalizaciones M
que se obtiene de un cotejamiento parcial entre
el nuevo elemento y la descripción de la clase. - Paso 3 Cuando se han cotejado todos los
elementos del conjunto de entrada el conjunto de
generalizaciones obtenido es la descripción de la
clase. - Solo podemos asegurar la falsedad no la veracidad.
252 Tipos de aprendizaje inductivo (IV)
- Método de Hayes-Roth. Ejemplo
- Cotejamiento parcial
- A. Se cotejan todas las generalizaciones
conjuntivas de todas las formas posibles hasta
obtener un conjunto M formado por todas las
afirmaciones procedentes de la correspondencia
entre parámetros que coincidan en ambos casos. Si
tenemos 'b' en El que es sombreado y redondo lo
podemos asociar a 'e' y 'f' de E2. - B. Seleccionamos un subconjunto de las
correspondencias entre los parámetros que se
puedan vincular consistentemente. Una vinculación
es consistente cuando no vincula a un parámetro
de una instancia con varios parámetros de otra
instancia. Si a/b entonces no puedo coger a/c
porque entonces no seria consistente.
262 Tipos de aprendizaje inductivo (V)
- Método de Hayes-Roth. Ejemplo
- Cotejamiento parcial
272 Tipos de aprendizaje inductivo (VI)
- Por observación (no supervisado)
- Es más ambicioso y tiene dos puntos de vista
uno psicológico y otro computacional. - Componente psicológica
- A. Enfoque clásico se basa en que todas las
instancias de una categoría comparten un
conjunto de características comunes. Desventajas
si intentamos abordar esto computacionalmente no
siempre es posible encontrar una característica
común que caracteriza la clase. La imposibilidad
de definir grados de pertenencia a un conjunto.
Existen asignaciones ambiguas. - B. Enfoque probabilístico se asocia un grado de
pertenencia a cada clase. Para ello se define un
prototipo de la clase y luego mediríamos la
distancia de nuestro elemento a la clase.
Desventajas - - Habla independientemente del contexto.
- - Es difícil cuantificar la distancia al
prototipo, es complicado establecer la métrica. - C. Categorización basado en teorías hay
información difícil de inyectar en l a clase y
hemos de encajar la en el dominio.
282 Tipos de aprendizaje inductivo (VII)
- Por observación (no supervisado)
- Componente computacional el objetivo es
conseguir agrupar los elementos en clases, y
conseguir las características que definen cada
clase. - A. Taxonomía numérica son los primeros intentos
de aprendizaje automático no supervisado
mediante inducción y casi todos están basados en
algún tipo de métrica. - Distancia de Minkowski d(i,k)(Snji (xij
xkj)? )½, donde si ? es 1 se trata de la
distancia euclídea y si vale 2 es la distancia
hamming. Cada caso es un vector de reales de n
números (más bien un punto). Es esquema de
representación es un vector de n coordenadas.
Para clasificar las clases los vectores hay dos
tipos de algoritmos - 1. Algoritmos aglomerativos en principio
suponen que cada elemento es una clase y luego
se van uniendo hasta conseguir el número
deseado. - 2. Algoritmos divisores consideran que todos
los vectores pertenecen a la misma clase y
luego los van dividiendo en subclases. - Objetivos
- - La similitud entre elementos de la misma
clase debe ser próxima. - - La diferencia entre elementos de clases
distintas debe ser máxima. - El problema es cuando parar (de juntar o
dividir).
292 Tipos de aprendizaje inductivo (VIII)
- Por observación (no supervisado)
- Componente computacional
- B. Aprendizaje automático es una mejora de la
taxonomía automática, donde se intenta - - Resolver el problema de cuando parar.
- - Los parámetros numéricos pueden no expresar
bien el dominio. - Intenta encontrar otras alternativas.
- 1. Agrupación conceptual A y B van a ser casi
siempre en la misma clase, sin embargo hay un
concepto más allá de la distancia, unos puntos
forman un circulo y otros un triángulo. Habría
que introducir los conceptos círculo y triángulo. - 2. Cluster a partir de una serie de semillas
van creciendo (en forma de estrella) - 3. Teoría de Witt Se basa en teorías de la
información. - 4. Autoclass Teorías de Bayes.
- 5. Formación de conceptos tiene mecanismos que
permiten realizar el aprendizaje de forma
incremental.
30APRENDIZAJE DEDUCTIVO (APRENDIZAJE BASADO EN
EXPLICACIONES) APRENDIZAJE AUTOMÁTICO
311 Deductivo EBL (explanation based learning).(I)
- El aprendizaje inductivo era el más utilizado,
pero tiene un problema el aprendizaje inductivo
no preserva la veracidad pero preserva la
falsedad.- No preserva la veracidad por
inducción no se puede afirmar algo que hemos
observado.- Preserva la falsedad podemos saber
que algo es falso.
321 Deductivo EBL (explanation based learning).(II)
- La deducción permite preservar la veracidad ya
que hay conocimiento del dominio que respalda las
afirmaciones. Sobre el conocimiento obtenido
inductivamente podemos deducir.La segunda
diferencia es que el aprendizaje inductivo
necesita muchos ejemplos para obtener información
del dominio. En el deductivo nos vale con un
ejemplo pero necesitamos más conocimiento del
dominio.
331 Deductivo EBL (explanation based
learning).(III)
- La tercera diferencia es que el método deductivo
no incorpora nuevo conocimiento, tan solo
consigue explicar mejor (concretar) el
conocimiento existente.
34Definiciones
- Teoría del dominio (o conocimiento de respaldo)
es la información específica del dominio que
vamos a suponer completa y consistente (en SBR es
la base de afirmaciones). - Concepto objetivo es el concepto del que el
método EBL debe determinar una definición
efectiva y operacional. Se dice que es efectiva
porque lleva a la solución rápidamente y es
operacional porque se puede hacer en la máquina. - Ejemplo es una instancia concreta de un
objetivo - Nueva teoría del dominio es una teoría del
dominio modificada.
35Componentes
36Componentes (I)
- 1. Resolución del problema utilizar el dominio y
el ejemplo para 1Iegar al objetivo. - 2. Análisis de la traza analizamos la solución
para conseguir obtener una explicación. Usamos
criterios - A. Criterio de relevancia. va a ser realmente
aquello que sea importante para abordar problemas
futuros, en una traza va a ser realmente aquella
información que forme parte en el camino de
llegar a la solución. - B. Criterio de operatividad son aquellas reglas
que se activan directamente.
37Componentes (II)
- 3. Filtrado filtra la información de la traza
para llegar a la explicación. Coge lo que es
relevante y operativo. Se obtiene una
explicación. - 4. Generalización consiste en sustituir las
constantes por variables de forma que la
expresión siga siendo válida. El método más usado
es el algoritmo de regresión de objetivos.
Regresionar una fórmula f a través de una regla r
consiste en determinar las condiciones necesarias
y suficientes bajo las cuales puede usarse la
regla r para obtener f.
38Componentes (III)
- 5. Construir nueva información La información
que construimos puede ser - Reglas de dominio que expresaran nuevas
definiciones de conceptos en las que la parte
izquierda de la regla serán las combinaciones
necesarias y suficientes del árbol de explicación
generalizado mientras que la raíz del mismo será
la parte derecha de la regla. - Reglas de control que se construyen de forma
similar. - 6. Incorporar esas nuevas reglas hay que
incorporarlas a la base de conocimiento, pero a
veces se obtienen demasiadas reglas para
introducir en nuestro sistema. Hay que llegar a
una solución de compromiso (velocidad de
inferencia o base de afirmaciones mayor).
39Problemas del EBL.(I)
- Hemos supuesto que la base de conocimiento es
completa y es consistente pero a veces la base
que tenemos no es así. Por ello se producen dos
problemas - 1 Reformulación de la teoría es provocado por
el aumento de volumen de la información o bien
por el aumento de la complejidad (reglas más
complejas en la base de conocimiento .Y hay que
determinar que dejamos y que eliminamos. Así que
tenemos dos soluciones o almacenar siempre o
bien no almacenar nunca.
40Problemas del EBL.(II)
- 2 Revisión de la teoría la información obtenida
no es adecuada porque - La teoría es incompleta.
- La teoría es incorrecta.
- La teoría es inconsistente se puede llegar a
contradicciones. - La Teoría es intratable por su volumen son
difíciles de abordar.
41APRENDIZAJE POR ANALOGÍA APRENDIZAJE AUTOMÁTICO
42Introducción
- Si dos situaciones son iguales en algunos de sus
aspectos, lo normal es que puedan serlo en otras. - Ejemplo
- Un circuito y un sistema con una fórmula que
define su comportamiento similar. Analogía entre
las dos situaciones. - Se usa cuando se conoce el comportamiento de un
sistema, para conocer como se comporta un sistema
análogo.
43Definiciones.
- Problema base situación conocida de ante mano.
- Dominio base lo que se conoce de él.
- Problema objetivo aplicamos lo conocido a la
nueva situación. - Dominio objetivo conocimiento obtenido de
aplicar el problema objetivo junto con la
situación conocida.
44Modelo unificado de analogía (I).KEDAR-COBELL
(1988)
- Fases
- 1. Recuperación Partiendo del problema objetivo
(dominio objetivo) buscamos un problema base en
el dominio base que tenga similitudes
significativas. - 2. Elaboración Define conocimiento del problema
base para poder aplicarlo en el problema
objetivo.
45Modelo unificado de analogía (II).KEDAR-COBELL
(1988)
- Fases
- 3. Mapeo Trasladamos el conocimiento desde el
problema base hasta el objetivo. - 4. Justificación Comprobamos si lo que sabemos
es aplicable y funciona en la función objetivo. - 5. Aprendizaje Consiste en almacenar el
conocimiento obtenido aprendido, en el
conocimiento objetivo
46Analogía transformacional.CARBONELL (1983)
- Plantea un espacio llamado Tespacio y decide
que hay varios problemas que pueden manejarse con
el Tespacio, de manera que, se puede asignar a
distintos problemas usando Toperadores.
47APRENDIZAJE POR REFUERZO DE TABLAS APOYOS AL
APRENDIZAJE
48Introducción (I).
- Aprendizaje por refuerzo de tablas consiste en
tener una serie de parámetros y según los
resultados de la funcionalidad del sistema ir
modificando los parámetros.
49Introducción (II).
- TIPOS DE APRENDIZAJE POR REFUERZO
- Inmediato lleva una señal de refuerzo tras cada
actuación del sistema y a cado paso tendrá una
señal de refuerzo que indicará si va bien o mal. - Retardado se pondera exclusivamente la acción
del sistema. - Es más fácil manejar el retardado que el
inmediato.
50Introducción (III).
- CLASIFICACIÓN
- Refuerzo en tablas.
- Redes neuronales.
- Aprendizaje estímulo-acción
51Aprendizaje por refuerzo de tablas (I).
- El aprendizaje por refuerzo en tablas consiste
en gestionar el conocimiento mediante tablas de
valores que se van actualizando atendiendo al
valor del refuerzo. Son sólo aceptables por
problemas aceptables por problemas de Markov. - Problemas modernizable por cadenas de Markov sólo
dependen del estado en el que está el sistema y
no depende de cómo ha llegado a ese estado.
52Aprendizaje por refuerzo de tablas (II).
- TIPOS DE REFUERZO
- Refuerzo inmediato.
- Refuerzo retardado.
53Aprendizaje por refuerzo de tablas (III).
- Refuerzo inmediato el algoritmo normal (es el
que se conoce como algoritmo lineal de premio
castigo, LRP) constituye una tabla con todos los
posibles estados del sistema y todas las posibles
acciones. - El algoritmo lineal de refuerzo inacción,
solamente se castiga, cuando lo haces bien no
modifica los pesos y cuando lo hace mal lo
castiga.
54Aprendizaje por refuerzo de tablas (IV).
- ALGORITMO LINEAL DE PREMIO Y CASTIGO
E1_A1 E1,A2 E1,A3 E1, E2_A1 E2,A2 E2, A3 E2,...
Si se está en E1 y se pasa a E2, si es bueno se
premia y si no se castiga.
55Aprendizaje por refuerzo de tablas (V).
- Refuerzo retardado suele ser más complejo y
menos autónomo. Según se ha llegado al final se
valora si se ha hecho bien o mal. - Es más difícil detectar el fracaso en los
parámetros del sistema.
56Páginas de interés
- Aprendizaje en Inteligencia Artificial
- Aprendizaje (definición y tipos)
- Resumen Aprendizaje y Memoria
- Inteligencia en Redes de Comunicaciones
(Aprendizaje) - Aprendizaje definición y tipos en wikipedia
- Aprendizaje AutomáticoAprendizaje de Conceptos y
Espacio de Versiones. - Aprendizaje Deductivo (Basado en la Explicación)
- Introduction to Machine Learning
- Machine Learning and Natural Language Processing
- Aprendizaje automático
57Aprendizaje inductivo
- Aprendizaje por observación (ppt)
- Introducción y descripción de los algoritmos de
Aprendizaje Inductivo-Incremental - Aprendizaje Inductivo
- Aprendizaje Automático Aprendizaje de Conceptos
y Espacio de Versiones.(pdf) - Aprendizaje Inductivo
58Aprendizaje deductivo
- Aprendizaje Deductivo (Basado en la Explicación)
- Articulo Sugerencias para la enseñanza tomando
en cuenta métodos de aprendizaje mecánico de la
inteligencia artificial - Aprendizaje automático. Técnicas basadas en EBL
- DeJong y Mooney (1986), definieron el Aprendizaje
Basado en la Explicación, EBL
59Aprendizaje por analogía
- Aprendizaje por analogía
- Aprendizaje por analogía
- Introducción al aprendizaje de la maquina
sistemas discentes
60Aprendizaje basado en casos
- Repositorio general sobre AI-CBR
- Herramientas AI-CBR (ver académicas)
- Documentación y código sobre el conocido sistema
SWALE - Recursos CBR (AAAI)
- INRECA proyecto europeo del que se deriva CASUEL
y CBR-Works - Planificación y CBR (Veloso) / Planning and CBR
- Agentes y CBR (CSIC)
- Gente relacionada con ML y CBR / ML and CBR
people - Conferencia Internacional de CBR'03
61Bibliografía
- Mitchell (1997) Machine Learning. McGraw-Hill.
- DA Norman (1988 ) El aprendizaje y la memoria.
Alianza Editorial - LÓPEZ, J.A. (1990). "Inteligencia Artificial en
Educación". Apuntes de Educación y NN.TT., nº 38"
Madrid Anaya - Gerhard Weib, Sandip Sen (1996) Adaptation and
learning in multi-agent systems ed. - CASACUBIERTA, F. Y VIDAL, E. (1987 a)
Reconocimiento automático del habla. Marcombo. - D. Borrajo, J.G. Boticario y P. Isasi. (saldrá
publicado en abril 2006).Aprendizaje
Automático. Editorial Sanz y Torres - A. Moreno Ribas y otros (1994). Aprendizaje
Automático. Ediciones UPC (Universidad
Politécnica de Cataluña) - Carbonell, J.G., Michalski, R.S., and Mitchell,
T.M., "Machine learning A historical and
methodological analysis". AI Magazine, Fall
(1983) 69-79. - Chandrasekaran, B., Johnson, T.R., and Smith,
J.W., "Task-structure analysis for knowledge
modeling". Communications of the ACM, 35 (1992)
124-137.
62Artículos destacados
- A Learning Algorithm For Neural Network Ensembles
- http//ltcs.uned.es8080/aepia/Uploads/12/128.pdf
- Presentacion Monografia Sistemas Inteligentes en
el ambito de la Educacion - http//ltcs.uned.es8080/aepia/Uploads/12/131.pdf
- Apredizaje de la similitud entre casos con
valores discretos y numéricos(Premio Accésit Jose
Cuena) - http//tornado.dia.fi.upm.es/caepia/numeros9/luace
s.ps.gz - Aprendizaje o Aprendizajes?
- http//contexto-educativo.com.ar/2001/2/nota-02
.htm
63Artículos destacados (II)
- Un método deductivo para la enseñanza
http//www.edscuola.it/archivio/software/bit/cours
e/RevistaEnsenanza.pdf - Aprendizaje Deductivo, Inductivo, y Abductivo con
Algoritmos Genéticos - http//www.inf.udec.cl/revista/ediciones/edicion1
0/apr-ag.pdf - Análisis y síntesis de la señal acústica
- http//cvc.cervantes.es/obref/congresos/sevilla/t
ecnologias/mesaredon_casacuberta.htm - Aprendizaje en inteligencia artificial
- http//www.sindominio.net/apm/articulos/IAIC/apr
endizaje/aprendizaje.pdf
64Aplicaciones
- Sistema de tutoría inteligente adaptativo
considerando estilos de aprendizaje
http//eia.udg.es/clarenes/docs/ribie-udg-2002.pd
f. - Sistema de Reconocimiento del habla
http//es.wikipedia.org/wiki/Reconocimiento_del_ha
bla - Programa que aprende a jugar al Backgammon
entrenándose contra sí mismo mediante aprendizaje
con refuerzo. El programa logró un nivel de juego
comparable al de los expertos humanos.
Temporal difference learning and
TD-Gammon (http//www.research.ibm.com/massive/td
l.html)
65Aplicaciones (II)
- Machine Learning for Distributed Traffic Control
- http//www.isle.org/7Elangley/traffic.html
- How can computers learn to decode a person's
mental state from their brain activity? - http//www.cs.cmu.edu/afs/cs/project/theo-73/www/i
ndex.html