APRENDIZAJE - PowerPoint PPT Presentation

About This Presentation
Title:

APRENDIZAJE

Description:

Si el m todo de transformaci n se ajusta a fin de que tienda a mejorar el ... - Case labell (propiedades): sombreado, liso, grande, peque o ... – PowerPoint PPT presentation

Number of Views:74
Avg rating:3.0/5.0
Slides: 66
Provided by: jbl78
Category:

less

Transcript and Presenter's Notes

Title: APRENDIZAJE


1
APRENDIZAJE
  • Carolina Guillén Romero
  • Enriqueta Sánchez Blázquez
  • Mª Ángeles Serna Moreno

2
APRENDIZAJE
  • APRENDIZAJE ANIMAL
  • Componentes
  • Habituación.
  • Aprendizaje asociativo.
  • Impronta.
  • Imitación.

3
APRENDIZAJE
  • APRENDIZAJE AUTOMÁTICO
  • Tipos
  • Deductivo
  • Componentes
  • Resolución de problemas.
  • Análisis de la traza.
  • Filtrado.
  • Generalización.
  • Construir nueva información.
  • Incorporar.

4
APRENDIZAJE
  • APRENDIZAJE AUTOMÁTICO
  • Tipos
  • Inductivo
  • Adquisición de componentes (supervisado).
  • Por observación (no supervisado).

5
APRENDIZAJE
  • APRENDIZAJE AUTOMÁTICO
  • Tipos
  • Por analogía
  • Modelo unificado de analogía.
  • Analogía transformacional.
  • Algoritmo genético
  • Conexionista
  • Multiestrategia

6
APRENDIZAJE
  • APOYOS AL APRENDIZAJE
  • Aprendizaje supervisado
  • Aprendizaje no supervisado
  • Aprendizaje con refuerzo de tablas
  • Inmediato.
  • Retardado.

7
1 Introducción
  • Hay una corriente que dice que sin aprendizaje no
    hay inteligencia, entonces los S.E. no son
    inteligentes.
  • WienerUn sistema organizado que aprende es
    aquel que recibe una señal de entrada y la
    transforma en una de salida de acuerdo con algún
    principio de organización.
  • Si tal principio esta sujeto a un criterio de
    validez de funcionamiento (decir si funciona bien
    o mal), hay un objetivo de funcionamiento que
    permite ver la evolución del sistema. Si el
    método de transformación se ajusta a fin de que
    tienda a mejorar el funcionamiento del sistema de
    acuerdo con ese criterio. Se dice que el sistema
    aprende.

8
2 Aprendizaje animal (I)
  • Se entiende como un proceso adaptativo que cumple
    las funciones de wiener, aprendemos para
    ajustarnos al medio.
  • Para que se produzca aprendizaje animal se
    entiende que debe de perdurar en la memoria un
    cierto tiempo

9
2 Aprendizaje animal (II)
  • Es también difícil enunciar una definición, así
    que se definen una serie de características
  • Habituación
  • Aprendizaje asociativo
  • Impronta
  • Imitación

10
Habituación
  • El sistema aprende a no prestar atención de
    ciertos inputs y nos habituamos a ello y no lo
    consideramos importante. Es muy complicado en
    sistemas artificiales decidir cuales aspectos son
    importantes y hemos de prestarles, atención.

11
Aprendizaje asociativo
  • Aprenden asociando elementos que llegan a estar
    asociados (paulov perro, comida y campanilla).
    Hay un aprendizaje de este modo que se llama
    latente el aprender habilita mayor capacidad de
    aprender.

12
Impronta
  • Durante un periodo de, tiempo de su vida todo lo
    que el ser ve lo sigue como a una madre. No
    existe dentro de la inteligencia artificial. En
    las primeras fases de la vida la impronta es más
    fuerte que en la fases posteriores.

13
Imitación
  • Importante en sistemas biológicos. Consiste en
    imitar el comportamiento de otro ser. No existe
    dentro de sistemas artificiales.

14
2 Aprendizaje automático (artificial)(I)
  • Tipos de aprendizaje automático
  • Deductivo mediante procesos de inferencia
    deductiva aplicando a hechos reglas conocidas.
    Necesita conocimientos previos. Ejemplo hay
    colillas -gt han fumado.

15
2 Aprendizaje automático (artificial)(II)
  • Tipos de aprendizaje automático
  • Inductivo consiste en inducir información de una
    concepto a partir de un conjunto de cosas en
    concreto. No requiere información previa del
    dominio. Ejemplo ese gato tiene 4 patas -gt todos
    los gatos tienen 4 patas. Si veo un caso supongo
    que todos los casos son iguales hasta que
    encuentre una contradicción que me obligue a
    remodelar las informaciones. Se realiza una
    estructura del dominio a base de inducciones.

16
2 Aprendizaje automático (artificial)(III)
  • Tipos de aprendizaje automático
  • Analogía aplicar un marco conocido a un problema
    nuevo para resolver lo ? aprendizaje basado en
    casos.
  • Algoritmos genéticos se basa en la teoría de
    Darwin, mediante mutaciones se mejora el problema.

17
2 Aprendizaje automático (artificial)(IV)
  • Tipos de aprendizaje automático
  • Conexionista es el que se usa en redes
    neuronales. Algunos están implícitos en la red y
    otros son externos.
  • Multiestrategia usa distintos tipos de
    aprendizaje.

18
3 Apoyos al aprendizaje
  • Aprendizaje supervisado durante el proceso de
    aprendizaje existe un profesor o tutor que
    mostrando ejemplos y resultado al sistema. En la
    clasificación de elementos el profesor le enseña
    un elemento y el sistema le dice a que clase
    pertenece. Por ejemplo backpropagation.
  • No supervisado no hay un profesor que guié el
    aprendizaje sino que se le muestra el dominio
    completo y se le deja al sistema que decida como
    realizar esta clasificación, solo hay ejemplos.
    Por ejemplo contrapropagación.
  • Con refuerzo hay un supervisor que informa si
    los resultados son correctos o no. No dice que
    clases hay.

19
APRENDIZAJE INDUCTIVOAPRENDIZAJE AUTOMÁTICO
20
1 Definición (I)
  • Consiste en la adquisición de un nuevo
    conocimiento por la inferencia inductiva sobre
    los datos por el entorno o el adiestrador.
  • Se suele caracterizar como una búsqueda
    heurística en la que tenemos los siguientes
    elementos
  • 1. Estado inicial datos de entrada y las
    descripciones simbólicas asociadas. La
    descripción simbólica son descripciones de los
    elementos del dominio.
  • 2. Estado de sucesores son descripciones
    simbólicas con mayor o menos número de
    generalidad.
  • 3. Operadores serán diversas reglas de inducción
    de dos tipos
  • a. Generalización de descriptores concretos a
    descriptores mas generales.
  • b. Especialización de una descripción mas
    general a una mas concreta.
  • 4. Estado final va a ser una descripción
    simbólica con las siguientes características
  • a. Implica los datos de entrada.
  • b. Satisface los requerimientos de1 dominio.
  • c. Es suficientemente satisfactoria.
  • Inducir es suponer que lo que vemos es siempre
    así si vemos que un gato tiene 4 patas, todos
    los gatos tienen 4 patas.

21
1 Definición (II)
  • Las reglas de generalización pueden ser
  • Reglas de selección va a modificar el
    conocimiento obtenido. Tenemos los siguientes.
  • Supresión de conjugados eliminando un elemento de
    la conjunción para, obtener un descriptor mas
    general. Por ejemplo los latinos son simpáticos
    y bajitos -gt los latinos son bajitos.
  • Adicción de disyuntados incluimos un descriptor
    más como una disyunción y obtenemos una expresión
    mas general. Ejemplo hay un fantasma bajo la
    cama -gt hay un fantasma bajo la cama o en el
    armario.
  • Cambio de constantes por variables. Por ejemplo
    la hormiga atómica lleva casco -gt la hormiga X
    lleva casco.
  • Reglas constructivas va a añadir nuevo
    conocimiento (nuevos descriptores).
  • Adiciones cuantitativas por ejemplo cosa lisa y
    negra -gt cosa lisa, negra y con tres picos
  • Detección de dependencias. Por ejemplo la serie
    (3,6),(4,8),(5,10) seria dos números entre
    paréntesis separados por una coma donde uno es la
    mitad del otro.
  • Lo que hacemos es buscar un descriptor que mejor
    identifique a cada clase para hacer una
    clasificación eficiente. Para obtener buenos
    descriptores usamos los operadores.

22
2 Tipos de aprendizaje inductivo (I)
  • Hay fundamentalmente dos tipos
  • Adquisición de conceptos (aprendizaje inductivo
    supervisado). Contamos con una serie de elementos
    ya clasificados y sabemos a que clase pertenece
    cada elemento. Nuestro objetivo es obtener un
    descriptor apropiado de cada clase.
  • Por observación (no supervisado). Tenemos todo el
    dominio y hemos de clasificar los elementos de
    nuestro sistema.

23
2 Tipos de aprendizaje inductivo (II)
  • Método de Hayes-Roth (supervisado)
  • Intenta las generalizaciones conjuntivas más
    específicas a partir de un conjunto de
    afirmaciones positivas, a ese conjunto se le
    llama "maximal abstraction" o "inferencial
    matches".
  • Ejemplo
  • - Case Frame (elementos) El, E2 Y E3.
  • - Case labell (propiedades) sombreado, liso,
    grande, pequeño....
  • - Parameters (partes) El esta formado por a, b y
    c.

24
2 Tipos de aprendizaje inductivo (III)
  • Método de Hayes-Roth. Ejemplo
  • Buscamos un descriptor para los tres casos
  • Paso 1 el primer elemento de entrada configura
    el primer conjunto de generalizaciones
    conjuntivas de la clase que llamaremos G1. En el
    ejemplo GlE1.
  • Paso 2 Para un nuevo elemento de entrada se
    consigue un nuevo conjunto de generalizaciones M
    que se obtiene de un cotejamiento parcial entre
    el nuevo elemento y la descripción de la clase.
  • Paso 3 Cuando se han cotejado todos los
    elementos del conjunto de entrada el conjunto de
    generalizaciones obtenido es la descripción de la
    clase.
  • Solo podemos asegurar la falsedad no la veracidad.

25
2 Tipos de aprendizaje inductivo (IV)
  • Método de Hayes-Roth. Ejemplo
  • Cotejamiento parcial
  • A. Se cotejan todas las generalizaciones
    conjuntivas de todas las formas posibles hasta
    obtener un conjunto M formado por todas las
    afirmaciones procedentes de la correspondencia
    entre parámetros que coincidan en ambos casos. Si
    tenemos 'b' en El que es sombreado y redondo lo
    podemos asociar a 'e' y 'f' de E2.
  • B. Seleccionamos un subconjunto de las
    correspondencias entre los parámetros que se
    puedan vincular consistentemente. Una vinculación
    es consistente cuando no vincula a un parámetro
    de una instancia con varios parámetros de otra
    instancia. Si a/b entonces no puedo coger a/c
    porque entonces no seria consistente.

26
2 Tipos de aprendizaje inductivo (V)
  • Método de Hayes-Roth. Ejemplo
  • Cotejamiento parcial

27
2 Tipos de aprendizaje inductivo (VI)
  • Por observación (no supervisado)
  • Es más ambicioso y tiene dos puntos de vista
    uno psicológico y otro computacional.
  • Componente psicológica
  • A. Enfoque clásico se basa en que todas las
    instancias de una categoría comparten un
    conjunto de características comunes. Desventajas
    si intentamos abordar esto computacionalmente no
    siempre es posible encontrar una característica
    común que caracteriza la clase. La imposibilidad
    de definir grados de pertenencia a un conjunto.
    Existen asignaciones ambiguas.
  • B. Enfoque probabilístico se asocia un grado de
    pertenencia a cada clase. Para ello se define un
    prototipo de la clase y luego mediríamos la
    distancia de nuestro elemento a la clase.
    Desventajas
  • - Habla independientemente del contexto.
  • - Es difícil cuantificar la distancia al
    prototipo, es complicado establecer la métrica.
  • C. Categorización basado en teorías hay
    información difícil de inyectar en l a clase y
    hemos de encajar la en el dominio.

28
2 Tipos de aprendizaje inductivo (VII)
  • Por observación (no supervisado)
  • Componente computacional el objetivo es
    conseguir agrupar los elementos en clases, y
    conseguir las características que definen cada
    clase.
  • A. Taxonomía numérica son los primeros intentos
    de aprendizaje automático no supervisado
    mediante inducción y casi todos están basados en
    algún tipo de métrica.
  • Distancia de Minkowski d(i,k)(Snji (xij
    xkj)? )½, donde si ? es 1 se trata de la
    distancia euclídea y si vale 2 es la distancia
    hamming. Cada caso es un vector de reales de n
    números (más bien un punto). Es esquema de
    representación es un vector de n coordenadas.
    Para clasificar las clases los vectores hay dos
    tipos de algoritmos
  • 1. Algoritmos aglomerativos en principio
    suponen que cada elemento es una clase y luego
    se van uniendo hasta conseguir el número
    deseado.
  • 2. Algoritmos divisores consideran que todos
    los vectores pertenecen a la misma clase y
    luego los van dividiendo en subclases.
  • Objetivos
  • - La similitud entre elementos de la misma
    clase debe ser próxima.
  • - La diferencia entre elementos de clases
    distintas debe ser máxima.
  • El problema es cuando parar (de juntar o
    dividir).

29
2 Tipos de aprendizaje inductivo (VIII)
  • Por observación (no supervisado)
  • Componente computacional
  • B. Aprendizaje automático es una mejora de la
    taxonomía automática, donde se intenta
  • - Resolver el problema de cuando parar.
  • - Los parámetros numéricos pueden no expresar
    bien el dominio.
  • Intenta encontrar otras alternativas.
  • 1. Agrupación conceptual A y B van a ser casi
    siempre en la misma clase, sin embargo hay un
    concepto más allá de la distancia, unos puntos
    forman un circulo y otros un triángulo. Habría
    que introducir los conceptos círculo y triángulo.
  • 2. Cluster a partir de una serie de semillas
    van creciendo (en forma de estrella)
  • 3. Teoría de Witt Se basa en teorías de la
    información.
  • 4. Autoclass Teorías de Bayes.
  • 5. Formación de conceptos tiene mecanismos que
    permiten realizar el aprendizaje de forma
    incremental.

30
APRENDIZAJE DEDUCTIVO (APRENDIZAJE BASADO EN
EXPLICACIONES) APRENDIZAJE AUTOMÁTICO
31
1 Deductivo EBL (explanation based learning).(I)
  • El aprendizaje inductivo era el más utilizado,
    pero tiene un problema el aprendizaje inductivo
    no preserva la veracidad pero preserva la
    falsedad.- No preserva la veracidad por
    inducción no se puede afirmar algo que hemos
    observado.- Preserva la falsedad podemos saber
    que algo es falso.

32
1 Deductivo EBL (explanation based learning).(II)
  • La deducción permite preservar la veracidad ya
    que hay conocimiento del dominio que respalda las
    afirmaciones. Sobre el conocimiento obtenido
    inductivamente podemos deducir.La segunda
    diferencia es que el aprendizaje inductivo
    necesita muchos ejemplos para obtener información
    del dominio. En el deductivo nos vale con un
    ejemplo pero necesitamos más conocimiento del
    dominio.

33
1 Deductivo EBL (explanation based
learning).(III)
  • La tercera diferencia es que el método deductivo
    no incorpora nuevo conocimiento, tan solo
    consigue explicar mejor (concretar) el
    conocimiento existente.

34
Definiciones
  • Teoría del dominio (o conocimiento de respaldo)
    es la información específica del dominio que
    vamos a suponer completa y consistente (en SBR es
    la base de afirmaciones).
  • Concepto objetivo es el concepto del que el
    método EBL debe determinar una definición
    efectiva y operacional. Se dice que es efectiva
    porque lleva a la solución rápidamente y es
    operacional porque se puede hacer en la máquina.
  • Ejemplo es una instancia concreta de un
    objetivo
  • Nueva teoría del dominio es una teoría del
    dominio modificada.

35
Componentes
36
Componentes (I)
  • 1. Resolución del problema utilizar el dominio y
    el ejemplo para 1Iegar al objetivo.
  • 2. Análisis de la traza analizamos la solución
    para conseguir obtener una explicación. Usamos
    criterios
  • A. Criterio de relevancia. va a ser realmente
    aquello que sea importante para abordar problemas
    futuros, en una traza va a ser realmente aquella
    información que forme parte en el camino de
    llegar a la solución.
  • B. Criterio de operatividad son aquellas reglas
    que se activan directamente.

37
Componentes (II)
  • 3. Filtrado filtra la información de la traza
    para llegar a la explicación. Coge lo que es
    relevante y operativo. Se obtiene una
    explicación.
  • 4. Generalización consiste en sustituir las
    constantes por variables de forma que la
    expresión siga siendo válida. El método más usado
    es el algoritmo de regresión de objetivos.
    Regresionar una fórmula f a través de una regla r
    consiste en determinar las condiciones necesarias
    y suficientes bajo las cuales puede usarse la
    regla r para obtener f.

38
Componentes (III)
  • 5. Construir nueva información La información
    que construimos puede ser
  • Reglas de dominio que expresaran nuevas
    definiciones de conceptos en las que la parte
    izquierda de la regla serán las combinaciones
    necesarias y suficientes del árbol de explicación
    generalizado mientras que la raíz del mismo será
    la parte derecha de la regla.
  • Reglas de control que se construyen de forma
    similar.
  • 6. Incorporar esas nuevas reglas hay que
    incorporarlas a la base de conocimiento, pero a
    veces se obtienen demasiadas reglas para
    introducir en nuestro sistema. Hay que llegar a
    una solución de compromiso (velocidad de
    inferencia o base de afirmaciones mayor).

39
Problemas del EBL.(I)
  • Hemos supuesto que la base de conocimiento es
    completa y es consistente pero a veces la base
    que tenemos no es así. Por ello se producen dos
    problemas
  • 1 Reformulación de la teoría es provocado por
    el aumento de volumen de la información o bien
    por el aumento de la complejidad (reglas más
    complejas en la base de conocimiento .Y hay que
    determinar que dejamos y que eliminamos. Así que
    tenemos dos soluciones o almacenar siempre o
    bien no almacenar nunca.

40
Problemas del EBL.(II)
  • 2 Revisión de la teoría la información obtenida
    no es adecuada porque
  • La teoría es incompleta.
  • La teoría es incorrecta.
  • La teoría es inconsistente se puede llegar a
    contradicciones.
  • La Teoría es intratable por su volumen son
    difíciles de abordar.

41
APRENDIZAJE POR ANALOGÍA APRENDIZAJE AUTOMÁTICO
42
Introducción
  • Si dos situaciones son iguales en algunos de sus
    aspectos, lo normal es que puedan serlo en otras.
  • Ejemplo
  • Un circuito y un sistema con una fórmula que
    define su comportamiento similar. Analogía entre
    las dos situaciones.
  • Se usa cuando se conoce el comportamiento de un
    sistema, para conocer como se comporta un sistema
    análogo.

43
Definiciones.
  • Problema base situación conocida de ante mano.
  • Dominio base lo que se conoce de él.
  • Problema objetivo aplicamos lo conocido a la
    nueva situación.
  • Dominio objetivo conocimiento obtenido de
    aplicar el problema objetivo junto con la
    situación conocida.

44
Modelo unificado de analogía (I).KEDAR-COBELL
(1988)
  • Fases
  • 1. Recuperación Partiendo del problema objetivo
    (dominio objetivo) buscamos un problema base en
    el dominio base que tenga similitudes
    significativas.
  • 2. Elaboración Define conocimiento del problema
    base para poder aplicarlo en el problema
    objetivo.

45
Modelo unificado de analogía (II).KEDAR-COBELL
(1988)
  • Fases
  • 3. Mapeo Trasladamos el conocimiento desde el
    problema base hasta el objetivo.
  • 4. Justificación Comprobamos si lo que sabemos
    es aplicable y funciona en la función objetivo.
  • 5. Aprendizaje Consiste en almacenar el
    conocimiento obtenido aprendido, en el
    conocimiento objetivo

46
Analogía transformacional.CARBONELL (1983)
  • Plantea un espacio llamado Tespacio y decide
    que hay varios problemas que pueden manejarse con
    el Tespacio, de manera que, se puede asignar a
    distintos problemas usando Toperadores.

47
APRENDIZAJE POR REFUERZO DE TABLAS APOYOS AL
APRENDIZAJE
48
Introducción (I).
  • Aprendizaje por refuerzo de tablas consiste en
    tener una serie de parámetros y según los
    resultados de la funcionalidad del sistema ir
    modificando los parámetros.

49
Introducción (II).
  • TIPOS DE APRENDIZAJE POR REFUERZO
  • Inmediato lleva una señal de refuerzo tras cada
    actuación del sistema y a cado paso tendrá una
    señal de refuerzo que indicará si va bien o mal.
  • Retardado se pondera exclusivamente la acción
    del sistema.
  • Es más fácil manejar el retardado que el
    inmediato.

50
Introducción (III).
  • CLASIFICACIÓN
  • Refuerzo en tablas.
  • Redes neuronales.
  • Aprendizaje estímulo-acción

51
Aprendizaje por refuerzo de tablas (I).
  • El aprendizaje por refuerzo en tablas consiste
    en gestionar el conocimiento mediante tablas de
    valores que se van actualizando atendiendo al
    valor del refuerzo. Son sólo aceptables por
    problemas aceptables por problemas de Markov.
  • Problemas modernizable por cadenas de Markov sólo
    dependen del estado en el que está el sistema y
    no depende de cómo ha llegado a ese estado.

52
Aprendizaje por refuerzo de tablas (II).
  • TIPOS DE REFUERZO
  • Refuerzo inmediato.
  • Refuerzo retardado.

53
Aprendizaje por refuerzo de tablas (III).
  • Refuerzo inmediato el algoritmo normal (es el
    que se conoce como algoritmo lineal de premio
    castigo, LRP) constituye una tabla con todos los
    posibles estados del sistema y todas las posibles
    acciones.
  • El algoritmo lineal de refuerzo inacción,
    solamente se castiga, cuando lo haces bien no
    modifica los pesos y cuando lo hace mal lo
    castiga.

54
Aprendizaje por refuerzo de tablas (IV).
  • ALGORITMO LINEAL DE PREMIO Y CASTIGO

E1_A1 E1,A2 E1,A3 E1, E2_A1 E2,A2 E2, A3 E2,...
Si se está en E1 y se pasa a E2, si es bueno se
premia y si no se castiga.
55
Aprendizaje por refuerzo de tablas (V).
  • Refuerzo retardado suele ser más complejo y
    menos autónomo. Según se ha llegado al final se
    valora si se ha hecho bien o mal.
  • Es más difícil detectar el fracaso en los
    parámetros del sistema.

56
Páginas de interés
  • Aprendizaje en Inteligencia Artificial
  • Aprendizaje (definición y tipos)
  • Resumen Aprendizaje y Memoria
  • Inteligencia en Redes de Comunicaciones
    (Aprendizaje)
  • Aprendizaje definición y tipos en wikipedia
  • Aprendizaje AutomáticoAprendizaje de Conceptos y
    Espacio de Versiones.
  • Aprendizaje Deductivo (Basado en la Explicación)
  • Introduction to Machine Learning
  • Machine Learning and Natural Language Processing
  • Aprendizaje automático

57
Aprendizaje inductivo
  • Aprendizaje por observación (ppt)
  • Introducción y descripción de los algoritmos de
    Aprendizaje Inductivo-Incremental
  • Aprendizaje Inductivo
  • Aprendizaje Automático Aprendizaje de Conceptos
    y Espacio de Versiones.(pdf)
  • Aprendizaje Inductivo

58
Aprendizaje deductivo
  • Aprendizaje Deductivo (Basado en la Explicación)
  • Articulo Sugerencias para la enseñanza tomando
    en cuenta métodos de aprendizaje mecánico de la
    inteligencia artificial
  • Aprendizaje automático. Técnicas basadas en EBL
  • DeJong y Mooney (1986), definieron el Aprendizaje
    Basado en la Explicación, EBL

59
Aprendizaje por analogía
  • Aprendizaje por analogía
  • Aprendizaje por analogía
  • Introducción al aprendizaje de la maquina
    sistemas discentes

60
Aprendizaje basado en casos
  • Repositorio general sobre AI-CBR
  • Herramientas AI-CBR (ver académicas)
  • Documentación y código sobre el conocido sistema
    SWALE
  • Recursos CBR (AAAI)
  • INRECA proyecto europeo del que se deriva CASUEL
    y CBR-Works
  • Planificación y CBR (Veloso) / Planning and CBR
  • Agentes y CBR (CSIC)
  • Gente relacionada con ML y CBR / ML and CBR
    people
  • Conferencia Internacional de CBR'03

61
Bibliografía
  • Mitchell (1997) Machine Learning. McGraw-Hill.
  • DA Norman (1988 ) El aprendizaje y la memoria.
    Alianza Editorial
  • LÓPEZ, J.A. (1990). "Inteligencia Artificial en
    Educación". Apuntes de Educación y NN.TT., nº 38"
    Madrid Anaya
  • Gerhard Weib, Sandip Sen (1996) Adaptation and
    learning in multi-agent systems ed.
  • CASACUBIERTA, F. Y VIDAL, E. (1987 a)
    Reconocimiento automático del habla. Marcombo.
  • D. Borrajo, J.G. Boticario y P. Isasi. (saldrá
    publicado en abril 2006).Aprendizaje
    Automático. Editorial Sanz y Torres
  • A. Moreno Ribas y otros (1994). Aprendizaje
    Automático. Ediciones UPC (Universidad
    Politécnica de Cataluña)
  • Carbonell, J.G., Michalski, R.S., and Mitchell,
    T.M., "Machine learning A historical and
    methodological analysis". AI Magazine, Fall
    (1983) 69-79.
  • Chandrasekaran, B., Johnson, T.R., and Smith,
    J.W., "Task-structure analysis for knowledge
    modeling". Communications of the ACM, 35 (1992)
    124-137.

62
Artículos destacados
  • A Learning Algorithm For Neural Network Ensembles
  • http//ltcs.uned.es8080/aepia/Uploads/12/128.pdf
  • Presentacion Monografia Sistemas Inteligentes en
    el ambito de la Educacion
  • http//ltcs.uned.es8080/aepia/Uploads/12/131.pdf
  • Apredizaje de la similitud entre casos con
    valores discretos y numéricos(Premio Accésit Jose
    Cuena)
  • http//tornado.dia.fi.upm.es/caepia/numeros9/luace
    s.ps.gz
  • Aprendizaje o Aprendizajes?
  • http//contexto-educativo.com.ar/2001/2/nota-02
    .htm

63
Artículos destacados (II)
  • Un método deductivo para la enseñanza
    http//www.edscuola.it/archivio/software/bit/cours
    e/RevistaEnsenanza.pdf
  • Aprendizaje Deductivo, Inductivo, y Abductivo con
    Algoritmos Genéticos
  • http//www.inf.udec.cl/revista/ediciones/edicion1
    0/apr-ag.pdf
  • Análisis y síntesis de la señal acústica
  • http//cvc.cervantes.es/obref/congresos/sevilla/t
    ecnologias/mesaredon_casacuberta.htm
  • Aprendizaje en inteligencia artificial
  • http//www.sindominio.net/apm/articulos/IAIC/apr
    endizaje/aprendizaje.pdf

64
Aplicaciones
  • Sistema de tutoría inteligente adaptativo
    considerando estilos de aprendizaje
    http//eia.udg.es/clarenes/docs/ribie-udg-2002.pd
    f.
  • Sistema de Reconocimiento del habla
    http//es.wikipedia.org/wiki/Reconocimiento_del_ha
    bla
  • Programa que aprende a jugar al Backgammon
    entrenándose contra sí mismo mediante aprendizaje
    con refuerzo. El programa logró un nivel de juego
    comparable al de los expertos humanos.
    Temporal difference learning and
    TD-Gammon (http//www.research.ibm.com/massive/td
    l.html)

65
Aplicaciones (II)
  • Machine Learning for Distributed Traffic Control
  • http//www.isle.org/7Elangley/traffic.html
  • How can computers learn to decode a person's
    mental state from their brain activity?
  • http//www.cs.cmu.edu/afs/cs/project/theo-73/www/i
    ndex.html
Write a Comment
User Comments (0)
About PowerShow.com