APRENDIZAJE
Carolina Guillén Romero
Enriqueta Sánchez Blázquez
Mª Ángeles Serna Moreno
APRENDIZAJE
• APRENDIZAJE ANIMAL
– Componentes:
•
•
•
•
Habituación.
Aprendizaje asociativo.
Impronta.
Imitación.
APRENDIZAJE
• APRENDIZAJE AUTOMÁTICO
– Tipos:
• Deductivo
– Componentes:
» Resolución de problemas.
» Análisis de la traza.
» Filtrado.
» Generalización.
» Construir nueva información.
» Incorporar.
APRENDIZAJE
• APRENDIZAJE AUTOMÁTICO
– Tipos:
• Inductivo
– Adquisición de componentes (supervisado).
– Por observación (no supervisado).
APRENDIZAJE
• APRENDIZAJE AUTOMÁTICO
– Tipos:
• Por analogía
– Modelo unificado de analogía.
– Analogía transformacional.
• Algoritmo genético
• Conexionista
• Multiestrategia
APRENDIZAJE
• APOYOS AL APRENDIZAJE
– Aprendizaje supervisado
– Aprendizaje no supervisado
– Aprendizaje con refuerzo de tablas
• Inmediato.
• Retardado.
1 Introducción
• Hay una corriente que dice que sin aprendizaje no hay
inteligencia, entonces los S.E. no son inteligentes.
• Wiener:“Un sistema organizado que aprende es aquel que recibe una
señal de entrada y la transforma en una de salida de acuerdo con
algún principio de organización”.
• “Si tal principio esta sujeto a un criterio de validez de funcionamiento
(decir si funciona bien o mal), hay un objetivo de funcionamiento que
permite ver la evolución del sistema. Si el método de transformación
se ajusta a fin de que tienda a mejorar el funcionamiento del sistema
de acuerdo con ese criterio. Se dice que el sistema aprende”.
2 Aprendizaje animal (I)
• Se entiende como un proceso adaptativo
que cumple las funciones de wiener,
aprendemos para ajustarnos al medio.
• Para que se produzca aprendizaje animal se
entiende que debe de perdurar en la
memoria un cierto tiempo
2 Aprendizaje animal (II)
• Es también difícil enunciar una definición,
así que se definen una serie de
características:
•
•
•
•
Habituación
Aprendizaje asociativo
Impronta
Imitación
Habituación:
• El sistema aprende a no prestar atención de
ciertos inputs y nos habituamos a ello y no
lo consideramos importante. Es muy
complicado en sistemas artificiales decidir
cuales aspectos son importantes y hemos de
prestarles, atención.
Aprendizaje asociativo
Aprenden asociando elementos que llegan a
estar asociados (paulov: perro, comida y
campanilla). Hay un aprendizaje de este
modo que se llama latente: el aprender
habilita mayor capacidad de aprender.
Impronta
Durante un periodo de, tiempo de su vida todo
lo que el ser ve lo sigue como a una madre.
No existe dentro de la inteligencia artificial.
En las primeras fases de la vida la impronta
es más fuerte que en la fases posteriores.
Imitación:
• Importante en sistemas biológicos. Consiste
en imitar el comportamiento de otro ser. No
existe dentro de sistemas artificiales.
2 Aprendizaje automático
(artificial)(I)
• Tipos de aprendizaje automático:
– Deductivo: mediante procesos de inferencia
deductiva aplicando a hechos reglas conocidas.
Necesita conocimientos previos. Ejemplo: hay
colillas -> han fumado.
2 Aprendizaje automático
(artificial)(II)
• Tipos de aprendizaje automático:
– Inductivo: consiste en inducir información de una
concepto a partir de un conjunto de cosas en concreto.
No requiere información previa del dominio. Ejemplo:
ese gato tiene 4 patas -> todos los gatos tienen 4 patas.
Si veo un caso supongo que todos los casos son iguales
hasta que encuentre una contradicción que me obligue a
remodelar las informaciones. Se realiza una estructura
del dominio a base de inducciones.
2 Aprendizaje automático
(artificial)(III)
• Tipos de aprendizaje automático:
– Analogía: aplicar un marco conocido a un
problema nuevo para resolver lo  aprendizaje
basado en casos.
– Algoritmos genéticos: se basa en la teoría de
Darwin, mediante mutaciones se mejora el
problema.
2 Aprendizaje automático
(artificial)(IV)
• Tipos de aprendizaje automático:
– Conexionista: es el que se usa en redes
neuronales. Algunos están implícitos en la red y
otros son externos.
– Multiestrategia: usa distintos tipos de
aprendizaje.
3 Apoyos al aprendizaje:
– Aprendizaje supervisado: durante el proceso de
aprendizaje existe un profesor o tutor que mostrando
ejemplos y resultado al sistema. En la clasificación de
elementos el profesor le enseña un elemento y el sistema
le dice a que clase pertenece. Por ejemplo
backpropagation.
– No supervisado: no hay un profesor que guié el
aprendizaje sino que se le muestra el dominio completo y
se le deja al sistema que decida como realizar esta
clasificación, solo hay ejemplos. Por ejemplo
contrapropagación.
– Con refuerzo: hay un supervisor que informa si los
resultados son correctos o no. No dice que clases hay.
APRENDIZAJE INDUCTIVO
APRENDIZAJE AUTOMÁTICO
1
Definición
(I)
Consiste en la adquisición de un nuevo conocimiento por la inferencia inductiva sobre
los datos por el entorno o el adiestrador.
Se suele caracterizar como una búsqueda heurística en la que tenemos los siguientes
elementos:
1. Estado inicial: datos de entrada y las descripciones simbólicas asociadas. La
descripción simbólica son descripciones de los elementos del dominio.
2. Estado de sucesores son descripciones simbólicas con mayor o menos número de
generalidad.
3. Operadores: serán diversas reglas de inducción de dos tipos:
a.
Generalización: de descriptores concretos a descriptores mas generales.
b.
Especialización: de una descripción mas general a una mas concreta.
4. Estado final: va a ser una descripción simbólica con las siguientes características:
a.
Implica los datos de entrada.
b.
Satisface los requerimientos de1 dominio.
c.
Es suficientemente satisfactoria.
Inducir es suponer que lo que vemos es siempre así: si vemos que un gato tiene 4 patas,
todos los gatos tienen 4 patas.
1 Definición (II)
Las reglas de generalización pueden ser:
Reglas de selección: va a modificar el conocimiento obtenido. Tenemos los siguientes.
– Supresión de conjugados eliminando un elemento de la conjunción para,
obtener un descriptor mas general. Por ejemplo: los latinos son simpáticos y
bajitos -> los latinos son bajitos.
– Adicción de disyuntados: incluimos un descriptor más como una disyunción y
obtenemos una expresión mas general. Ejemplo: hay un fantasma bajo la cama
-> hay un fantasma bajo la cama o en el armario.
– Cambio de constantes por variables. Por ejemplo: la hormiga atómica lleva
casco -> la hormiga X lleva casco.
Reglas constructivas: va a añadir nuevo conocimiento (nuevos descriptores).
– Adiciones cuantitativas; por ejemplo: cosa lisa y negra -> cosa lisa, negra y con
tres picos
– Detección de dependencias. Por ejemplo la serie: (3,6),(4,8),(5,10) seria dos
números entre paréntesis separados por una coma donde uno es la mitad del
otro.
– Lo que hacemos es buscar un descriptor que mejor identifique a cada clase para
hacer una clasificación eficiente. Para obtener buenos descriptores usamos los
operadores.
2 Tipos de aprendizaje inductivo (I)
Hay fundamentalmente dos tipos:
• Adquisición de conceptos (aprendizaje inductivo
supervisado). Contamos con una serie de
elementos ya clasificados y sabemos a que clase
pertenece cada elemento. Nuestro objetivo es
obtener un descriptor apropiado de cada clase.
• Por observación (no supervisado). Tenemos todo
el dominio y hemos de clasificar los elementos de
nuestro sistema.
2 Tipos de aprendizaje inductivo (II)
Método de Hayes-Roth (supervisado)
Intenta las generalizaciones conjuntivas más específicas a partir de un
conjunto de afirmaciones positivas, a ese conjunto se le llama "maximal
abstraction" o "inferencial matches".
• Ejemplo:
-
Case Frame (elementos): El, E2 Y E3.
Case labell (propiedades): sombreado, liso, grande, pequeño....
Parameters (partes): El esta formado por a, b y c.
2 Tipos de aprendizaje inductivo (III)
Método de Hayes-Roth. Ejemplo
Buscamos un descriptor para los tres casos:
• Paso 1: el primer elemento de entrada configura el primer conjunto de
generalizaciones conjuntivas de la clase que llamaremos G1. En el
ejemplo Gl=E1.
• Paso 2: Para un nuevo elemento de entrada se consigue un nuevo
conjunto de generalizaciones M que se obtiene de un cotejamiento
parcial entre el nuevo elemento y la descripción de la clase.
• Paso 3: Cuando se han cotejado todos los elementos del conjunto de
entrada el conjunto de generalizaciones obtenido es la descripción de
la clase.
Solo podemos asegurar la falsedad no la veracidad.
2 Tipos de aprendizaje inductivo (IV)
Método de Hayes-Roth. Ejemplo
Cotejamiento parcial:
• A. Se cotejan todas las generalizaciones conjuntivas de todas las
formas posibles hasta obtener un conjunto M formado por todas las
afirmaciones procedentes de la correspondencia entre parámetros que
coincidan en ambos casos. Si tenemos 'b' en El que es sombreado y
redondo lo podemos asociar a 'e' y 'f' de E2.
• B. Seleccionamos un subconjunto de las correspondencias entre los
parámetros que se puedan vincular consistentemente. Una vinculación
es consistente cuando no vincula a un parámetro de una instancia con
varios parámetros de otra instancia. Si a/b entonces no puedo coger a/c
porque entonces no seria consistente.
2 Tipos de aprendizaje inductivo (V)
Método de Hayes-Roth. Ejemplo
Cotejamiento parcial:
2 Tipos de aprendizaje inductivo (VI)
Por observación (no supervisado):
Es más ambicioso y tiene dos puntos de vista: uno psicológico y otro
computacional.
• Componente psicológica:
A. Enfoque clásico: se basa en que todas las instancias de una categoría
comparten un conjunto de características comunes. Desventajas si
intentamos abordar esto computacionalmente no siempre es posible
encontrar una característica común que caracteriza la clase. La
imposibilidad de definir grados de pertenencia a un conjunto. Existen
asignaciones ambiguas.
B. Enfoque probabilístico se asocia un grado de pertenencia a cada clase. Para
ello se define un prototipo de la clase y luego mediríamos la distancia de
nuestro
elemento a la clase. Desventajas:
Habla independientemente del contexto.
Es difícil cuantificar la distancia al prototipo, es complicado
establecer la métrica.
C. Categorización basado en teorías hay información difícil de inyectar en l
a clase y hemos de encajar la en el dominio.
2 Tipos de aprendizaje inductivo (VII)
Por observación (no supervisado):
• Componente computacional: el objetivo es conseguir agrupar los elementos en clases, y
conseguir las características que definen cada clase.
A.
Taxonomía numérica: son los primeros intentos de aprendizaje automático no
supervisado mediante inducción y casi todos están basados en algún tipo de
métrica.
Distancia de Minkowski: d(i,k)=(Σnj=i (|xij –xkj)|п )½, donde si п es 1 se trata de
la distancia euclídea y si vale 2 es la distancia hamming. Cada caso es un
vector de reales de n números (más bien un punto). Es esquema de
representación es un vector de n coordenadas. Para clasificar las clases los
vectores hay dos tipos de algoritmos:
1.
Algoritmos aglomerativos en principio suponen que cada elemento
es una clase y luego se van uniendo hasta conseguir el número
deseado.
2.
Algoritmos divisores consideran que todos los vectores pertenecen a
la misma clase y luego los van dividiendo en subclases.
Objetivos:
- La similitud entre elementos de la misma clase debe ser próxima.
- La diferencia entre elementos de clases distintas debe ser máxima.
El problema es cuando parar (de juntar o dividir).
2 Tipos de aprendizaje inductivo (VIII)
Por observación (no supervisado):
• Componente computacional:
B.
Aprendizaje automático: es una mejora de la taxonomía automática, donde se intenta:
Resolver el problema de cuando parar.
Los parámetros numéricos pueden no expresar bien el dominio.
Intenta encontrar otras alternativas.
A
1.
2.
3.
4.
5.
B
Agrupación conceptual: A y B van a ser casi siempre en la misma clase, sin embargo
hay un concepto más allá de la distancia, unos puntos forman un circulo y otros un
triángulo. Habría que introducir los conceptos círculo y triángulo.
Cluster: a partir de una serie de semillas van creciendo (en forma de estrella)
Teoría de Witt: Se basa en teorías de la información.
Autoclass: Teorías de Bayes.
Formación de conceptos: tiene mecanismos que permiten realizar el
aprendizaje de forma incremental.
APRENDIZAJE DEDUCTIVO
(APRENDIZAJE BASADO EN EXPLICACIONES)
APRENDIZAJE AUTOMÁTICO
1 Deductivo: EBL (explanation
based learning).(I)
• El aprendizaje inductivo era el más utilizado, pero
tiene un problema: el aprendizaje inductivo no
preserva la veracidad pero preserva la falsedad.
- No preserva la veracidad: por inducción no se
puede afirmar algo que hemos observado.
- Preserva la falsedad: podemos saber que algo es
falso.
1 Deductivo: EBL (explanation
based learning).(II)
• La deducción permite preservar la veracidad ya
que hay conocimiento del dominio que respalda
las afirmaciones. Sobre el conocimiento obtenido
inductivamente podemos deducir.
La segunda diferencia es que el aprendizaje
inductivo necesita muchos ejemplos para obtener
información del dominio. En el deductivo nos vale
con un ejemplo pero necesitamos más
conocimiento del dominio.
1 Deductivo: EBL (explanation
based learning).(III)
• La tercera diferencia es que el método
deductivo no incorpora nuevo
conocimiento, tan solo consigue explicar
mejor (concretar) el conocimiento existente.
Definiciones:
 Teoría del dominio (o conocimiento de respaldo) es la
información específica del dominio que vamos a suponer
completa y consistente (en SBR es la base de
afirmaciones).
 Concepto objetivo: es el concepto del que el método EBL
debe determinar una definición efectiva y operacional. Se
dice que es efectiva porque lleva a la solución rápidamente
y es operacional porque se puede hacer en la máquina.
 Ejemplo es una instancia concreta de un objetivo
 Nueva teoría del dominio es una teoría del dominio
modificada.
Componentes
Componentes: (I)
• 1. Resolución del problema: utilizar el dominio y el
ejemplo para 1Iegar al objetivo.
• 2. Análisis de la traza: analizamos la solución para
conseguir obtener una explicación. Usamos criterios:
– A. Criterio de relevancia. va a ser realmente aquello
que sea importante para abordar problemas futuros, en
una traza va a ser realmente aquella información que
forme parte en el camino de llegar a la solución.
– B. Criterio de operatividad: son aquellas reglas que se
activan directamente.
Componentes: (II)
• 3. Filtrado: filtra la información de la traza para llegar
a la explicación. Coge lo que es relevante y operativo. Se
obtiene una explicación.
• 4. Generalización: consiste en sustituir las constantes
por variables de forma que la expresión siga siendo válida.
El método más usado es el algoritmo de regresión de
objetivos. Regresionar una fórmula f a través de una regla r
consiste en determinar las condiciones necesarias y
suficientes bajo las cuales puede usarse la regla r para
obtener f.
Componentes: (III)
• 5. Construir nueva información: La información que
construimos puede ser:
• Reglas de dominio que expresaran nuevas definiciones de
conceptos en las que la parte izquierda de la regla serán las
combinaciones necesarias y suficientes del árbol de
explicación generalizado mientras que la raíz del mismo será la
parte derecha de la regla.
• Reglas de control que se construyen de forma similar.
• 6. Incorporar: esas nuevas reglas hay que incorporarlas
a la base de conocimiento, pero a veces se obtienen
demasiadas reglas para introducir en nuestro sistema. Hay
que llegar a una solución de compromiso (velocidad de
inferencia o base de afirmaciones mayor).
Problemas del EBL.(I)
• Hemos supuesto que la base de
conocimiento es completa y es consistente
pero a veces la base que tenemos no es así.
Por ello se producen dos problemas:
 1 Reformulación de la teoría: es provocado por el
aumento de volumen de la información o bien por
el aumento de la complejidad (reglas más complejas
en la base de conocimiento .Y hay que determinar
que dejamos y que eliminamos. Así que tenemos dos
soluciones: o almacenar siempre o bien no
almacenar nunca.
Problemas del EBL.(II)
• 2 Revisión de la teoría: la información obtenida no
es adecuada porque:
» La teoría es incompleta.
» La teoría es incorrecta.
» La teoría es inconsistente: se puede llegar a
contradicciones.
» La Teoría es intratable: por su volumen son difíciles
de abordar.
APRENDIZAJE POR ANALOGÍA
APRENDIZAJE AUTOMÁTICO
Introducción
• Si dos situaciones son iguales en algunos de sus
aspectos, lo normal es que puedan serlo en otras.
– Ejemplo:
• Un circuito y un sistema con una fórmula que define
su comportamiento similar. Analogía entre las dos
situaciones.
Se usa cuando se conoce el comportamiento de
un sistema, para conocer como se comporta un
sistema análogo.
Definiciones.
• Problema base: situación conocida de ante
mano.
• Dominio base: lo que se conoce de él.
• Problema objetivo: aplicamos lo conocido a
la nueva situación.
• Dominio objetivo: conocimiento obtenido
de aplicar el problema objetivo junto con la
situación conocida.
Modelo unificado de analogía (I).
KEDAR-COBELL (1988)
•
Fases:
–
–
1. Recuperación: Partiendo del problema
objetivo (dominio objetivo) buscamos un
problema base en el dominio base que tenga
similitudes significativas.
2. Elaboración: Define conocimiento del
problema base para poder aplicarlo en el
problema objetivo.
Modelo unificado de analogía (II).
KEDAR-COBELL (1988)
•
Fases:
–
–
–
3. Mapeo: Trasladamos el conocimiento
desde el problema base hasta el objetivo.
4. Justificación: Comprobamos si lo que
sabemos es aplicable y funciona en la función
objetivo.
5. Aprendizaje: Consiste en almacenar el
conocimiento obtenido aprendido, en el
conocimiento objetivo
Analogía transformacional.
CARBONELL (1983)
Plantea un espacio llamado ‘Tespacio’ y
decide que hay varios problemas que
pueden manejarse con el Tespacio, de
manera que, se puede asignar a distintos
problemas usando Toperadores.
APRENDIZAJE POR REFUERZO DE
TABLAS
APOYOS AL APRENDIZAJE
Introducción (I).
• Aprendizaje por refuerzo de tablas
consiste en tener una serie de parámetros y
según los resultados de la funcionalidad del
sistema ir modificando los parámetros.
Introducción (II).
• TIPOS DE APRENDIZAJE POR REFUERZO:
– Inmediato: lleva una señal de refuerzo tras cada
actuación del sistema y a cado paso tendrá una señal
de refuerzo que indicará si va bien o mal.
– Retardado: se pondera exclusivamente la acción del
sistema.
• Es más fácil manejar el retardado que el inmediato.
Introducción (III).
CLASIFICACIÓN:
1. Refuerzo en tablas.
2. Redes neuronales.
3. Aprendizaje estímulo-acción
Aprendizaje por refuerzo de tablas (I).
• El aprendizaje por refuerzo en tablas consiste en
gestionar el conocimiento mediante tablas de valores
que se van actualizando atendiendo al valor del
refuerzo. Son sólo aceptables por problemas
aceptables por problemas de Markov.
• Problemas modernizable por cadenas de Markov
sólo dependen del estado en el que está el sistema y
no depende de cómo ha llegado a ese estado.
Aprendizaje por refuerzo de tablas (II).
• TIPOS DE REFUERZO:
– Refuerzo inmediato.
– Refuerzo retardado.
Aprendizaje por refuerzo de tablas (III).
• Refuerzo inmediato: el algoritmo normal (es el
que se conoce como algoritmo lineal de premio
castigo, LRP) constituye una tabla con todos los
posibles estados del sistema y todas las posibles
acciones.
El algoritmo lineal de refuerzo inacción,
solamente se castiga, cuando lo haces bien no
modifica los pesos y cuando lo hace mal lo
castiga.
Aprendizaje por refuerzo de tablas (IV).
• ALGORITMO LINEAL DE PREMIO Y CASTIGO
E1_A1 E1,A2 E1,A3 E1, E2_A1 E2,A2 E2, A3 E2,...
Si se está en E1 y se pasa a E2, si es bueno se premia y si no se castiga.
Aprendizaje por refuerzo de tablas (V).
• Refuerzo retardado: suele ser más
complejo y menos autónomo. Según se ha
llegado al final se valora si se ha hecho bien
o mal.
Es más difícil detectar el fracaso en los
parámetros del sistema.
Páginas de interés
•
•
•
•
•
•
•
•
•
•
Aprendizaje en Inteligencia Artificial
Aprendizaje (definición y tipos)
Resumen Aprendizaje y Memoria
Inteligencia en Redes de Comunicaciones (Aprendizaje)
Aprendizaje definición y tipos en wikipedia
Aprendizaje Automático:Aprendizaje de Conceptos y Espacio de
Versiones.
Aprendizaje Deductivo (Basado en la Explicación)
Introduction to Machine Learning
Machine Learning and Natural Language Processing
Aprendizaje automático
Aprendizaje inductivo
• Aprendizaje por observación (ppt)
• Introducción y descripción de los
algoritmos de Aprendizaje InductivoIncremental
• Aprendizaje Inductivo
• Aprendizaje Automático: Aprendizaje de
Conceptos y Espacio de Versiones.(pdf)
• Aprendizaje Inductivo
Aprendizaje deductivo
• Aprendizaje Deductivo (Basado en la
Explicación)
• Articulo: Sugerencias para la enseñanza
tomando en cuenta métodos de aprendizaje
mecánico de la inteligencia artificial
• Aprendizaje automático. Técnicas basadas
en EBL
• DeJong y Mooney (1986), definieron el
Aprendizaje Basado en la Explicación, EBL
Aprendizaje por analogía
• Aprendizaje por analogía
• Aprendizaje por analogía
• Introducción al aprendizaje de la maquina:
sistemas discentes
Aprendizaje basado en casos
• Repositorio general sobre AI-CBR
• Herramientas AI-CBR (ver académicas)
• Documentación y código sobre el conocido sistema
SWALE
• Recursos CBR (AAAI)
• INRECA: proyecto europeo del que se deriva CASUEL y
CBR-Works
• Planificación y CBR (Veloso) / Planning and CBR
• Agentes y CBR (CSIC)
• Gente relacionada con ML y CBR / ML and CBR people
• Conferencia Internacional de CBR'03
Bibliografía
•
•
•
•
•
•
•
•
•
Mitchell (1997): “Machine Learning”. McGraw-Hill.
DA Norman (1988 ) “El aprendizaje y la memoria”. Alianza Editorial
LÓPEZ, J.A. (1990). "Inteligencia Artificial en Educación". Apuntes de Educación y
NN.TT., nº 38" Madrid: Anaya
Gerhard Weib, Sandip Sen (1996) “Adaptation and learning in multi-agent systems ed”.
CASACUBIERTA, F. Y VIDAL, E. (1987 a) “Reconocimiento automático del habla”.
Marcombo.
D. Borrajo, J.G. Boticario y P. Isasi. (“saldrá publicado” en abril 2006).“Aprendizaje
Automático.” Editorial Sanz y Torres
A. Moreno Ribas y otros (1994). “Aprendizaje Automático.” Ediciones UPC
(Universidad Politécnica de Cataluña)
Carbonell, J.G., Michalski, R.S., and Mitchell, T.M., "Machine learning: A historical and
methodological analysis". AI Magazine, Fall (1983) 69-79.
Chandrasekaran, B., Johnson, T.R., and Smith, J.W., "Task-structure analysis for
knowledge modeling". Communications of the ACM, 35 (1992) 124-137.
Artículos destacados
• A Learning Algorithm For Neural Network Ensembles
http://ltcs.uned.es:8080/aepia/Uploads/12/128.pdf
• Presentacion Monografia: Sistemas Inteligentes en el ambito de la
Educacion
http://ltcs.uned.es:8080/aepia/Uploads/12/131.pdf
• Apredizaje de la similitud entre casos con valores discretos y
numéricos(Premio Accésit Jose Cuena)
http://tornado.dia.fi.upm.es/caepia/numeros9/luaces.ps.gz
•
¿Aprendizaje o Aprendizajes?
http://contexto-educativo.com.ar/2001/2/nota-02.htm
Artículos destacados (II)
• Un método deductivo para la enseñanza
http://www.edscuola.it/archivio/software/bit/course/Revist
aEnsenanza.pdf
•
Aprendizaje Deductivo, Inductivo, y Abductivo con Algoritmos Genéticos
http://www.inf.udec.cl/revista/ediciones/edicion10/apr-ag.pdf
• Análisis y síntesis de la señal acústica
http://cvc.cervantes.es/obref/congresos/sevilla/tecnologias/mesaredon_
casacuberta.htm
• Aprendizaje en inteligencia artificial
http://www.sindominio.net/~apm/articulos/IAIC/aprendizaje/aprendiza
je.pdf
Aplicaciones
• Sistema de tutoría inteligente adaptativo considerando
estilos de aprendizaje
http://eia.udg.es/~clarenes/docs/ribie-udg-2002.pdf.
• Sistema de Reconocimiento del habla
http://es.wikipedia.org/wiki/Reconocimiento_del_habla
• Programa que aprende a jugar al Backgammon
entrenándose contra sí mismo mediante aprendizaje con
refuerzo. El programa logró un nivel de juego comparable
al de los expertos humanos.
“Temporal difference learning and TD-Gammon”
(http://www.research.ibm.com/massive/tdl.html)
Aplicaciones (II)
• Machine Learning for Distributed Traffic Control
http://www.isle.org/%7Elangley/traffic.html
• How can computers learn to decode a person's
mental state from their brain activity?
http://www.cs.cmu.edu/afs/cs/project/theo73/www/index.html
Descargar

TEMA 11: APRENDIZAJE