Algoritmos de Recubrimiento Secuencial - PowerPoint PPT Presentation

1 / 18
About This Presentation
Title:

Algoritmos de Recubrimiento Secuencial

Description:

Alternativa a los rboles de decisi n. Generan directamente las reglas de clasificaci n ... Asume hip tesis del mundo cerrado si no se dan ejemplos negativos ... – PowerPoint PPT presentation

Number of Views:156
Avg rating:3.0/5.0
Slides: 19
Provided by: seph6
Category:

less

Transcript and Presenter's Notes

Title: Algoritmos de Recubrimiento Secuencial


1
Algoritmos de Recubrimiento Secuencial
  • Diego García Morate
  • Diego.garcia.morate_at_gmail.com
  • Jorge Martín Martín
  • jorgmar_at_gmail.com

2
Índice
  • Introducción
  • Algoritmo básico separa y vencerás
  • Obtención de una regla
  • Variantes
  • Comparación de Métodos

3
1. Introducción
  • Alternativa a los árboles de decisión
  • Generan directamente las reglas de clasificación
  • Únicamente se centran en la clase que están
    evaluando.

4
2. Algoritmo básico separa y vencerás
  • Sencillez conceptual
  • Capacidad de generar conjuntos de reglas con
    buena capacidad de clasificación.
  • Son el núcleo básico de numerosas técnicas de
    inducción simbólica
  • Alternativa a los algoritmos divide y vencerás

5
2. Algoritmo básico separa y vencerás
  • Funcionamiento
  • Aprender una regla
  • Eliminar casos que cubre
  • Goto 1
  • Uso de 2 bucles
  • Bucle interno
  • Genera una regla para un conjunto de casos de
    entrenamiento,  de manera que cubra el máximo
    número de casos positivos .
  • Se busca la mayor precisión posible aceptando por
    ello una baja cobertura (no necesitamos que
    prediga todos los ejemplos de entrenamiento).
  • Bucle externo
  • Itera un número indeterminado de veces sobre el
    bucle interno, de manera que cada vez que
    generamos una regla, eliminamos los ejemplos
    positivos que esta cubre, aprendiendo así un
    conjunto de reglas disyuntivas que entre todas
    cubran una determinada fracción de todos los
    casos positivos.
  • Con este bucle suplimos la carencia de cobertura
    que sacrificamos en el bucle interno a favor de
    la precisión de las reglas.

6
2. Algoritmo básico separa y vencerás
  • Algoritmo voraz sin backtracking no garantiza la
    mejor solución
  • RECUBRIMIENTO_SECUENCIAL(Atributo_objetivo,Atribut
    os,Ejemplos,Umbral)
  • Reglas_aprendidas ?
  • Regla ? APRENDER_UNA_REGLA(Atributo_objetivo,
    Atributos, Ejemplos)
  • Mientras RENDIMIENTO(Regla, Ejemplos) gt Umbral
    hacer
  • Reglas_aprendidas ? Reglas_aprendidas Regla
  • Ejemplos ? Ejemplos - ejemplos clasificados
    correctamente por la regla
  • Regla ? APRENDER_UNA_REGLA(Atributo_objetivo,Atrib
    utos,Ejemplos)
  • Reglas_aprendidas ? clasificar Reglas_aprendidas
    de acuerdo al RENDIMIENTO sobre los Ejemplos
  • Devolver Reglas_aprendidas

7
3. Obtención de una regla
  • Se utiliza un enfoque similar a los árboles de
    decisión pero únicamente se explora la rama más
    prometedora (mejor par atributo-valor).
  • Se realiza una búsqueda de lo general a lo
    particular
  • lt?,?,?,?gt ? ? lta,b,c,dgt

8
3. Obtención de una regla
  • Ejemplo
  • Uso de Lentes de contacto (duras, suaves,
    ninguna)
  • Medida de rendimiento
  • Regla más general
  • IF lt?gt THEN recomendaciónduras

9
3. Obtención de una regla
  • Regla Seleccionada Astigmatismo si

10
3. Obtención de una regla
11
3. Obtención de una regla
  • Para aumentar la precisión seguimos iterando
  • Seleccionamos
  • IF astigmatismo si ? ratio de producción de
    lágrimas normal THEN recomendación duras

12
3. Obtención de una regla
  • Seguimos iterando para obtener la máxima
    precisión de la regla sin importarnos lo compleja
    que pueda ser

13
3. Obtención de una regla
  • Llegamos hasta la máxima precisión
  • Prescripción óptica miopía cubre más casos
    (3/3) que Edad joven (2/2)
  • Regla

IF astigmatismo si ? ratio de producción de
lágrimas normal ? prescripción óptica
miopía THEN recomendación duras
14
3. Obtención de una regla
  • Cubrimos ¾ de los casos totales.
  • El bucle externo decidirá si creamos más reglas
    para ganar cobertura
  • Antes de crear nueva regla elimina los casos
    positivos
  • Nueva regla
  • IF edad joven ? ratio de producción de
    lágrimas normal THEN recomendación duras
  • Entre las dos cubren todos los casos (no importa
    el solapamiento)

15
4. Variantes
  • GOLEM
  • Dirección De lo especifico a lo general.
  • Inicio Elige la mejor hipótesis de entre varios
    ejemplos aleatorios para iniciar y guiar la
    búsqueda.
  • Luego selecciona la mejor hipótesis obtenida tras
    múltiples elecciones.

16
4. Variantes
  • PRISM
  • Asume que no hay ruido en los datos
  • Intenta maximizar la relación P/T
  • El orden de obtención de reglas es relevante
    (Decision list)
  • Las reglas no dependientes del orden pueden
    producir varias clasificaciones o ninguna.

17
4. Variantes
  • FOIL (First Order Inductive Learning)
  • Foil construye disyunción de cláusulas Horn o
    reglas de Primer Orden que explican un concepto
  • El concepto a aprender es conocido por medio de
    un conjunto de ejemplos positivos y negativos
  • Asume hipótesis del mundo cerrado si no se dan
    ejemplos negativos
  • Sigue una heurística de búsqueda de lo general a
    lo específico mediante un ascenso de colinas.

18
5. Comparación de Métodos
  • Árboles de decisión
  • Divide y vencerás
  • Atributos
  • Estructuras grandes ? poda
  • Recubrimiento secuencial
  • Separa y vencerás
  • Pares atributo-valor
  • Mayor número de pasos
Write a Comment
User Comments (0)
About PowerShow.com