Computer Vision - PowerPoint PPT Presentation

1 / 13
About This Presentation
Title:

Computer Vision

Description:

Computer Vision Klassifizierung, Boosting Yun-Yi Lisa Wang wangyu_at_in.tum.de 08.07.2004 bersicht Motivation Wozu braucht man Klassifizierung Grundlagen Was ist ... – PowerPoint PPT presentation

Number of Views:48
Avg rating:3.0/5.0
Slides: 14
Provided by: www9InTum
Category:

less

Transcript and Presenter's Notes

Title: Computer Vision


1
Computer Vision
  • Klassifizierung, Boosting
  • Yun-Yi Lisa Wang
  • wangyu_at_in.tum.de
  • 08.07.2004

2
Übersicht
  • Motivation
  • Wozu braucht man Klassifizierung
  • Grundlagen
  • Was ist Klassifizierung
  • Entscheidungsgrenze finden
  • Methoden zum Bau von Klassifikatoren
  • Klassifizierung mittels Histrogramm
  • Auswahl der Merkmale
  • Verbesserung durch Boosting
  • Fazit

3
Motivation
  • Fahrerassistenzsystem
  • Mensch-Maschine-Schnittstelle
  • Spracherkennung, Mimikerkennung

4
Klassifizierung
  • Was sind
  • Merkmale
  • Labeling
  • Klassen
  • Trainingsbeispiele
  • Trainingsmenge
  • Entscheidungsgrenze

5
Entscheidungsgrenze finden
  • Verlustfunktion
  • Gesamtrisiko berechnen
  • Gesamtrisiko minimieren

6
Methode mit Normalverteilung
  • Parameter der Normalverteilung für Klasse k
  • Mittelwert
  • Varianz
  • Aktion Klassifizierung von Stichprobe x
  • wähle die Klasse mit der geringsten Distanz zu x
  • verwende dabei Mahalanobis Distanz

7
Mahalanobis Distanz
  • Unterschiedliche Gewichtung des Abstandsmaßes
  • die Distanz hat ein größeres Gewicht in der
    Richtung der kleineren Abweichung
  • die Distanz hat ein kleineres Gewicht in der
    Richtung der größeren Abweichung

8
Methode mit Nearest Neighbours
  • k nächste Nachbarn suchen
  • Einfache Mehrheit muss mehr als l sein

9
Klassifikator mittels Histogramm
  • Wahrscheinlichkeitsmodell durch Histogramm
  • Vor- und Nachteil verglichen mit
    Normalverteilung
  • Vorteil realitätsnäher
  • Nachteil rechenaufwendiger

10
Auswahl der Merkmale
  • Anforderungen
  • Eindeutig für die Klasse
  • Invariant zur Veränderungen
  • Nicht zu viele auch nicht zu wenige Merkmale
  • Verschiedene Einheiten
  • Länge im Pixel
  • Grauwert
  • Winkel

11
Verbesserung mit Boosting
  • Erster Boosting Algorithmus aus dem Jahr 1989
  • Zur Zeit Adaboost
  • Grundidee des Trainings
  • Wir wollen t-mal trainieren, wobei t T
  • Alle Trainingsdaten haben anfangs gleiches
    Gewicht
  • Geringste Fehlerwahrscheinlichkeit suchen
  • Damit Hypothese ht und deren Faktor at
    feststellen
  • Gewicht für falsch klassifizierte Daten erhöhen
  • Wenn t lt T goto 2
  • End-Hypothese ? ht at

12
Beispiel für Boosting
  • http//www.cs.technion.ac.il/rani/LocBoost/index.
    html

13
Fazit
  • Linearer Klassifikator
  • Dynamic Time Warping (Dynamische Programmierung)
  • Hidden Markov Modelle (HMM)
  • Artificial Neural Network (ANN)

x
Klassifikator
Trainingsmenge
y
Write a Comment
User Comments (0)
About PowerShow.com