The ISAS website has moved. Please see our new website.

Bei einer Vielzahl von technischen Systemen ist es notwendig, möglichst exakte Informationen über interne Systemzustände oder -parameter zu haben. Dieses kann z.B. die Position eines mobilen Roboters oder eines Flugzeuges, die Giergeschwindigkeit eines Autos für die ESP-Regelung, oder aber die Temperatur in einem chemischen Reaktor sein. Oft können diese Systemzustände und -parameter nicht in der benötigten Qualität gemessen werden, sondern man muss von verrauschten oder indirekten Messungen auf den eigentlichen Wert rückschließen.

Dies geschieht heutzutage typischerweise mittels stochastischer Schätzer, wobei hier das Kaman-Filter für eine Vielzahl einfacher linearer Systeme eine optimale Lösung darstellt. Im Rahmen dieses Seminars sollen ausgehend von einer Wiederholung der wichtigsten Grundlagen, insbesondere der Dichterepräsentation von Zufallsvariablen und den Bayes'schen Gleichungen, verschiedene stochastische Schätzer vorgestellt werden. Hierbei liegt ein Schwerpunkt auf praktisch einsetzbaren approximativen Verfahren.

Dieses Seminar richtet sich insbesondere an Studenten, die bereits die Vorlesung Stochastische Informationsverarbeitung besucht haben oder aber die Vorlesung Lokalisierung mobiler Agenten parallel besuchen. Für diese Vorlesungen stellt das Seminar eine optimale Ergänzung dar, da hier die in den Vorlesungen behandelten theoretischen Grundlagen auf effizient einsetzbare stochastische Schätzer übertragen werden können.

Anmeldung

  • Die Anmeldung erfolgt persönlich bei Antonia Pérez Arias. Jeder Student wählt in einer Liste sein Wunschthema. Sollten alle Themen vergeben sein, gibt es für jedes Thema einen Nachrückplatz.
  • Bei der Einführungsveranstaltung werden Hinweise zum Vortrag, zur Ausarbeitung und zum Seminarablauf gegeben.
    • Es müssen alle angemeldeten Studenten anwesend sein.
    • Die Themen, die nicht bereits vergeben wurden, werden an diesem Termin den nicht angemeldeten Studenten angeboten

Voraussetzungen für den Erwerb des Scheins

  • Vortrag 20 Minuten (im Rahmen von Blockveranstaltungen mit je drei bis vier Vorträgen)
  • Schriftliche Ausarbeitung
  • Anwesenheit bei Einführungsveranstaltung und Vorträgen

Termine und Ort

  • Die Einführungsveranstaltung findet am Freitag, den 24.04.09 um 09:45 im Gebäude 20.20, R267 statt.
  • Die Vorträgen finden am Mittwoch, den 24.06.09, und am Freitag, den 26.06.09 jeweils um 14:00 Uhr im Gebäude 20.20, R267 statt.
  • Koordination: Antonia Pérez Arias

Vorlagen

Themenbeschreibungen

1. Repräsentierung von Wahrscheinlichkeitsdichten

Augenscheinlichstes Merkmal der in diesem Seminar vorgestellten stochastischen Schätzverfahren ist die Wahl des Funktionensystems zur Repräsentation der Wahrscheinlichkeitsdichtefunktion von Zufallsvariablen. Dabei hat die Wahl des Funktionensystems Auswirkungen auf die Lösbarkeit der Bayes'schen Gleichungen und den damit verbunden Rechenaufwand, die Güte der Approximation der wahren Wahrscheinlichkeitsdichte sowie die Berechenbarkeit statistischer Kenngrößen wie etwa Mittelwert oder Varianz. In diesem Themengebiet sollen die gebräuchlichsten Funktionensysteme zur Repäsentationen von Wahrscheinlichkeitsdichten vorgestellt werden.

Literatur:

  • Papoulis, A.; Probability, Random Variables and Stochastic Processes, McGraw-Hill, 1991.
  • Jondral, F.; Wiesler, A.; Wahrscheinlichkeitsrechnung und stochastische Prozesse, Kapitel 4-7, B.G. Teubner Verlag, 2002
  • Hanebeck, U. D.; Schrempf, O.; Stochastische Informationsverarbeitung, Skriptum zur Vorlesung, 2007
  • D’Agostino, R. B.; Stephens, M. A.; Goodness-of-Fit Techniques, ser. Statistics, textbooks and monographs. Kapitel 4, Marcel Dekker, Inc., 1986, vol. 68.

(SI Skript & D'Agostino gibt es bei P. Krauthausen)

2. Das Unscented Kalman Filter (UKF) und andere regressionsbasierte Gaußfilter

In den letzten Jahren hat sich das Unscented Kalman Filter (UKF) aus der Masse der stochastischen Schätzverfahren hervorgetan, da es die geringe Komplexität des Kalman Filters mit den Eigenschaften statistischer Regression kombiniert. Mit dem Propagieren geschickt gewählter Regressionspunkte kann die Unsicherheit der gegenwärtigen Schätzung über das nichtlineare System hindurch transformiert werden, wodurch einige Nachteile des erweiterten Kalman Filters umgangen werden. Neben der Aufarbeitung der prinzipiellen Wirkungsweise des UKF sollen in dieser Seminararbeit die Unterschiede und Gemeinsamkeiten zu anderen regressionsbasierten Gaußfiltern wie etwas dem Central Difference Filter (CDF) oder Divided Difference Filter (DDF) dargestellt werden.

Literatur:

  • Wan, E.A.; Van Der Merwe, R.; "The unscented Kalman filter for nonlinear estimation", The IEEE Adaptive Systems for Signal Processing, Communications, and Control Symposium, 2000, pp. 153-158
  • Julier, S. J.; Uhlmann, J. K.; "Unscented Filtering and Nonlinear Estimation", Proceedings of the IEEE, vol. 92, no. 3, pp. 401-422, 2004
  • Lefebvre, T.; Bruninckx, H.; Schutter, J. D.; Comments on "A New Method for the Nonlinear Trannsformation of Means and Covariances in Filters and Estimators", IEEE Transactions on Automatic Control, vol. 45, no. 8, pp. 1406-1408, 2002

3. Alternative Kalman Filter Formulierungen

Für die verteilte Schätzverfahren, die vereinfache Berechnung des Filterschritts sowie für die Berechnung von unteren Schranken bezüglich des theoretisch erzielbaren Schätzfehlers hat sich die Informationsdarstellung des Kalman Filters bewährt. Hierbei wird die Inverse der Kovarianzmatrix verarbeitet, welche sich als Informationsgehalt einer Schätzung interpretieren lässt. Neben der Informationsform gibt es weitere Darstellungen des Kalman Filters, welche etwa auf eine erhöhte numerische Stabilität oder effizientere Berechnung abzielen. Dieses Seminarthema erstreckt sich über die Heraustellung der Eigenschaften unterschiedlicher Formulierungen des Kalman Filters sowie deren Bedeutung für verschiedene Anwendungsgebiete.

Literatur:

  • Simon, D.; Optimal State Estimation: Kalman, H Infinity, and Nonlinear Approaches, Kapitel 6, Wiley & Sons, 2006
  • Mutambara, A. G.; Decentralized Estimation and Control for Multisensor Systems, Kapitel 2, CRC Press Inc, 1998
  • Kailath, T.; Sayed, A. H.; Hassibi, B.; Linear Estimation, Prentice Hall, 2000

4. Partikelfilter (Monte Carlo Verfahren)

Eine in der numerischen Mathematik seit Jahrzehnten bewährte Methode zur näherungsweisen Bestimmung von Integralen ist deren punktweise Auswertung. Bei Monte Carlo Verfahren geschieht diese Auswertung zufällig. Auf dieser Idee aufbauend wurden erfolgreich Schätzverfahren, die allgemein als Partikelfilter bezeichnet werden, zur Lösung von Schätzproblemen eingesetzt. Der Name Partikelfilter bezieht sich dabei auf die zufällig gewählten Punkte (Partikel). In diesem Themengebiet soll die grundlegende Idee der Monte Carlo Verfahren erläutert, die generische Struktur dieser Schätzverfahren dargestellt sowie deren Vor- und Nachteile aufgezeigt werden.

Literatur:

  • Sequential Monte Carlo Methods
  • Arulampalam, M.S.; Maskell, S.; Gordon, N.; Clapp, T.; "A tutorial on particle filters for online nonlinear/non-GaussianBayesian tracking", IEEE Transactions on Signal Processing, vol. 20, no. 2, pp. 174-188, 2002
  • Doucet, A.; de Freitas, J. F. G.; Gordon, N. J.; Sequential Monte Carlo Methods in Practice, New York: Springer-Verlag, 2001.

5. Erweitertes Partikelfilter (EPF) und Unscented Partikelfilter (UPF)

Bei der Implementierung eines Partikelfilters ist die Wahl der sog. Importance Function am kritischsten. Die Importance Function ist für die Auswahl der Punkte (Partikel) verantwortlich. Die Auswahl anhand der optimalen Importance Function ist dabei im allgemeinen ineffizient oder gar unmöglich. Die gängigste näherungsweise Beschreibung der Importance Function basiert auf dem probabilistischen Modell des Systems, wodurch allerdings der Einfluss der Messungen verloren geht. Um dies zu vermeiden werden bei dem erweiterten Partikelfilter (EPF) oder dem Unscented Partikelfilter (UPF) das klassische Partikelfilter in Kombination mit EKFen bzw. UKFen für jedes Partikel verwendet. Die Problematik der Wahl geeigneter Importance Functions sowie die Vorteile und Probleme beim Einsatz von UKF oder EKF zur Approximation der optimalen Importance Function sind in dieser Seminararbeit herauszuarbeiten.

Literatur:

6. Hyperraumfilter

Ein interessanter Spezielfall eines Gaußfilters ist das Hyperraumfilter, bei welchem das eigentliche nichtlineare Schätzproblem, ähnlich wie bei Support-Vektor-Machines, in einen höherdimensional Raum (Hyperraum) transformiert wird. Hierdurch ergibt sich im Hyperraum eine lineare Beschreibung, welche äquivalent zum ursprünglichen nichtlinearen Schätzproblem ist. Durch Anwendung der Kalman Filtergleichungen kann somit im Hyperraum das optimale Schätzergebnis ermittelt werden. Die Beschreibung der Funktionsweise des Verfahrens inklusive der erforderlichen Annahmen und verwendeten Dichterepräsentationen sind Aufgabe dieses Seminarthemas.

Literatur:

  • Hanebeck, U. D.; "Optimal Filtering of Nonlinear Systems Based on Pseudo Gaussian Densities", Proceedings of the 13th IFAC Symposium on System Identification (SYSID 2003), pp. 331-336, August, 2003.
  • Lefebvre, T.; Bruyninckx, H.; de Schutter, J.; Nonlinear Kalman Filtering for Force-Controlled Robot Tasks, Kapitel 5, Springer Berlin, 2005

7. Dynamische Bayesnetze

Die in den vorhergehenden Seminarthemen eingeführten Hidden Markov Modelle (HMM) und das Kalman Filter sind Spezialfälle der als Dynamische Bayesnetze (DBN) bezeichneten probabilistischen graphischen Modelle. DBN erlauben eine faktorisierte Darstellung des Zustands und beliebige Dichtebeschreibungen. Insbesondere die vielfältige Beschreibung des Zustandsraums (hierarchisch, faktorisiert, gekoppelt etc.) machen DBN für komplexe Erkennungsaufgaben einsetzbar. Zu diesem Thema soll die generische Modellierung der wesentlichen DBN Modelle (Factorial HMM, HHMM, Segmental Model) beschrieben und für die exakte Filterung notwendigen generischen Operationen erklärt werden. Besonderer Wert soll auf die Abgrenzung der HMM und KF gegenüber den DBN gelegt werden.

Literatur:

  • Rabiner, L. R.; "A tutorial on hidden Markov models and selected applications in speech recognition", Proceedings of the IEEE, vol. 77, no. 2, pp. 257–285, Feb. 1989
  • Murphy, K; "Dynamic Bayesian Networks: Representation, Inference and Learning", PhD Thesis, UC Berkeley, Computer Science Division, July 2002.
  • Ghahramani, Z. and Jordan, M.I.; "Factorial hidden Markov models", Machine learning, vol. 29, no. 2, pp. 245-273, 1997, Springer.
  • Murphy, K.P. and Paskin, M.A.; "Linear time inference in hierarchical HMMs", Advances in Neural Information Processing Systems 14: Proceedings of the 2002, MIT Press.

8. Applikationen von stochastischen Filtern

Seit der Erfindung des Kalman Filters in den sechziger Jahren des letzten Jahrhunderts kommen stochastische Filter bei einer Vielzahl von technischen Systemen zum Einsatz. Im Bereich Luft- und Raumfahrttechnik sind sie z.B. zur Positionsschätzung nicht mehr wegzudenken und wurden bereits für das Apollo Programm verwendet. Ähnliches gilt für militärisch Anwendungen, etwa die Radar-Zielerfassung oder GPS. Darüber hinaus kommen stochastische Filter in verschiedenen Steuergeräten im Auto (z.B. ESP) aber auch bei der ökonomischen Untersuchung von Zeitreihen zum Einsatz. Die Aufgabe dieses Seminarthemas besteht in der Zusammenstellung und Erläuterung besonders interessanter bzw. relevanter Anwendungsbeispiele für stochastische Filter sowie die sich aus der praktischen Applikation ergebenden speziellen Erfordernisse an die Filter.

Meine Werkzeuge