The ISAS website has moved. Please see our new website.

Praktikum Forschungsprojekt: Anthropomatik praktisch erfahren (SS 2018)

IMG 0283.jpg

Das Ziel des Praktikums Forschungsprojekt: Anthropomatik praktisch erfahren ist es, Studenten die Möglichkeit zu geben, in aktuelle Forschungsgebiete hineinzuschnuppern. Dabei sollen in Gruppen von jeweils zwei bis drei Studenten Soft- und/oder Hardware-Projekte erstellt werden. Die zu bearbeitenden Aufgaben kommen aus den Forschungsbereichen verteilte Messsysteme, Robotik, Mensch-Roboter-Kooperation, Telepräsenz- und Assistenzsysteme. Das Praktikum gibt interessierten Studenten die Möglichkeit, Erfahrungen sowohl im wissenschaftlichen Arbeiten als auch im Projektmanagement zu sammeln.

In dem Praktikum können folgende Fähigkeiten erlernt und vertieft werden:

  • Umsetzung von theoretischen Methoden in reale Systeme
  • Erstellung von technischen Spezifikationen
  • Projekt- und Zeitmanagement
  • Entwicklung von Lösungsstrategien im Team
  • Präsentation von Zwischen- und Endergebnissen (in Poster- und Folienvorträgen sowie einem Abschlussbericht)

Das Praktikum (4 SWS) besteht aus 2 Lehrveranstaltungen: einem praktischen Teil (mit 2 SWS), welcher die konkrete Implementierung der Aufgabenstellung des Praktikums durch die Studenten beinhaltet, und einem theoretischen Teil (mit 2 SWS). In diesem Teil des Praktikums vermitteln die wissenschaftlichen Mitarbeiter den Studenten die Theorie für das jeweilige Projekt. Außerdem diskutieren die Mitarbeiter mit den Studenten in persönlichen Gesprächen mögliche Lösungen zu Problemen, die bei der Implementierung auftreten. Beide Teile sind nur in Kombination belegbar.


Am Tag der Informatik 2010, 2015 und 2016 wurde das Praktikum Forschungsprojekt "Anthropomatik praktisch erfahren" als bestbeurteiltes Praktikum ausgezeichnet.

Weitere Informationen zum Praktikum: Forschungsprojekt: Anthropomatik praktisch erfahren.

Themengebiete


Projekt Nummer Titel Betreuer
1 Social Cities: Making a Media Art Installation in Augmented Reality Antonio Zea
2 Realitätsnahe Erweiterung eines Fahrsimulators in einer virtuellen Umgebung Christian Tesch
3 Multi-Agent Collaborative Localization and Mapping based on Directional Estimation Kailai Li
4 Flugzeug-Lokalisierung durch Empfang von ADS-B mit BeagleBoards Daniel Frisch, Ajit Basarur
5 Erweiterung eines Sensor-Netzwerks zur Vermessung räumlicher Phänomene Florian Rosenthal, Susanne Radtke, Benjamin Noack
6 POMDP Pac-Man Selim Özgen, Jana Mayer
7 Acoustic Source Localization Ajit Basarur, Daniel Frisch
8 Monocular Visual Odometry based on a Novel Stochastic Filter Kailai Li
9 AR-gestütztes Assistenzsystem für Industrie 4.0 Christian Tesch
10 Dual Quaternion-based Dense SLAM Kailai Li
11 In-Situ Reinigung von Filtergeweben und Oberflächen durch Innovative Rückstandserkennung Antonio Zea, Selim Özgen, Jana Mayer, Patrick Morsch


Projekt 1: Social Cities: Making a Media Art Installation in Augmented Reality

Supervisor: Antonio Zea

Previous version of Social Cities.

Introduction

In this project, we aim to combine advances in augmented reality (AR) and media art to immerse viewers into a dreamlike landscape of social media posts. Created in coordination with the Swiss media artist Marc Lee, the objective is to build a 3D procedural city with Unreal Engine 4, using random textures dynamically downloaded from social media sites. This city is to be rendered on top of the real world with AR on a smartphone, allowing for multiple simultaneous users to navigate it in person and interact with it. The installation will be presented in a user space, a cube of 16x16x16 meters, in the "Heart" of the Stadtbibliothek Stuttgart.

Tasks

  • Construction of the 3D city model. The assets of a previous version can be used as a starting point.
  • Incorporation of ARCore into the program navigation.
  • Calibration of the initial pose using fiducial markers (such as ArUcos).
  • Implementation of inter-user communication so that multiple users can navigate the same city.


Projekt 2: Realitätsnahe Erweiterung eines Fahrsimulators in einer virtuellen Umgebung

Betreuer: Christian Tesch

Aktueller Fahrsimulator

Einleitung

Für ein aktuelles Kooperationsprojekt verwenden wir einen Fahrsimulator in Verbindung mit einer Virtual Reality (VR) Brille (siehe Bild). Dieses System ist aktuell jedoch sehr simpel implementiert und durch mehrere Restriktionen beschränkt, so dass kein realitätsnahes Fahrgefühl entsteht.

Aufgabenstellung

Im Rahmen dieses Projekts soll der vorhandene Fahrsimulator so realitätsnah wie möglich erweitert werden. Zuerst sollen hierbei Punkte identifiziert werden, welche für eine bessere Darstellung notwendig sind. Dies kann von Zusatzhardware als Force-Feedback, über virtuelle Fahrdynamik, bis hin zur visuellen Darstellung des Fahrerinnenraums alles beinhalten, was das Immersionsgefühl steigert. Danach sollte eine Abschätzung gemacht werden, mit welcher Priorität welche Punkte im Rahmen des Praktikums umgesetzt werden können. Dies ist zudem von der Gruppengröße und den Vorkenntnissen abhängig, so dass erst dann die schlussendliche Zielsetzung individuell festgelegt werden kann. Nach der Festlegung der zu bearbeitenden Punkte erfolgt dann die Implementierung in Unity.






Projekt 3: Multi-Agent Collaborative Localization and Mapping based on Directional Estimation

Supervisor: Kailai Li

UTIAS dataset

Introduction

Directional Statistics, a subfield of statistics, provides better stochastic modeling of nonlinear and periodic uncertain variables. In ISAS, corresponding stochastic filters were also proposed to perform robust estimation of robot pose. For a team of robots, the paradigm Collaborative Localization (CL) has been demonstrated to be able to improve localization and mapping performance significantly than the individual agents. In oder to enable CL under sparse communication condition, which is a typical case in real-world scenario, some recursive decentralized localization approaches have been proposed. Although they provide an efficient CL framework, the noise terms are typically assumed to be Gaussian-distributed, which lacks probabilistic interpretation of the nonlinearity underlying the manifold of rigid body motion.

Tasks

In this research project, novel directional estimation methods will be coupled with an existing CL framework based on directional statistics for performing collaborative localization and mapping for planar motion. Necessary mapping block, e.g., mapping based on signed distance function, will be integrated into a complete SLAM system. A software prototype will be developed for evaluation based on real-world experiment dataset. Detailed information can be found here: [2]

Projekt 4: Flugzeug-Lokalisierung durch Empfang von ADS-B mit BeagleBoards

Betreuer: Daniel Frisch, Benjamin Noack

Flugzeuge senden ADS-B Signale an verteilte Empfänger.

Einleitung

In der zivilen Luftfahrt wird der klassische Primärradar mehr und mehr durch Sekundärradar ersetzt. Jedes Flugzeug hat einen oder mehrere Transponder an Bord und sendet Mode A/C oder ADS-B Signale aus, über die es sich zu erkennen gibt und identifiziert. Mit einer weit verteilten Struktur von Empfängern lässt sich der Ursprung des Signals, also die Position des Flugzeugs, aus den kleinen Unterschieden der Empfangszeiten berechnen (Multilateration).

Gleichzeitig kann man die Position jedes einzelnen Flugzeugs tracken und in jedem Zeitschritt die Informationen aus dem Bewegungsmodell und der Multilateration fusionieren.

Aufgabenstellung

Im Rahmen dieses Projekts soll eine ADS-B Empfängerstation realisiert werden, die dann verteilt zum Einsatz kommen kann. Sie muss die empfangenen Signale dekodieren und mit einem genauen Zeitstempel versehen. Eventuell kommt eine räumliche Anordnung von mehreren Antennen pro Empfängerstation zum Einsatz, um die Einfallsrichtung der elektromagnetischen Wellenfront zu bestimmen. Zum Einsatz kommt die BeagleBoard-X15 Plattform mit ihren integrierten Programmable Realtime Units (PRU) sowie Digitalen Signalprozessoren (DSP) C66.





Projekt 5: Erweiterung eines Sensor-Netzwerks zur Vermessung räumlicher Phänomene

Betreuer: Florian Rosenthal, Susanne Radtke, Benjamin Noack

Beispielaufbau.

Einleitung

Sensornetzwerke, also der Zusammenschluss von verteilten und in die Umgebung eingebetteten Sensorknoten, die (meist drahtlos) miteinander kommunizieren, ermöglichen eine Vielzahl von Anwendungen. Ein Hauptanwendungsgebiet bilden dabei einserseits Beobachtung und Überwachung. So werden Sensornetzwerke z.B. zur Wetterbeobachtung und -vorhersage oder zur Überwachung von Verkehrsflüssen oder Bauwerken eingesetzt. Auch zur Gefahrenprävention können Sensornetzwerke verwendet werden, um z.B. Brände in Waldgebieten oder Fabrikhallen zu erkennen.

Andererseits werden Sensornetzwerke auch genutzt, um sogenannte räumlich verteilte Phänomene wie Temperaturverteilungen oder Schadstoffkonzentrationen zu vermessen und zu rekonstruieren.

Aufgabenstellung

Im Rahmen dieses Praktikums soll ein Sensornetzwerk weiterentwickelt werden, mit dem eine Temperaturverteilung, dargestellt durch eine entsprechende farbliche Beamer-Projektion (Beispielaufbau siehe Bild) untersucht werden kann. Die einzelnen Sensorknoten sind dabei mit RGB-Farbsensoren ausgestattet, um die einzelnen Farbanteile an verschiedenen Stellen der Projektion zu erkennen, woraus dann der gesamte Temperaturverlauf interpoliert wird. Dieser Versuchsaufbau soll durch weitere Funktionalitäten erweitert werden, um andere Phänomene oder Beobachtungssituationen zu untersuchen.



Projekt 6: POMDP Pac-Man

Betreuer: Selim Özgen, Jana Mayer

Pac-Man Welt. Quelle: [1].

Einleitung

Viele moderne Anwendungen aus Robotik und Automatisierung benötigen Algorithmen zur Entscheidungsfindung, die auf Grundlage von verrauschten Sensordaten arbeiten. Ein gängiges Vorgehen zur Entscheidungsfindung ist es, ein stochastisches Modell vom System zu nutzen und für jede getroffene Entscheidung das zukünftige Verhalten mit zu berücksichtigen. In der Literatur spricht man meist von partiell beobachtbaren Markov’schen Entscheidungsproblemen (POMDPs), wobei eine berechenbare optimale Lösung nur für Spezialfälle gefunden werden kann. In den letzten zwei Jahrzenten wurde intensiv an einer skalierbaren Lösung für POMDPs geforscht.


Am ISAS wurde ein Laufroboter (ISAS-Crawler) entwickelt, der seine Umgebung mit verschiedenen Sensoren erfassen kann. Im Rahmen dieser Arbeit soll ein Pac-Man Spiel entwickelt werden. Dabei wird der ISAS-Crawler als Pac-Man fungieren, der gegen einen Studenten, der den Geist steuert, antritt. Schon in einer kleinen Pac-Man-Umgebung ist die Anzahl der möglichen Zustände relativ hoch, weshalb eine skalierbare Lösung erforderlich ist. Eine weitverbreitete skalierbare Lösung für POMDPs gibt die Klasse der Point-based Value Iteration Algorithmen. Ziel der Arbeit ist es, verschiedene Algorithmen dieser Klasse zu vergleichen und zu implementieren. Als Programmierplattform für das Frontend wird Matlab verwendet.

Aufgabenstellung

  1. Einarbeiten & Implementation einer skalierbaren POMDP-Lösung
  2. Realisierung von einer Beispielanwendung simulativ und auf dem Demonstrator



Projekt 7: Acoustic Source Localization

Supervisor: Ajit Basarur, Daniel Frisch, Benjamin Noack

Beispielaufbau.

Introduction

Acoustic source localization is applied in military, robotics, and medical context. Objects are located using sound waves: the direction of arrival as well as the source distance can be estimated.

Acoustic source localization can be divided into passive and active methods. In a passive method, the incoming sound emitted by a distant object is detected and localized. In active method, a sound wave is generated and its reflection or echo from a distant object is used for localization. An example of active localization is Sound Navigation and Ranging (SONAR), which is extensively used under water.

For localization, methods such as Time Difference of Arrival (TDOA), Triangulation, Steered Response Power Phase Transform will be applied.

Tasks

In the framework of this project, arrays of digital omnidirectional MEMS-based microphones are placed in a bounded region, and the microphone arrays receive sounds from fixed sources such as speaker. Microphone arrays are connected to the BeagleBoard-X15. The idea is to implement passive localization methods for multiple audio sources.





Projekt 8: Monocular Visual Odometry based on a Novel Stochastic Filter

Supervisor: Kailai Li

Example of Direct Sparse Odometry (DSO)

Introduction

Estimation of spatial transformation with a monocular camera has always been challenging as the movements can be highly nonlinear and dynamic. In ISAS, stochastic filtering approaches based on directional estimation have been proposed and proved to have better robustness under fast motion. In this research project, a novel stochastic filtering approach based on distributions from directional statistics will be employed and further coupled with a feature-based visual odometry framework. The system will in the end get evaluated with state-of-the-art dataset for pose estimation accuracy as well as robustness. Students attending the project should feel comfortable working with C++. Knowing ROS and OpenCV is a plus. Group size can be 1~4 people.

Tasks

  1. Literature review about popular monocular visual odometry systems and directional estimation methods.
  2. Implementation and integration of the proposed stochastic filtering approach into an existing monocular visual odometry framework.
  3. Evaluation based on real-world dataset.






Projekt 9: AR-gestütztes Assistenzsystem für Industrie 4.0

Betreuer: Christian Tesch

Schematische Darstellung des geplanten Assistenzsystems.

Einleitung

Durch die jüngsten technologischen Fortschritte im Bereich Personen-/Objekt-Tracking ist es möglich, eine Umgebung (z.B. eine Fertigungshalle) mittels Sensoren zu erfassen, und die dort stattfindenden Abläufe zu interpretieren. So lässt sich der aktuelle Fertigungsfortschritt eines entstehenden Produkts automatisch dokumentieren und in digitaler Form von den Mitarbeitern einsehen. Beispielsweise können Augmented Reality (AR) Brillen dazu verwendet werden, Mitarbeitern die benötigten Informationen zu ihren aktuellen Arbeitsabläufen anzuzeigen. Am ISAS wird derzeit in Zusammenarbeit mit der Firma PFW Aerospace GmbH ein entsprechendes System entwickelt, das anschließend auch bei PFW zum Einsatz kommen soll.

Aufgabenstellung

Im Rahmen dieses Praktikums soll der Einbau entsprechender Bauteile durch den Einsatz einer Microsoft HoloLens AR-Brille unterstützt werden. Hierbei sollen Bauteilskizzen angezeigt sowie CAD Modelle mit den realen Bauteilen überlagert werden, um zum Beispiel durch Zusatzinformationen, zusätzliche Schnitte durch das Modell oder Explosionszeichnungen den Einbauprozess zu erleichtern. Außerdem sollen in die Arbeitsschritte zusätzliche Hardwarekomponenten eingebunden werden. Hier ist zum Beispiel eine Beleuchtung des Tankinnenraums erwünscht, sobald der Arbeiter den Einbauprozess beginnt. Ein Schlagbohrer der je nach Arbeitsschritt über Bluetooth das passende Drehmoment übermittelt bekommt und zum Schluss eine Widerstandsmessung an verschiednen Punkten zur Qualitätssicherung, um eine sachgerechte Erdung der Bauteile zu gewährleisten.

  1. Modellierung eines Fertigungsablaufs und der dazu benötigten Bauteile
  2. Implementierung von Zusatzhardware (Schlagschrauber, Lampen, Widerstandsmessgerät, ...)
  3. Demonstration der Funktionsfähigkeit des modellierten Fertigungsablaufs bei PFW



Projekt 10: Dual Quaternion-based Dense SLAM

Supervisor: Kailai Li

Example of dense SLAM result

Introduction

RGB-D sensors can provide both photometric and geometric information at the same time. Corresponding dense SLAM system typically employ the well-known homogeneous transformation matrix for pose representation and further perform odometry based on its Lie algebra. However, techniques such as direct image alignment normally has the assumption of small motion between consecutive frames. In ISAS, we aim to construct a dense SLAM system with a tracking block estimating poses on the manifold of dual quaternions. Necessary stochastic filtering approaches from Directional Estimation (DE) may also get employed for better robustness. Students attending the project should feel comfortable working with C++. Knowing ROS and OpenCV is a plus. Group size can be 1~4 people.

Tasks

  1. Literature review about dense SLAM system and dual quaternion representation method.
  2. Implementation of a tracking block estimating poses on the manifold of unit dual quaternions.
  3. Integration of the tracking block into an existing SLAM framework.
  4. Evaluation based on real-world dataset regarding odometry accuracy and robustness.






Projekt 11: In-Situ Reinigung von Filtergeweben und Oberflächen durch Innovative Rückstandserkennung

Betreuer: Antonio Zea, Selim Özgen, Jana Mayer, Patrick Morsch

Abbildung 1: Oberfläche eines verschmutzten Filtergewebes mit sauberem(grün) und verschmutztem (rot) Gewebeabschnitt (Maßstabteilung 1 mm)

Einleitung

In der Verfahrenstechnisch ist die Abscheidung partikulärer Verunreinigungen in Flüssigkeiten mittels filtrierender Abscheider eine weitverbreitete Anwendung. Der dabei anfallenden Filterkuchen bildet den maßgeblichen Druckverlust in der Strömung und muss deshalb periodisch ausgetragen werden. Die, bei diesem Vorgang verbleibenden, Restverunreinigungen auf der Oberfläche sollen möglichst vollständig entfernt werden. Dieser Schritt wird gegenwärtig mit großem Reinigungsaufwand betrieben. Aus diesem Grund soll das notwendige Reinigungsvolumen mittels Rückstandserkennung bedarfsorientiert automatisiert werden.

Aufgabenstellung

Im Rahmen des Projekts soll eine vorhandene Bilderkennung mit Blick auf Rechenzeit und Schmutzerkennung verbessert werden. Diese Bilderkennung wird mit einem xyz- Tisch gekoppelt, welche das Abrastern von Oberfläche ermöglicht. So soll eine automatische Erkennung der verschmutzen Oberflächen in großen Bereichen realisiert werden. In Abbildung 1 ist beispielhaft die Oberfläche eines Filtergewebes mit verschmutztem (rot) und sauberem (grün) Gewebesausschnitt dargestellt.






Anrechenbarkeit

Vertiefungsgebiete

  • Theoretische Grundlagen
  • Robotik und Automation
  • Anthropomatik und Kognitive Systeme

Master- und Bachelorstudiengang

Die erbrachte Leistung wird mit 8 LP angerechnet.

Seminar zum Praktikum

Optional kann im Rahmen des Praktikums zusätzlich ein Seminarschein erworben werden.

Hierzu muss vertiefend zu dem bearbeiteten Praktikumsprojekt

  • ein eigenständiger Vortrag gehalten werden und
  • eine Seminar-Ausarbeitung erstellt werden.

Das Thema ist individuell mit dem betreuenden Mitarbeiter abzusprechen. Eine Teilnahme an diesem speziellen Seminar ist nur in Kombination mit dem Praktikum möglich. Am ISAS wird aber noch ein reguläres Seminar angeboten.

Termin und Ort

Die Einführungsveranstaltung findet am Freitag, 20.4.2018 um 14:00 Uhr in Raum 148, Gebäude 50.20 Campusplan öffnen, statt.

Weitere Termine:

  • Projektvorstellung: Fr. 27.4.2018 14:00 Uhr in Raum 148, Gebäude 50.20
  • Zwischenpräsentation: Fr. 15.6.2018 14:00 Uhr in Raum 148, Gebäude 50.20
  • Endpräsentation: Fr. 20.7.2018 9:00-13:00 Uhr in Raum 148, Gebäude 50.20

Anmeldung

  • Die Anmeldung erfolgt per E-mail an Ajit Basarur. Für die Anmeldung sind folgende Informationen erforderlich:
    • Name, Vorname
    • E-Mail-Adresse
    • Matrikelnummer
    • Studiengang und Typ (Bachelor/Master)
    • Semester
    • gewünschtes Projekt
  • Jeder Student wählt bei der Anmeldung in einer Liste sein Wunschthema aus. Sollten alle Themen vergeben sein, gibt es für jedes Projekt Nachrückplätze.
  • Bei der Einführungsveranstaltung wird der Ablauf des Praktikums erläutert. Es müssen alle angemeldeten Studenten anwesend sein. Die Projekte, die nicht vergeben wurden, werden an diesem Termin nicht angemeldeten Studenten angeboten.

Koordination: Ajit Basarur

Vorlagen für Vorträge und Ausarbeitung


Weitere Informationen zum Praktikum

Ziel des Forschungsprojekts

Im Praktikum Forschungsprojekt: Anthropomatik praktisch erfahren kann man zusammen mit anderen Studierenden im Team Soft- und/oder Hardware zu aktuellen und spannenden Forschungsthemen des Lehrstuhls erstellen. Dabei werden theoretische Verfahren auf reale Systeme übertragen und somit ein wichtiger Beitrag zur Forschung geleistet.

Zur Verfügung stehende Hilfsmittel für die Umsetzung des Projekts

Für Hardwareprojekte stehen unsere gut ausgestatteten Werkstätten zur Verfügung. Zusammen mit unseren technischen Mitarbeitern können dort mechanische Komponenten sowie elektronische Schaltungen aufgebaut werden. Hierfür steht unter anderem eine moderne Leiterplattenfräse, ein 3D-Drucker sowie ein SMD-Arbeitsplatz zur Verfügung.

Zur Erstellung von Software stehen unsere Poolrechner sowie Server mit den benötigten Werkzeugen und Compilern zur Verfügung. Die Programmiersprachen variieren je nach Projekt.

In jedem Fall stehen die motivierten Mitarbeiter, die das jeweilige Projekt betreuen, mit Rat und Tat zur Seite.

Ablauf des Forschungsprojekts

Bei der Einführungsveranstaltung stellen die Betreuer Details zu den Projekten vor. Vorangemeldete Studenten können vorab ihr Projekt schon auswählen. Sind noch Plätze frei, können auch noch nicht-vorangemeldete Studenten nachrücken.

In der darauffolgenden Woche erstellt das so gebildete Team gemeinsam einen Projektplan, in dem das Vorgehen und der zeitliche Ablauf dargestellt ist. In dem Projektplan werden neben den notwendigen Zwischenschritten auch die verschiedenen Meilensteine definiert und eine Zeiteinteilung vorgenommen. Der Projektplan wird bei einem zweiten Treffen (Erstpräsentation) präsentiert.

Dann geht es an die Lösung der Aufgabe. In der Mitte des Semesters findet eine Zwischenpräsentation statt, bei der das Team seine Zwischenergebnisse präsentiert. Am Ende des Semesters gibt es eine Endpräsentation. Bei den Präsentationen gibt es Feedback und Tipps zum weiteren Vorgehen. Zur Abrundung des Projektes wird eine schriftliche Ausarbeitung erstellt.

Anforderungen

  • Einarbeitung in die gegebene Problemstellung und Entwicklung von Lösungsstrategien im Team.
  • Für die erfolgreiche Bearbeitung der spannenden Forschungsthemen muss man ca. 9-12h pro Woche einplanen.
  • Im Rahmen des Praktikums werden zwei Kurzvorträge und eine Posterpräsentation gehalten.
  • Am Ende des Semesters
    • sollte die Projektaufgabe vollständig gelöst sein,
    • muss die gewählte Lösungsstrategie in einer Ausarbeitung dokumentiert werden.

Auszeichnung des Praktikums

Das Praktikum wurde im Wintersemester 2005/2006, im Sommersemester 2007 und im Wintersemester 2009/2010 als bestbeurteiltes Praktikum ausgezeichnet.

Beispiele für Projektaufgaben aus den vorherigen Semestern

Hier haben wir aus den zurückliegenden Semestern einige Projekte zusammengestellt, die von den Studenten erfolgreich und mit viel Engagement gelöst wurden:

Projekt Betreuer
Verbesserung der Segmentierung von Teilchen auf einem Förderband (WS17/18) Florian Pfaff, Benjamin Noack, Georg Maier, Robin Gruna
Erweiterung eines Sensor-Netzwerks zur Vermessung räumlicher Phänomene (WS17/18) Florian Rosenthal, Benjamin Noack
AR-gestütztes Assistenzsystem für Industrie 4.0 (WS17/18) Christian Tesch
Roboterlokalisierung in 2D mittels SE(2) Filterung (WS17/18) Gerhard Kurz, Kailai Li
POMDPs bei Roboternavigation (WS17/18) Jana Mayer, Selim Özgen
Ultraschall-basierte Simultane Lokalisierung und Kartografierung (SS2017) Gerhard Kurz, Christof Chlebek
Evaluation von Trackingverfahren in der Bandsortierung mittels Zeilenkameras (SS2017) Florian Pfaff, Benjamin Noack, Georg Maier, Robin Gruna
AR-gestütztes Assistenzsystem für Industrie 4.0 (SS2017) Florian Faion, Benjamin Noack, Antonio Zea
Sensor-Netzwerk zur Vermessung eines räumlichen Phänomens (SS2017) Florian Rosenthal, Benjamin Noack



Personal tools