Refine
H-BRS Bibliography
- yes (42) (remove)
Departments, institutes and facilities
Document Type
- Bachelor Thesis (42) (remove)
Year of publication
Keywords
- Lignin (2)
- 3D Crosstalk (1)
- 3D Display (1)
- 3D crosstalk (1)
- 3D display (1)
- 3D-Kartierung (1)
- 3D-Laserscanner (1)
- 3D-Lokalisierung (1)
- 3D-Punktwolke (1)
- Al2O3 (1)
Die vorliegende Bachelorthesis setzt sich mit der Problematik auseinander, ob Produktbewertungen auf Youtube nutzwertjournalistisch sein können, wozu zunächst ein Kategoriensystem zur Identifikation von Nutzwertjournalismus entwickelt wird. Mithilfe der Methode der qualitativen Inhaltsanalyse und dem Kategoriensystem, werden vier Produkttests des Fotografie-Kanals Value-TechTV untersucht. Die Forschungsfrage lautet daher: Zählen die Produkttests des Kanals ValueTechTV zum Nutzwertjournalismus?
In der vorliegenden Arbeit wurde Kraft-Lignin als Makromonomer für die Synthese von thermoplastischen Polyurethanen mit hoher molarer Masse durch acide Präzipitation aus Schwarzlauge isoliert. Die Charakterisierung des Rohstoffes bezüglich seiner Ausgangsmolmasse erfolgte mittels Gel-Permeations-Chromatographie mit Polystyren-Polymerstandard, welche sich als sehr hilfreiche Analysemethode erwies. Da das Kraft-Lignin die klassische Polyolkomponente bei der Synthese von Polyurethanen ersetzen sollte, war es notwendig, den Hydroxylgehalt des Kraft-Lignins zu bestimmen. Für diesen Zweck wurde eine bereits etablierte Prozedur zur nasschemischen Bestimmung des Hydroxylgehaltes von Polyolen für die Synthese von Polyurethanen einer Adaption unterzogen. Es wurde die Reaktionsdauer bei der Acetylierung des Kraft-Lignins variiert. Das Ergebnis war, dass die Messgenauigkeit durch eine Erhöhung der Reaktionsdauer von 1 h auf 3 h drastisch von 25,5 % auf 3,6 % reduziert werden konnte. Um abschätzen zu können, ob die erzielte Messgenauigkeit im Rahmen einer nasschemischen Prozedur mit manueller Titration liegt, wurden zusätzlich die Hydroxylgehalte von Ethandiol und Saccharose bestimmt. Diese dienten als Referenzsubstanz mit definierten und bekannten Hydroxylgehalten. Die Ermittlung der Hydroxylgehalte mit diesen Substanzen ergab für Ethandiol eine Messgenauigkeit von 2,2 % und für Saccharose eine Messgenauigkeit von 1,4 %. Eine Messgenauigkeit von 3,6 % ist in Anbetracht des Zeitaufwandes akzeptabel.
Für die Synthese von thermoplastischen Polyurethanen wurde Kraft-Lignin mit Methylendiphenyldiisocyanat in Dimethylacetamid mit Zinnoktoat als Katalysator zur Reaktion gebracht. Es wurde das NCO/OH-Verhältnis und die Reaktionsdauer variiert. Die Analyse der synthetisierten Polyurethane erfolgte mittels Ubbelohde-Kapillarviskosimetrie, Fourier-Transformations-Infrarotspektroskopie und Schmelzpunktbestimmung. Die FTIR-Spektren bestätigte eine erfolgreiche Synthese von Polyurethanen aus Kraft-Lignin und Methylendiphenyldiisocyanat und zeigte, dass die Variation des NCO/OH-Verhältnisses und der Reaktionsdauer keinerlei Einflüsse auf die chemische Grundstruktur des Polyurethans hat. Die Ubbelohde-Kapillarviskosimetrie belegte die thermoplastischen Eigenschaften des synthetisierten Polyurethans, die sich in einem thermoplastischen Nassprozess verarbeiten lassen. Sie zeigte auch die Abhängigkeit der Molmasse der synthetisierten Polyurethane von der Reaktionsdauer und vom NCO/OH-Verhältnis. So steigt die Molmasse des Polyurethans mit steigender Reaktionsdauer und sinkendem NCO/OH-Verhältnis. Letztere Beobachtung ist sogar praktisch hinsichtlich der gesundheitsgefährdenden Eigenschaft von Isocyanaten, da so der Einsatz von Isocyanaten reduziert werden kann. Um die schmelzflüssige Verarbeitbarkeit des synthetisierten Polyurethans zu untersuchen, wurden die Schmelzpunkte der Polymere bestimmt. Es konnte in einem Temperaturbereich von 25 °C-410 °C keine Aggregatzustandsänderung, sondern lediglich eine Zersetzungsreaktion beobachtet werden.
Im Rahmen der Arbeit wurde Kraft-Lignin mit Natriumsulfit demethyliert, um den Gehalt an aromatischen Hydroxygruppen zu erhöhen und damit die Reaktivität des Lignins in Bezug auf Polyurethan-Synthesen zu erhöhen. Variiert wurden die Demethylierungstemperatur (72°C, 90°C) sowie der pH-Wert zur Isolierung des Kraft-Lignins (pH 2, 3, 4 und 5). Die Analyse der demethylierten Proben erfolgte mittels differentieller UV-Spektroskopie und der OH-Gehaltbestimmung via automatischer Titration (angelehnt an ISO 14900:2001(E)). Weitere Untersuchungen umfassten Löslichkeitstests sowie Strukturanalysen via FTIR- und UV/Vis-Spektroskopie.
Die Matrix ist eine der entscheidenden Hauptkomponenten oxidkeramischer Faserverbundwerkstoffe (Ox-CMCs). Im Herstellungsprozess stellen typischerweise keramische Schlicker die Ausgangsbasis für die spätere Ausbildung der Matrix im CMC dar. Die Aufbereitungsart und -dauer keramischer Schlicker haben dabei wesentlichen Einfluss auf die Verarbeitungseigenschaften des Schlicker und die Eigenschaften der späteren Matrix. In dieser Arbeit wird der Einfluss verschiedener Aufbereitungsparameter auf die Schlickereigenschaften und das Sinterverhalten untersucht. Dazu werden zwei Aufbereitungsverfahren, Planeten- und Ringspaltkugelmühle, eingesetzt sowie Mahlkörpermaterialien (Al2O3 und ZrO2), Additive (Glycerin) und Aufbereitungsdauer gezielt verändert. Es wurden Partikelgrößenverteilung, Rheologie und Feststoffgehalt ermittelt, sowie die Mikrostruktur und Schwindung analysiert. Im Vergleich zur Ringspaltkugelmühle konnte eine definierte Partikelgrößenverteilung mit der Planetenkugelmühle bereits nach einem Drittel der Zeit erreicht werden. Zusätzlich wird mit zunehmender Mahldauer auch die Neigung zur Thixotropie beobachtet. Bei zu langer Aufbereitungsdauer, aber fast identischer Partikelgrößenverteilung führt dieser Effekt zu Problemen bei der Herstellung von Ox-CMCs über das Wickelverfahren. Insgesamt ist dieses Verhalten stärker ausgeprägt bei Schlickern mit wenig Glyceringehalt. Gleichzeitig werden bei Schlickern mit gleichen Feststoffanteilen, aber höherem Glycerinanteil niedrigere Viskositäten gemessen. Mit zunehmendem Glyceringehalt steigt der Gewichtsverlust, jedoch nimmt die Sinterschwindung der Proben ab. Die in dieser Arbeit dargestellten Ergebnisse können für die Optimierung des Wicklungsprozesses zur CMC-Herstellung genutzt werden.
Sexuelle Belästigung am Arbeitsplatz ist ein tiefgreifendes Thema, welches den (Arbeits-)Alltag vieler Menschen massiv beeinträchtigt. Trotz vieler Studien und der juristischen Grundlage, die die Relevanz der Thematik hervorheben, findet es in Unternehmen und im öffentlichen Diskurs noch zu wenig Aufmerksamkeit. In der vorliegenden Studie wird deshalb untersucht, inwiefern das Allgemeine Gleichbehandlungsgesetz (AGG) Anwendung in der Praxis findet und was konkrete Verbesserungspotenziale von Unternehmen hinsichtlich des Umgangs mit sexueller Belästigung sind. Im Rahmen einer qualitativen Untersuchung werden Expert*inneninterviews geführt, die anschließend nach der Inhaltsanalyse nach Mayring, in Form einer Zusammenfassung, ausgewertet werden. Der Themenschwerpunkt wird hierbei auf die subjektiven Erfahrungen der Befragten gelegt. Die Ergebnisse dieser Arbeit unterstreichen, dass es sich bei sexueller Belästigung nach wie vor um ein Tabuthema handelt, obwohl es nachweislich sowohl auf die Beschäftigten als auch auf das Unternehmen negative Auswirkungen hat. Da das AGG in den wenigsten Unternehmen Anwendung findet, wird es von einem Großteil der Arbeitnehmenden nicht als Schutz vor sexueller Belästigung wahrgenommen. Maßnahmen, die existieren sind entweder dysfunktional oder werden nicht ausreichend bekannt gemacht. Die Auswertung zeigt vor allem, dass Unternehmen in Zukunft ein Unternehmensklima etablieren müssen, in dem eine Nulltoleranz-Haltung gegenüber Diskriminierung herrscht. Ganzheitliche Präventions- und Interventionskonzepte sollten unter anderem die Schaffung von transparenten Anlaufstellen, klare Richtlinien und Konzepte zur präventiven Aufklärungsarbeit enthalten. Hierbei sollten vor allem marginalisierte Gruppen berücksichtigt werden. Wenn Unternehmen ihre im AGG festgehaltenen Pflichten in Zukunft wahrnehmen und entsprechende Maßnahmen ergreifen, kann eine Enttabuisierung des Themas angestoßen werden. Neben der Stärkung der Betroffenen, kann dies letztendlich zu einem Rückgang der Übergriffe führen.
Durch den digitalen Wandel der letzten Jahrzehnte haben sich Fotos im Journalismus zum Must-have entwickelt, gerade online. Doch nicht immer sind Fotos verfügbar, die das Thema eines Artikels dokumentieren können. In dem Fall wird häufig auf Symbolfotos zurückgegriffen. Es finden Fotos Verwendung, die meist auf Vorrat produziert, durch Stockdatenbanken selektiert und präsentiert werden, um schließlich Gesicht eines Produktes oder Artikels zu sein, ohne in ihrer Entstehung mit der Verwendung in Zusammenhang zu stehen.
Welche Wirkung hat die Verwendung von Symbolfotos im Technik- und Wissenschaftsjournalismus auf Rezipienten in Deutschland? Anhand einer explorativen Befragung von 82 Personen mit dem Ziel durch eine vorwiegend quantitative Analyse einen Überblick über Einstellung und Umgang der Stichprobe mit Symbolfotos zu gewinnen, ermöglicht die Arbeit erste Thesen zur Sicht der Rezipienten auf die Verwendung von Symbolfotos – jedoch keine repräsentativen Ergebnisse.
Die vergangene Forschung zeigte, dass Werte und Persönlichkeitseigenschaften von (potentiellen) Arbeitnehmern die wahrgenommene Attraktivität bestimmter Arbeitgebermerkmale wie der Corporate Social Responsibility (CSR) beeinflussen. Weitere Forschung wird hingegen benötigt, um die in diesem Zusammenhang relevanten Persönlichkeitsmerkmale zu identifizieren. Diese Studie zielt darauf ab, die Werte und Persönlichkeitseigenschaften zu ermitteln, welche die unterschiedliche Attraktivität von CSR und weiteren Arbeitgebermerkmalen, die sich nicht auf die CSR beziehen, erklären können. Dazu bewerteten (potentielle) Arbeitnehmer (N = 145) auf zwei eigenentwickelten Skalen sowohl CSR-basierte Faktoren der Arbeitgeberattraktivität (z.B. Wassersparen) als auch Nicht-CSR-basierte Faktoren der Arbeitgeberattraktivität (z.B. erwünschte Unternehmenslage) hinsichtlich ihrer Wichtigkeit. Für die CSR-basierte Arbeitgeberattraktivität konnten unter Kontrolle der Big-Five hypothesenkonform die Wertedimension Selbst-Überwindung, die Persönlichkeitsdimension Communion und die prosoziale Persönlichkeit als Prädiktoren identifiziert werden. Die Wertedimensionen Selbst-Erhöhung und Selbst-Überwindung sowie die Persönlichkeitsdimensionen Agency und Communion leisten – ebenfalls über die Big-Five hinaus – einen bedeutenden Beitrag zur Vorhersage der Nicht-CSR-basierten Arbeitgeberattraktivität.
Selbstlokalisation eines Mikroflugsystems mit Laserscannern zur 3D-Kartierung von Innenräumen
(2017)
In der Bachelorarbeit Selbstlokalisation eines Mikroflugsystems mit Laserscannern zur 3D-Kartierung von Innenräumen wird ein Verfahren vorgestellt, welches die Position eines Flugroboters in Abhängigkeit aller sechs Freiheitsgrade darstellen kann. Mithilfe von zwei Laserscannern werden zeitgleich dreidimensionale Karten der Umgebung erstellt. Zur Ermittlung der Bewegung des Flugroboters auf der horizontalen Ebene wird Hector SLAM verwendet. Um zusätzlich Höheninformationen zu erhalten, werden zwei verschiedene Verfahren implementiert: Das erste Verfahren misst die Höhe direkt mithilfe eines Laserscanners, das zweite Verfahren nutzt Hector SLAM zur Ermittlung der Höheninformationen aus der vertikalen Scanebene.
Segmentierung von 3D-Daten
(2011)
Die vorliegende Arbeit wird im Rahmen eines Projektes des Fraunhofer Instituts IAIS erstellt. Hier geht es um die Entwicklung eines neuen 3D-Laserscanners. Basierend auf diesem 3D-Laserscanner soll eine Sicherheits-Anwendung realisiert werden. Für eine Softwarekomponente - die Segmentierung von 3D-Daten - wird der Stand der Forschung untersucht und es werden drei Segmentierungs-Verfahren ausgewählt und implementiert. Der RANSAC-Algorithmus wird zur Detektion von Ebenen eingesetzt. In dieser Arbeit wird er um ein Abbruchkriterium erweitert, welches die Gesamtlaufzeit bei der Segmentierung von mehreren Ebenen verringert.
Scientists and engineers are using a distributed system Remote Component Environment (RCE) to design and simulate complex systems like airplanes, ships and satellites. During the simulation, RCE executes local and remote code. Remote code is classified as untrusted code. The execution of remote code comprises potential security risks for the host system of RCE. Additionally, RCE provides full access to system resources. The objective of this thesis is to implement a sandbox prototype to reduce the vulnerability of RCE during the execution of remote code.
Grid Infrastrukturen sind heute in der Lage, auch große Datenmengen verteilt zu verarbeiten. Ein Anwendungsgebiet, das davon profitiert, ist das Textmining. Es zeichnet sich vor allem durch die große Anzahl voneinander unabhängiger Teiljobs aus, in die eine Aufgabe zerlegt werden kann. Um die Gesamtlaufzeit bis zur Fertigstellung eines Textmininglaufes für einen großen Datenbestand zu optimieren, ist Load-Balancing unerlässlich. Dafür muss abgeschätzt werden, wie lange eine Ressource für die Lösung eines Teilproblems benötigt. Diese Abschätzungen beruhen auf den Aufzeichnungen vorangegangener Textminingverarbeitungen. Sind darüber noch keine Daten vorhanden, muss die Laufzeitvorhersage anhand der Leistungsfähigkeit der Hardware einer Ressource prognostiziert werden. Wir stellen in dieser Arbeit Methoden vor, mit denen die Laufzeit für Textmining-Applikationen mittels historischer Daten und Hardwareeigenschaften vorhergesagt werden kann. Dabei nutzen wir Methoden der Statistik und des maschinellen Lernens, um eine Prognose zu berechnen. Anschließend wird ein Dienst vorgestellt, der eine Laufzeitvorhersage im Grid anbietet. Er kann auch für andere Anwendungsgebiete als das Textmining eingesetzt werden und ist in der Lage, Informationen über die Laufzeiten von Jobs auf den Ressourcen abzurufen. Dazu nutzt er bereits vorhandene Dienste der Grid-Middleware und kann sich so dynamisch in bestehende Strukturen eingliedern.
Qualität der Qualitätsprüfung: Testberichte im klassischen und modernen Videospieljournalismus
(2022)
Die Hochzeit des gedruckten Videospieljournalismus um die Jahrtausendwende ist vorüber. Seit über 15 Jahren sind die verkauften Auflagen der klassischen Videospielzeitschriften wie Gamestar oder PC Games rückläufig. Andere Magazine wurden zwischenzeitlich aus wirtschaftlichen Gründen eingestellt, darunter PC Action oder auch der einstige Marktführer Computer Bild Spiele. Trotzdem entwickelte sich eine journalistische Gegenbewegung, die Kieron Gillen im Jahr 2004 in seinem Manifest "The New Games Journalism" begründete. Es entstanden in Deutschland Videospielzeitschriften wie GAIN oder WASD, deren Berichterstattung Videospiele weniger als Produkt, sondern zunehmend als künstlerisches Objekt wahrnehmen und sie in einen gesellschaftlichen und kulturellen Kontext einordnen.
Ungeachtet dessen erfolgt in den Redaktionen eine technische und inhaltliche Sichtung der Videospiele, die dem Publikum als Testbericht präsentiert wird. Da es sich dabei aus historischer Perspektive um den Kerninhalt von Videospielzeitschriften handelt, soll dieser als Analysegegenstand dieser Arbeit dienen und ein Indiz für die Qualität der Magazine als Ganzes sein. Mit Blick auf die unterschiedlichen Entwicklungen im Videospieljournalismus soll folgende Frage beantwortet werden: Verfügen moderne Videospielzeitschriften über eine höhere Qualität als klassische Magazine? Dazu erfolgt eine qualitative Inhaltsanalyse der Testberichte und ein Vergleich mit etablierten Qualitätsmerkmalen aus dem allgemeinen Journalismus, ebenso wie dem Fach-, Nutzwert- und Videospieljournalismus.
Robots integrated into a social environment with humans need the ability to locate persons in their surrounding area. This is also the case for the WelcomeBot which is developed at the Fraunhofer Institute IAIS. In the future, the robot should follow persons in the buildings and guide them to certain areas. Therefore, it needs the capability to detect and track a person in the environment. In this master thesis, an approach for fast and reliable tracking of a person via a mobile robotic platform is presented. Based on the investigation of different methods and sensors, a laser scanner and a camera are selected as the primary two sensors.
In dieser Arbeit wird eine von P. Ahlrichs und B. Dünweg entwickelte Methode [Ahlrichs und Dünweg, 1998] zur Simulation von Polymeren in Flüssigkeiten auf dem Cell-Prozessor implementiert. Dabei soll der Frage nachgegangen werden, wie performant der Cell-Processor in der Lage ist diese Simulation zu berechnen.
Zur Simulation der Polymere wird eine Molekular-Dynamik Simulation genutzt. Die Monomere der Polymerketten werden durch ein Kugel-Feder Modell gekoppelt. Die einzelnen Monomere der Polymere werden als einfache Punktteilchen betrachtet. Dies ermöglicht eine Interaktion der Monomere, unabhängig von deren Zeit- und Längenskalen, mit der Flüssigkeitssimulation durch Reibung. Die Flüssigkeit wird in dieser Arbeit durch die Lattice-Boltzmann-Methode simuliert.
Die vorliegende Arbeit befasst sich mit der Entwicklung eines Schaltungskonzepts und Labormusters einer externen Beleuchtung für den Einsatz in der Forschung an Time-of-Flight (ToF) Kameras mit Amplitude-Modulated Continuous Wave (AMCW)-Verfahren. Die externe Beleuchtung stellt einen leistungsstarken Repeater der internen Beleuchtung einer ToF Kamera dar und ist in der Lage die von ToF Kameras genutzten hochfrequenten Rechtecksignale zu emittieren.
Da von ToF Kameras in der Regel kein elektrisches Steuersignal (Triggersignal) für den Einsatz einer externen Beleuchtung zur Verfügung gestellt wird, wird dieses aus dem optischen Signal der ToF Kamera gewonnen. Dafür wird ein Konzept für einen optischen Detektor (Trigger) vorgestellt. Dieser setzt sich aus einer Photodiode, einem Transimpedanzverstärker und einer anschließenden Signalaufbereitung zusammen. Außerdem wird gezeigt, wie eine schnelle externe Beleuchtung mit hoher Strahlungsleistung mithilfe eines Metal-Oxid-Semiconductor Field-Effekt-Transistor (MOSFET) und vier Vertical-Cavitiy Surface-Emitting Laser (VCSEL) umgesetzt werden kann. Dafür werden mit der Serien- und Parallelschaltung von MOSFET und VCSEL zwei Schaltungskonzepte vorgestellt. Als Lichtquellen kommen VCSEL mit einer für ToF Kameras typischen Wellenlänge von 940 nm im Nahinfraroten (NIR) zum Einsatz.
Es konnte gezeigt werden, dass mit dem optischen Trigger Signale von bis zu 100 MHz in elektrische Ausgangssignale gewandelt werden können. Außerdem wurden rechteckige Triggersignale mit Anstiegszeiten von 650 ps und Abfallzeiten von 440 ps erzielt. Mit der externen Beleuchtung konnten Signale mit bis zu 100 MHz emittiert werden. Es wurden im Zusammenspiel mit dem optischen Trigger optische Signale mit Anstiegszeiten von 1,5 ns und Abfallzeiten von 960 ps erreicht. Dabei konnten Strahlungsleistungen von knapp 7 W erzielt werden. Das gesamte System aus optischem Trigger und externer Beleuchtung weist eine Latenz von 16 ns auf. Als Ergebnis dieser Arbeit konnte ein System aufgebaut werden, das aufgrund der erzielten Ergebnisse höchstwahrscheinlich als externe Beleuchtung zu Forschungszwecken mit verschiedenen ToF Kameras eingesetzt werden kann. Außerdem besteht die Möglichkeit den optischen Trigger und die Beleuchtung separat zu nutzen.
Volumen Rendering ist ein eigenes Thema der Computergrafik und wurde in den letzten Jahren fortlaufend optimiert. Neben verschiedenen Ansätzen, die in Software implementiert sind, gibt es auch einige spezielle Methoden, die die Grafikhardware geeignet nutzen. 2003 wurde ein erstes Paper von J. Krüger und R. Westermann veröffentlicht, in dem eine Hardwareimplementierung eines Raycasting Volumen Renderers gezeigt wurde, ein Ansatz, der bislang nicht geeignet in Hardware umgesetzt werden konnte. Die Vorteile von diesem Ansatz bestehen in zwei Beschleunigungstechniken, die entweder bei fast opaken Darstellungen der Datensätze oder bei Darstellungen mit wenig sichtbaren Daten ausgespielt werden können.
Diese Arbeit zeigt und erläutert, neben der theoretischen Einführung in das Thema, die Implementierung eines interaktiven raycasting-basierten Volumen Renderers auf neuester Grafikhardware mit Hilfe von Shaderprogrammen. Wesentliche Schritte folgen der Veröffentlichung von J. Krüger und R. Westermann, welche aber viele Details und Problemstellen verschweigt. Die Ergebnisse werden mit einem 3D-Textur Volumenrenderverfahren verglichen, wobei durch charakteristische Testdatensätze die beiden Beschleunigungstechniken des Raycasters untersucht werden. Weil beide Techniken bei fast allen Datensätzen eine Beschleunigung des Rendervorgangs hervorrufen sollten, werden die erzielten Ergebnisse miteinander verglichen und kritisch besprochen, um zu beurteilen, ob das hier implementierte Verfahren schneller als das bisher oft verwendete 3D-Texturverfahren ist.
Intelligente Dialogsysteme – Chatbots – werden immer häufiger als virtuelle Ansprechpartner von Unternehmen und Institutionen eingesetzt. Auf Basis einer Wissensdatenbank können Chatbots einen größeren Anteil von Kundenanfragen automatisiert beantworten. Analog ist der Einsatz von Chatbots als digitaler Ansprechpartner öffentlicher Verwaltungen denkbar. Sie könnten Bürgern helfen, sich innerhalb der behördlichen Strukturen zu orientieren und Verwaltungsleistungen effizient und effektiv in Anspruch zu nehmen.
Diese Arbeit überprüft den Einsatz eines Chatbots in der öffentlichen Verwaltung hinsichtlich der entstehenden Kosten und des erwartbaren Nutzens. Auf Basis einer umfangreichen Literaturauswertung und der prototypischen Realisierung eines Chatbots für ein Stadtportal werden dabei Herausforderungen dieser Anwendungsdomäne herausgearbeitet, konkrete Funktionsweise und Implementierungsstrategien von Chatbots erörtert und einige Erfolgsfaktoren formuliert, die den Kern einer Handlungsempfehlung für Entscheidungsträger öffentlicher Verwaltungen bilden.
The introduction of gestures as a supplementary input modality has become of increasing interest to human computer interaction design, especially for 3D computer environments. This thesis describes the concepts and development of a gesture recognition system based on the machine learning technique of Hidden Markov Models. Well-known from the field of speech recognition, this statistical method is employed in this thesis to represent and recognize predefined gestures. Within this work, gestures are defined as symbols, such as simple geometric shapes or Roman letters. They are extracted from a stream of three-dimensional optical tracking data which is resampled, reduced to 2D and quantized to be used as input to discrete Hidden Markov Models. A set of prerecorded training data is used to learn the parameters of the models and recognition is achieved by evaluating the trained models. The devised system was used to augment an existing virtual reality prototype application which serves as a demonstration and development platform for the VRGeo consortium. The consortium's goal is to investigate and utilize the benefits of virtual reality technology for the oil and gas industry. An isolated test of the system with seven gestures showed accuracies of up to 98.57% and the review from experts in the fields of virtual reality and geophysics was predominantly positive.