Fachbereich Informatik
Refine
H-BRS Bibliography
- yes (62)
Departments, institutes and facilities
Document Type
- Master's Thesis (37)
- Bachelor Thesis (19)
- Report (4)
- Diploma Thesis (1)
- Study Thesis (1)
Year of publication
Keywords
- Emergency support system (2)
- Mobile sensors (2)
- Robotik (2)
- chemoCR (2)
- 0-1-Integer-Problem (1)
- 3D-Laserscanner (1)
- 3D-Punktwolke (1)
- 3D-Scanner (1)
- ASAG (1)
- Active Learning (1)
In dieser Arbeit wurden zwei verschiedene Aspekte zum gemeinsamen Arbeiten in gemeinsam genutzten virtuellen Umgebungen behandelt. Zum einen wurden verschiedene Verfahren vorgestellt, die eine gleichzeitige Betrachtung zweier unterschiedlicher Ansichten auf einer Projektionsfläche ermöglichen (Switchen, Picture in Picture und Splitscreen). Der Schwerpunkt bei diesem Teil der Arbeit lag bei dem Splitscreen, da er zwei gleichwertige verzerrungsfreie Bilder beider Ansichten erzeugt. Um die korrekte Perspektive zu erhalten, wird der Sichtkegel der Betrachter vertikal in der Mitte geteilt. Dadurch kann ein betrachtetes Objekt am Bildrand abgeschnitten werden, weshalb die Kamera der Betrachter neu auf dieses Objekt ausgerichtet werden muss. Hierdurch können unterschiedliche Transformationen für beide Anwender erfolgen, wodurch das kollaborative Arbeiten gestört wird. Der zweite Aspekt dieser Arbeit beschäftigte sich mit einem Kollisionsproblem, welches auftreten kann, wenn mehrereBenutzer gemeinsam einen schmalen Durchgang passieren. Die Darstellung der virtuellen Umgebung erfolgt im TwoView. Hier steht den Benutzern eine frei begehbare Fläche zur Verfügung, auf der ihre realen Positionen erfasst und in die virtuelle Umgebung übertragen werden. Das Beschreiten der virtuellen Umgebung erfolgt anhand von Wegen, deren Ablaufgeschwindigkeit von einem Benutzer gesteuert werden kann. Stehen die Personen zu weit auseinander, um durch einen Durchgang zu passen, muss mindestens einer durch eine Wand laufen. Um dieses Problem zu beheben, wurde eine Pfadkorrektur implementiert, die entweder die Betrachter auf einem sicheren Weg durch diesen Durchgang leitet oder den begangenen Weg anhält. Da sowohl bei der Darstellung zweier Ansichten als auch bei der Pfadkorrektur der gemeinsame Raum beeinträchtigt werden kann, wurde zuletzt ein empirischer Test zur Bewertung dieses Effekts durchgeführt.
In der Forschung und Entwicklung finden komplexe Prozesse zur Datenerzeugung, -verarbeitung, -analyse und -visualisierung statt. Oftmals sind an diesen Prozessen Partner aus verschiedenen Einrichtungen beteiligt. Um ihr gemeinsames Ziel zu erreichen, stellen sich die Partner gegenseitig Ressourcen, Daten und Applikationen zur Verfügung. Eine Plattform, die diese Form der Zusammenarbeit erleichtert, wird in der Einrichtung für Simulations- und Softwaretechnik (SISTEC) des Deutschen Zentrums für Luft- und Raumfahrt (DLR) mitentwickelt. Die komplexen Prozesse erfordern aber nicht nur, dass Ressourcen, Daten und Applikationen zur Verfügung stehen, sondern auch, dass diese sinnvoll miteinander verknüpft werden können. Die Verknüpfung mehrerer Applikationen zu einer neuen Applikation, sowie deren Ausführung mit bestimmten Eingabedaten kann durch ein Workflowsystem für die Anwender stark vereinfacht werden. Im Rahmen dieser Master-Thesis wird die erwähnte Plattform um ein solches Workflowsystem erweitert.
Heutige Grid-Systeme sind in der Lage dem Nutzer verschiedenste Ressourcen einfach, transparent und sicher zur Verfügung zu stellen. Für die Ausführung von komplexen Workflows wird eine Advance Reservation benötigt, welche die Ausführung der einzelnen Workflowelemente zu vorher berechneten oder festgelegten Zeitpunkten ermöglicht. Durch die Advance Reservation werden die benötigten Ressourcen auf den Grid-Sites reserviert. In der von der Fraunhofer Gesellschaft eingesetzten Grid-Middleware-Software UNICORE wird eine solche Reservierung von Ressourcen bisher nicht unterstützt. Um die Reservierung in einem UNICORE Grid zu ermöglichen und die Co-Allokation von Ressourcen vorzunehmen, wurde im VIOLA Projekt der MetaScheduling Service (MSS) entwickelt. Über lokal auf den Grid-Ressourcen installierte Adapter kann der MSS Statusinformationen abfragen und Reservierungen vornehmen. Die Adapter sind als Webservice implementiert, was eine komplexe Installation und Konfiguration erfordert, da die Adapter Zugriff auf das lokale System benötigen. Durch eine doppelte Benutzerverwaltung und einer zur UNICORE Grid-Middleware parallelen Kommunikation wird die Anfälligkeit für Fehler erhöht.
In einem Grid steht Benutzern mit entsprechendem Zugang eine Vielzahl verteilter Ressourcen zur Verfügung. Die daraus entstehenden wirtschaftlichen und technischen Vorteile rechtfertigen die Portierung von bestehenden Desktop-Anwendungen. Die vorliegende Arbeit befasst sich mit der Fragestellung, welche Einflussfaktoren bei der Portierung von Desktop-Anwendungen in ein Grid eine Rolle spielen können und wie diese in Hinblick auf die Machbarkeit zu bewerten sind. Basierend auf den zugrunde liegenden Softwarearchitekturen werden Architekturmerkmale von Desktop-Anwendungen identifiziert und Hypothesen darüber entwickelt, welche Aspekte den Portierungsprozess beeinflussen. Am Beispiel der Portierung der Anwendung „DataFinder“ der Abteilung Verteilte Systeme und Komponentensoftware des DLR werden die entwickelten Hypothesen überprüft. Die Erkenntnisse aus der Beispielportierung werden ausführlich dargestellt und anschließend kritisch diskutiert.
Data management is a challenge in both scientific and technical environments. Therefore researchers have developed a special interest in this field. Modern approaches (i.e. Subversion, CVS) already offer authoring and versioning in distributed systems. However this might be insufficient in a vast number of scenarios, where not only the data resulting from a process, but also data which describes the process that generated those results is crucial.
Grid Infrastrukturen sind heute in der Lage, auch große Datenmengen verteilt zu verarbeiten. Ein Anwendungsgebiet, das davon profitiert, ist das Textmining. Es zeichnet sich vor allem durch die große Anzahl voneinander unabhängiger Teiljobs aus, in die eine Aufgabe zerlegt werden kann. Um die Gesamtlaufzeit bis zur Fertigstellung eines Textmininglaufes für einen großen Datenbestand zu optimieren, ist Load-Balancing unerlässlich. Dafür muss abgeschätzt werden, wie lange eine Ressource für die Lösung eines Teilproblems benötigt. Diese Abschätzungen beruhen auf den Aufzeichnungen vorangegangener Textminingverarbeitungen. Sind darüber noch keine Daten vorhanden, muss die Laufzeitvorhersage anhand der Leistungsfähigkeit der Hardware einer Ressource prognostiziert werden. Wir stellen in dieser Arbeit Methoden vor, mit denen die Laufzeit für Textmining-Applikationen mittels historischer Daten und Hardwareeigenschaften vorhergesagt werden kann. Dabei nutzen wir Methoden der Statistik und des maschinellen Lernens, um eine Prognose zu berechnen. Anschließend wird ein Dienst vorgestellt, der eine Laufzeitvorhersage im Grid anbietet. Er kann auch für andere Anwendungsgebiete als das Textmining eingesetzt werden und ist in der Lage, Informationen über die Laufzeiten von Jobs auf den Ressourcen abzurufen. Dazu nutzt er bereits vorhandene Dienste der Grid-Middleware und kann sich so dynamisch in bestehende Strukturen eingliedern.
Volumen Rendering ist ein eigenes Thema der Computergrafik und wurde in den letzten Jahren fortlaufend optimiert. Neben verschiedenen Ansätzen, die in Software implementiert sind, gibt es auch einige spezielle Methoden, die die Grafikhardware geeignet nutzen. 2003 wurde ein erstes Paper von J. Krüger und R. Westermann veröffentlicht, in dem eine Hardwareimplementierung eines Raycasting Volumen Renderers gezeigt wurde, ein Ansatz, der bislang nicht geeignet in Hardware umgesetzt werden konnte. Die Vorteile von diesem Ansatz bestehen in zwei Beschleunigungstechniken, die entweder bei fast opaken Darstellungen der Datensätze oder bei Darstellungen mit wenig sichtbaren Daten ausgespielt werden können.
Diese Arbeit zeigt und erläutert, neben der theoretischen Einführung in das Thema, die Implementierung eines interaktiven raycasting-basierten Volumen Renderers auf neuester Grafikhardware mit Hilfe von Shaderprogrammen. Wesentliche Schritte folgen der Veröffentlichung von J. Krüger und R. Westermann, welche aber viele Details und Problemstellen verschweigt. Die Ergebnisse werden mit einem 3D-Textur Volumenrenderverfahren verglichen, wobei durch charakteristische Testdatensätze die beiden Beschleunigungstechniken des Raycasters untersucht werden. Weil beide Techniken bei fast allen Datensätzen eine Beschleunigung des Rendervorgangs hervorrufen sollten, werden die erzielten Ergebnisse miteinander verglichen und kritisch besprochen, um zu beurteilen, ob das hier implementierte Verfahren schneller als das bisher oft verwendete 3D-Texturverfahren ist.
This thesis work presents the implementation and validation of image processing problems in hardware to estimate the performance and precision gain. It compares the implementation for the addressed problem on a Field Programmable Gate Array (FPGA) with a software implementation for a General Purpose Processor (GPP) architecture. For both solutions the implementation costs for their development is an important aspect in the validation. The analysis of the flexibility and extendability that can be achieved by a modular implementation for the FPGA design was another major aspect. This work is based upon approaches from previous work, which included the detection of Binary Large OBjects (BLOBs) in static images and continuous video streams [13, 15]. One addressed problem of this work is the tracking of the detected BLOBs in continuous image material. This has been implemented for the FPGA platform and the GPP architecture. Both approaches have been compared with respect to performance and precision. This research project is motivated by the MI6 project of the Computer Vision research group, which is located at the Bonn-Rhein-Sieg University of Applied Sciences. The intent of the MI6 project is the tracking of a user in an immersive environment. The proposed solution is to attach a light emitting device to the user for tracking the created light dots on the projection surface of the immersive environment. Having the center points of those light dots would allow the estimation of the user’s position and orientation. One major issue that makes Computer Vision problems computationally expensive is the high amount of data that has to be processed in real-time. Therefore, one major target for the implementation was to get a processing speed of more than 30 frames per second. This would allow the system to realize feedback to the user in a response time which is faster than the human visual perception. One problem that comes with the idea of using a light emitting device to represent the user, is the precision error. Dependent on the resolution of the tracked projection surface of the immersive environment, a pixel might have a size in cm2. Having a precision error of only a few pixels, might lead to an offset in the estimated user’s position of several cm. In this research work the development and validation of a detection and tracking system for BLOBs on a Cyclone II FPGA from Altera has been realized. The system supports different input devices for the image acquisition and can perform detection and tracking for five to eight BLOBs. A further extension of the design has been evaluated and is possible with some constraints. Additional modules for compressing the image data based on run-length encoding and sub-pixel precision for the computed BLOB center-points have been designed. For the comparison of the FPGA approach for BLOB tracking a similar implementation in software using a multi-threaded approach has been realized. The system can transmit the detection or tracking results on two available communication interfaces, USB and RS232. The analysis of the hardware solution showed a similar precision for the BLOB detection and tracking as the software approach. One problem is the strong increase of the allocated resources when extending the system to process more BLOBs. With one of the applied target platforms, the DE2-70 board from Altera, the BLOB detection could be extended to process up to thirty BLOBs. The implementation of the tracking approach in hardware required much more effort than the software solution. The design of high level problems in hardware for this case are more expensive than the software implementation. The search and match steps in the tracking approach could be realized more efficiently and reliably in software. The additional pre-processing modules for sub-pixel precision and run-length-encoding helped to increase the system’s performance and precision.