Refine
H-BRS Bibliography
- yes (25) (remove)
Departments, institutes and facilities
Document Type
- Bachelor Thesis (25) (remove)
Year of publication
Has Fulltext
- no (25) (remove)
Keywords
- 3D-Kartierung (1)
- 3D-Laserscanner (1)
- 3D-Lokalisierung (1)
- 3D-Punktwolke (1)
- Al2O3 (1)
- Aluminiumoxid-Schlicker (1)
- CMC-Matrix (1)
- CO2-Adsorption (1)
- Chitosan Aerogel Beads (1)
- Datenbank (1)
Die Matrix ist eine der entscheidenden Hauptkomponenten oxidkeramischer Faserverbundwerkstoffe (Ox-CMCs). Im Herstellungsprozess stellen typischerweise keramische Schlicker die Ausgangsbasis für die spätere Ausbildung der Matrix im CMC dar. Die Aufbereitungsart und -dauer keramischer Schlicker haben dabei wesentlichen Einfluss auf die Verarbeitungseigenschaften des Schlicker und die Eigenschaften der späteren Matrix. In dieser Arbeit wird der Einfluss verschiedener Aufbereitungsparameter auf die Schlickereigenschaften und das Sinterverhalten untersucht. Dazu werden zwei Aufbereitungsverfahren, Planeten- und Ringspaltkugelmühle, eingesetzt sowie Mahlkörpermaterialien (Al2O3 und ZrO2), Additive (Glycerin) und Aufbereitungsdauer gezielt verändert. Es wurden Partikelgrößenverteilung, Rheologie und Feststoffgehalt ermittelt, sowie die Mikrostruktur und Schwindung analysiert. Im Vergleich zur Ringspaltkugelmühle konnte eine definierte Partikelgrößenverteilung mit der Planetenkugelmühle bereits nach einem Drittel der Zeit erreicht werden. Zusätzlich wird mit zunehmender Mahldauer auch die Neigung zur Thixotropie beobachtet. Bei zu langer Aufbereitungsdauer, aber fast identischer Partikelgrößenverteilung führt dieser Effekt zu Problemen bei der Herstellung von Ox-CMCs über das Wickelverfahren. Insgesamt ist dieses Verhalten stärker ausgeprägt bei Schlickern mit wenig Glyceringehalt. Gleichzeitig werden bei Schlickern mit gleichen Feststoffanteilen, aber höherem Glycerinanteil niedrigere Viskositäten gemessen. Mit zunehmendem Glyceringehalt steigt der Gewichtsverlust, jedoch nimmt die Sinterschwindung der Proben ab. Die in dieser Arbeit dargestellten Ergebnisse können für die Optimierung des Wicklungsprozesses zur CMC-Herstellung genutzt werden.
Selbstlokalisation eines Mikroflugsystems mit Laserscannern zur 3D-Kartierung von Innenräumen
(2017)
In der Bachelorarbeit Selbstlokalisation eines Mikroflugsystems mit Laserscannern zur 3D-Kartierung von Innenräumen wird ein Verfahren vorgestellt, welches die Position eines Flugroboters in Abhängigkeit aller sechs Freiheitsgrade darstellen kann. Mithilfe von zwei Laserscannern werden zeitgleich dreidimensionale Karten der Umgebung erstellt. Zur Ermittlung der Bewegung des Flugroboters auf der horizontalen Ebene wird Hector SLAM verwendet. Um zusätzlich Höheninformationen zu erhalten, werden zwei verschiedene Verfahren implementiert: Das erste Verfahren misst die Höhe direkt mithilfe eines Laserscanners, das zweite Verfahren nutzt Hector SLAM zur Ermittlung der Höheninformationen aus der vertikalen Scanebene.
Segmentierung von 3D-Daten
(2011)
Die vorliegende Arbeit wird im Rahmen eines Projektes des Fraunhofer Instituts IAIS erstellt. Hier geht es um die Entwicklung eines neuen 3D-Laserscanners. Basierend auf diesem 3D-Laserscanner soll eine Sicherheits-Anwendung realisiert werden. Für eine Softwarekomponente - die Segmentierung von 3D-Daten - wird der Stand der Forschung untersucht und es werden drei Segmentierungs-Verfahren ausgewählt und implementiert. Der RANSAC-Algorithmus wird zur Detektion von Ebenen eingesetzt. In dieser Arbeit wird er um ein Abbruchkriterium erweitert, welches die Gesamtlaufzeit bei der Segmentierung von mehreren Ebenen verringert.
Scientists and engineers are using a distributed system Remote Component Environment (RCE) to design and simulate complex systems like airplanes, ships and satellites. During the simulation, RCE executes local and remote code. Remote code is classified as untrusted code. The execution of remote code comprises potential security risks for the host system of RCE. Additionally, RCE provides full access to system resources. The objective of this thesis is to implement a sandbox prototype to reduce the vulnerability of RCE during the execution of remote code.
Grid Infrastrukturen sind heute in der Lage, auch große Datenmengen verteilt zu verarbeiten. Ein Anwendungsgebiet, das davon profitiert, ist das Textmining. Es zeichnet sich vor allem durch die große Anzahl voneinander unabhängiger Teiljobs aus, in die eine Aufgabe zerlegt werden kann. Um die Gesamtlaufzeit bis zur Fertigstellung eines Textmininglaufes für einen großen Datenbestand zu optimieren, ist Load-Balancing unerlässlich. Dafür muss abgeschätzt werden, wie lange eine Ressource für die Lösung eines Teilproblems benötigt. Diese Abschätzungen beruhen auf den Aufzeichnungen vorangegangener Textminingverarbeitungen. Sind darüber noch keine Daten vorhanden, muss die Laufzeitvorhersage anhand der Leistungsfähigkeit der Hardware einer Ressource prognostiziert werden. Wir stellen in dieser Arbeit Methoden vor, mit denen die Laufzeit für Textmining-Applikationen mittels historischer Daten und Hardwareeigenschaften vorhergesagt werden kann. Dabei nutzen wir Methoden der Statistik und des maschinellen Lernens, um eine Prognose zu berechnen. Anschließend wird ein Dienst vorgestellt, der eine Laufzeitvorhersage im Grid anbietet. Er kann auch für andere Anwendungsgebiete als das Textmining eingesetzt werden und ist in der Lage, Informationen über die Laufzeiten von Jobs auf den Ressourcen abzurufen. Dazu nutzt er bereits vorhandene Dienste der Grid-Middleware und kann sich so dynamisch in bestehende Strukturen eingliedern.
Robots integrated into a social environment with humans need the ability to locate persons in their surrounding area. This is also the case for the WelcomeBot which is developed at the Fraunhofer Institute IAIS. In the future, the robot should follow persons in the buildings and guide them to certain areas. Therefore, it needs the capability to detect and track a person in the environment. In this master thesis, an approach for fast and reliable tracking of a person via a mobile robotic platform is presented. Based on the investigation of different methods and sensors, a laser scanner and a camera are selected as the primary two sensors.
In dieser Arbeit wird eine von P. Ahlrichs und B. Dünweg entwickelte Methode [Ahlrichs und Dünweg, 1998] zur Simulation von Polymeren in Flüssigkeiten auf dem Cell-Prozessor implementiert. Dabei soll der Frage nachgegangen werden, wie performant der Cell-Processor in der Lage ist diese Simulation zu berechnen.
Zur Simulation der Polymere wird eine Molekular-Dynamik Simulation genutzt. Die Monomere der Polymerketten werden durch ein Kugel-Feder Modell gekoppelt. Die einzelnen Monomere der Polymere werden als einfache Punktteilchen betrachtet. Dies ermöglicht eine Interaktion der Monomere, unabhängig von deren Zeit- und Längenskalen, mit der Flüssigkeitssimulation durch Reibung. Die Flüssigkeit wird in dieser Arbeit durch die Lattice-Boltzmann-Methode simuliert.
Volumen Rendering ist ein eigenes Thema der Computergrafik und wurde in den letzten Jahren fortlaufend optimiert. Neben verschiedenen Ansätzen, die in Software implementiert sind, gibt es auch einige spezielle Methoden, die die Grafikhardware geeignet nutzen. 2003 wurde ein erstes Paper von J. Krüger und R. Westermann veröffentlicht, in dem eine Hardwareimplementierung eines Raycasting Volumen Renderers gezeigt wurde, ein Ansatz, der bislang nicht geeignet in Hardware umgesetzt werden konnte. Die Vorteile von diesem Ansatz bestehen in zwei Beschleunigungstechniken, die entweder bei fast opaken Darstellungen der Datensätze oder bei Darstellungen mit wenig sichtbaren Daten ausgespielt werden können.
Diese Arbeit zeigt und erläutert, neben der theoretischen Einführung in das Thema, die Implementierung eines interaktiven raycasting-basierten Volumen Renderers auf neuester Grafikhardware mit Hilfe von Shaderprogrammen. Wesentliche Schritte folgen der Veröffentlichung von J. Krüger und R. Westermann, welche aber viele Details und Problemstellen verschweigt. Die Ergebnisse werden mit einem 3D-Textur Volumenrenderverfahren verglichen, wobei durch charakteristische Testdatensätze die beiden Beschleunigungstechniken des Raycasters untersucht werden. Weil beide Techniken bei fast allen Datensätzen eine Beschleunigung des Rendervorgangs hervorrufen sollten, werden die erzielten Ergebnisse miteinander verglichen und kritisch besprochen, um zu beurteilen, ob das hier implementierte Verfahren schneller als das bisher oft verwendete 3D-Texturverfahren ist.
The introduction of gestures as a supplementary input modality has become of increasing interest to human computer interaction design, especially for 3D computer environments. This thesis describes the concepts and development of a gesture recognition system based on the machine learning technique of Hidden Markov Models. Well-known from the field of speech recognition, this statistical method is employed in this thesis to represent and recognize predefined gestures. Within this work, gestures are defined as symbols, such as simple geometric shapes or Roman letters. They are extracted from a stream of three-dimensional optical tracking data which is resampled, reduced to 2D and quantized to be used as input to discrete Hidden Markov Models. A set of prerecorded training data is used to learn the parameters of the models and recognition is achieved by evaluating the trained models. The devised system was used to augment an existing virtual reality prototype application which serves as a demonstration and development platform for the VRGeo consortium. The consortium's goal is to investigate and utilize the benefits of virtual reality technology for the oil and gas industry. An isolated test of the system with seven gestures showed accuracies of up to 98.57% and the review from experts in the fields of virtual reality and geophysics was predominantly positive.
Auf der Suche nach einem CO2-Filtermaterial für niedrige Partialdrücke wurden Aerogel-Beads aus Chitosan analysiert. Da zahlreiche Publikationen und Reviews auf die Fähigkeit von Aminen CO2 zu adsorbieren hinweisen, wurden diese Beads funktionalisiert, um den Amingehalt im Netzwerk und damit die Adsorptionskapazität zu erhöhen. Die Beads wurden mit Hilfe eines JetCutters hergestellt, mit Polyethylenimin (PEI), p-Phenylendiamin (PPD) und 1,2-Epoxyhexan (EH) funktionalisiert und anschließend überkritisch getrocknet. Die Ansätze wurden bei jeweils unterschiedlichen pH-Werten durchgeführt, um Aussagen über den Einfluss von NaOH auf die Reaktion treffen zu können. Alle Proben wurden mit für Aerogele typischen Methoden charakterisiert und auf ihre CO2-Adsorptionskapazität untersucht. Die Adsorptionskapazität der Chitosan Beads konnte durch Aufpfropfen der oben genannten Stoffe nur leicht verbessert werden, während die Funktionalisierung mit PPD dagegen überraschender Weise negative Auswirkungen hatte. Eine Funktionalisierung findet auch in Abwesenheit von NaOH statt.
Nowadays perception is still an up-to-date scienti fic issue on a mobile robot system. This thesis introduces an approach on how to recognize objects, namely numbers, using a digital camera on a Volksbot robot. The robot used in this thesis has been specifi cally designed for the SICK robot day. The development of the vision algorithm was done in two stages: the region of interest detection and the actual number recognition. Diff erent algorithms had been tested and evaluated and the Canny edge detector with contour finding has been proven to be the best choice for the region of interest detection and the Tesseract OCR engine was the best decision for number recognition. To integrate the vision component on an existing robot system, ROS was used. This thesis also discusses the integration of the EPOS motor controller into ROS.
Das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS) betreibt seit mehreren Jahren auf dem Campus Schloss Birlinghoven in Sankt Augustin angewandte Forschung in den Bereichen Multisensordatenanalyse und Datenvisualisierung.
Im Rahmen einer mehrjährigen Kooperation zwischen dem Fraunhofer-IAIS und der Wehrtechnischen Dienststelle 71 (WTD71) wurde das Seeraumüberwachungssystem iLEXX entwickelt. Es soll den Benutzer auf auffällige Situationen hinweisen und ihm kontextabhängig alle notwendigen Handlungsoptionen zur weiteren Aufklärung der Situation oder der Abwehr einer Bedrohung aufzeigen. Das iLEXX-System verarbeitet eine Vielzahl von Sensordaten und Ereignissen. Abhängig vom Szenario kommen hier mehrere tausend Updates pro Sekunde zusammen, die in Echtzeit vorverarbeitet und visualisiert werden müssen.
Ziel: Diese Arbeit ermittelt die Einsatzszenarien der Design Thinking Methode in Informationseinrichtungen. Diesbezüglich wird der aktuelle Wandlungsprozess in Bibliotheken berücksichtig und danach gefragt, ob Divergenzen zwischen den ermittelten Handlungsfeldern und den aufgezeigten Anwendungsbeispielen bestehen. Darüber hinaus soll aufgezeigt werden, ob der Einsatz der Design Thinking Methode in Informationseinrichtungen zielführend ist. Der Gegenstand der Arbeit ist demnach die Evaluation des Methodeneinsatzes. Methode: Im Rahmen dieser Arbeit wurde die Methode des Systematic Review angewandt. Diese evidenzbasierte Methode findet erst seit wenigen Jahren verstärkten Einsatz im LIS-Bereich (Library and Information Science). Deshalb führt eine kurze historische Betrachtung in die Methodik ein, gefolgt von dem Bezug zu den Bibliotheks- und Informationswissenschaften. Vor dem Hintergrund der Forschungsfragen werden nach vordefinierten Ein- und Ausschlusskriterien die inkludierten Fachartikel ausgewertet. Die Ausführungen schließen mit der ausführlichen Recherchedokumentation. Ergebnisse: Über den Methodeneinsatz wurden zunächst 170 potenziell relevante Treffer ermittelt. Diese Treffermenge wurde in einem iterativen Suchprozess reduziert, um abschließend 30 dokumentierte Praxisanwendungen in die Auswertung aufzunehmen. Neben der Ermittlung der Einsatzszenarien wurden Abweichungen hinsichtlich der Inhalte des Innovationsportfolios aufgezeigt und diskutiert. Die Anwendungsvielfalt der Design Thinking Methode aufzuzeigen und in diesem Zusammenhang mögliche Herausforderungen aufzudecken, könnte zukünftige Entscheidungsprozesse, in Bezug auf die Methodenauswahl, evidenzbasiert unterstützen und bestenfalls motivierend wirken, der umgebenden Komplexität positiv entgegen zu blicken. Forschungsbeschränkungen: Die Auswahl der Dokumente begrenzte sich auf informationswissenschaftliche Fachartikel und Projektberichte. Die Praxisrelevanz stand im Vordergrund, und so wurde Literatur, die inhaltlich nur über die Design Thinking Methode berichtete, ausgeschlossen. Die Fachartikel wurden in englischer oder deutscher Sprache veröffentlicht und mussten ein Peer-Review-Verfahren durchlaufen haben.
Grid services will form the base for future computational Grids. Web Services, have been extended to build Grid services. Grid Services are dened in the Open Grid Service Architecture (OGSA). The Globus Alliance has released a Web Service Resource Framework, which is still under development and which is still missing vital parts. One of them is a Concept that allows Grid-Service Requests to securely traverse Firewalls, and its realization. This Thesis aims at the development and realization of a detailed Concept for an Application Level Gateway for Grid services, based on an existing rough concept. This approach should enable a strict division between a local network and the Internet. The internet is considered as a untrusted site and the local network is considered as a trusted site. Grid resources are placed in the internet as well as in the local network. This means that the possibility to communicate through a Firewall is essential. Some further protocols like Grid Resource Allocation and Management (GRAM) and the Grid File Transfer Protocol (GridFTP) must be able to traverse the network borders securely as well, while no further actions must be taken from the user side. The German Federal Oce for Information Security (BSI) proposes a Firewall - Application Level Gateway (ALG) - Firewall solution to the German Aerospace Center (DLR) where this Thesis is written, as a principle approach. In this approach, the local network is divided from the Internet with two rewalls. Between those rewalls is a demilitarized zone (DMZ), where computers may be placed, which can be accessed from the Internet and from the local network. An ALG which is placed in this DMZ should represent the local Grid nodes to the Internet and it should act as a client to the local nodes. All Grid service requests must be directed to the ALG instead of the protected Grid nodes. The ALG then checks and validates the requests on the application level (OSI layer 7). Requests that pose no security threat and fulll certain criteria will then be forwarded to the local Grid nodes. The responses from the local Grid nodes are checked and validated by the ALG as well.
Um eine Software fertigzustellen und dem Endkunden zu übergeben muss zunächst der Entwicklungsprozess durchschritten werden. Das zügige Durchlaufen dieses Entwicklungsprozesses ist besonders für den Endkunden von entscheidender Bedeutung, da die Wartezeit auf das Softwareprodukt für ihn reduziert wird. Problematisch könnte beispielsweise dabei ein modulares Vorgehen werden, wenn zunächst alle einzelnen Teilkomponenten eines Softwareproduktes entwickelt und diese daraufhin in einer anschließenden Phase, auch Integrationsphase genannt, zusammengefügt würden. Die Länge dieser Integrationsphase kann nur schwer vorausgesagt werden, so dass weder das Entwicklerteam noch der Endkunde wissen, wie lang die Fertigstellung des Produktes dauern wird. Dabei entsteht ein weiterer Nachteil. Da die Komponenten separat voneinander entwickelt werden, könnte es passieren, dass diese beim finalen Zusammenfügen nicht kompatibel sein und müssten, falls notwendig, angepasst werden. Die Folge wäre eine Verschwendung von personellen und somit auch finanziellen Ressourcen seitens des entwickelnden Unternehmens.
Diese Arbeit soll sich mit dem Erstellen von High Dynamic Range Images beschäftigen und damit, es den Fotografen ein wenig leichter zu machen. Ein Algorithmus zum Entfernen von Bildartefakten wird ausgewählt und parallel unter Nutzung der NVIDIA CUDA API implementiert. Der dadurch erzielte Geschwindigkeitszuwachs macht dieses Verfahren tauglich für den Einsatz in Bildbearbeitungsprogrammen.
Ein wichtiges Themengebiet der Forschung ist die Beschleunigung von Berechnungen mittels Parallelisierung von Algorithmen. Grafikprozessoren, die für den General Purpose Computation on GPU’s (GPGPU) Betrieb geeignet sind, bieten eine aktuelle Möglichkeit der Parallelisierung. Anhand dieser Grafikkarten ist es möglich, die hohe Leistung der Grafikprozessoren zur Berechnung wissenschaftlicher Aufgabenstellungen zu nutzen. In dieser Arbeit wird ein Algorithmus zur Ausrichtung von Belichtungsreihen, die bei der High-Dynamic-Range (HDR) Fotografie genutzt werden, ausgewählt und auf der Grafikkartenarchitektur von NVIDIA parallelisiert.