Fachbereich Informatik
Refine
H-BRS Bibliography
- yes (62)
Departments, institutes and facilities
Document Type
- Master's Thesis (37)
- Bachelor Thesis (19)
- Report (4)
- Diploma Thesis (1)
- Study Thesis (1)
Year of publication
Keywords
- Emergency support system (2)
- Mobile sensors (2)
- Robotik (2)
- chemoCR (2)
- 0-1-Integer-Problem (1)
- 3D-Laserscanner (1)
- 3D-Punktwolke (1)
- 3D-Scanner (1)
- ASAG (1)
- Active Learning (1)
- Alize (1)
- Augmented Reality (1)
- Automation (1)
- Batch Normalization (1)
- Bildverarbeitung (1)
- Bounding box explanations (1)
- Chatbot (1)
- Classification explanations (1)
- Computer Game (1)
- Computer Vision (1)
- Conversational Search (1)
- Correlation (1)
- Datenbank (1)
- Directed Acyclic Graph (1)
- Distributed Systems (1)
- Domänen spezifische Sprache (1)
- Echtzeit-Tracking (1)
- Electronic Data Capture (EDC) (1)
- Expertensystem (1)
- Explainable Artificial Intelligence (XAI) (1)
- Flussnetz (1)
- Gnu Linear Programming Kit (1)
- Gradient-based explanation methods (1)
- Graphentheorie (1)
- Hibernate (1)
- Human Muscle (1)
- ICP (1)
- Information Retrieval (1)
- Interactive visualization (1)
- JBoss Drools (1)
- Java (1)
- Klassische Suchverfahren (1)
- KnowledgeFinder (1)
- Kollaboration (1)
- Kombinatorische Optimierung (1)
- Konfiguration (1)
- LAMA (1)
- LDA (1)
- LP-Heuristik (1)
- Labordaten (1)
- Lagerlogistik (1)
- LibAMA (1)
- Lineare Programmierung (1)
- Löser (1)
- Markush (1)
- Maximalflussproblem (1)
- Minimaler Schnitt (1)
- Motivation System (1)
- Multi-object visualization (1)
- NP-Vollständigkeit (1)
- Nachbarschaftsanalyse (1)
- OGC sensor observation service (1)
- OGS sensor observation service (1)
- OSGi (1)
- Object detectors (1)
- Operation Research (1)
- Optimierungsproblem (1)
- PLDA (1)
- Path-Packing (1)
- Quantitative analysis of explanations (1)
- Query method (1)
- RANSAC (1)
- RCE (1)
- REDCap (1)
- Random forest (1)
- Robotics (1)
- Rubrics (1)
- Rucksackproblem (1)
- SELU (1)
- SLAM (1)
- Saliency maps (1)
- Sandbox (1)
- Sanity checks for explaining detectors (1)
- Segmentierung (1)
- Semantische Suche (1)
- Semantische Technologien (1)
- Sensor web enablement (1)
- Short answer grading (1)
- Software testing (1)
- Speaker identification (1)
- Split-Screen (1)
- UAV (1)
- Virtuelle Realität (1)
- Wissenrepräsentation (1)
- YOLO v3 (1)
- bearing angle (1)
- binary classification (1)
- context free grammar (1)
- deep learning (1)
- domain specific language (1)
- extSMILES (1)
- external faults (1)
- i-vectors (1)
- laser scanner (1)
- lineares Gleichungssystem (1)
- mobile manipulators (1)
- object detection (1)
- optical flow (1)
- patent search (1)
- quadrotor (1)
- structure reconstruction (1)
- Öffentliche Verwaltung (1)
This master thesis describes a supervised approach to the detection and the identification of humans in TV-style video sequences. In still images and video sequences, humans appear in different poses and views, fully visible and partly occluded, with varying distances to the camera, at different places, under different illumination conditions, etc. This diversity in appearance makes the task of human detection and identification to a particularly challenging problem. A possible solution of this problem is interesting for a wide range of applications such as video surveillance and content-based image and video processing. In order to detect humans in views ranging from full to close-up view and in the presence of clutter and occlusion, they are modeled by an assembly of several upper body parts. For each body part, a detector is trained based on a Support Vector Machine and on densely sampled, SIFT-like feature points in a detection window. For a more robust human detection, localized body parts are assembled using a learned model for geometric relations based on Gaussians. For a flexible human identification, the outward appearance of humans is captured and learned using the Bag-of-Features approach and non-linear Support Vector Machines. Probabilistic votes for each body part are combined to improve classification results. The combined votes yield an identification accuracy of about 80% in our experiments on episodes of the TV series "Buffy the Vampire Slayer". The Bag-of-Features approach has been used in previous work mainly for object classification tasks. Our results show that this approach can also be applied to the identification of humans in video sequences. Despite the difficulty of the given problem, the overall results are good and encourage future work in this direction.
Augmented Reality (AR) findet heutzutage sehr viele Anwendungsbereiche. Durch die Überlagerung von virtuellen Informationen mit der realen Umgebung eignet sich diese Technologie besonders für die Unterstützung der Benutzer bei technischen Wartungs- oder Reparaturvorgängen. Damit die virtuellen Daten korrekt mit der realen Welt überlagert werden, müssen Position und Orientierung der Kamera durch ein Trackingverfahren ermittelt werden. In dieser Arbeit wurde für diesen Zweck ein markerloses, modellbasiertes Trackingsystem implementiert. Während einer Initialisierungs-Phase wird die Kamerapose mithilfe von kalibrierten Referenzbildern, sogenannten Keyframes, bestimmt. In einer darauffolgenden Tracking-Phase wird das zu trackende Objekt weiterverfolgt. Evaluiert wurde das System an dem 1:1 Trainingsmodell des biologischen Forschungslabors Biolab, welches von der Europäischen Weltraumorganisation ESA zur Verfügung gestellt wurde.
Für die Durchführung größerer Projekte innerhalb des DLR ist es häufig notwendig, dass sich Wissenschaftler fachübergreifend in Themengebiete einarbeiten müssen. Im Rahmen dieser Einarbeitung führen Wissenschaftler Recherchen in fremden Fachbereichen durch. Das DLR hat zu diesem Zweck das Wissensportal KnowledgeFinder entwickelt. Dieses Framework setzt klassische Suchverfahren zum Auffinden von Informationen in beliebigen Datenbeständen ein. Wenn Wissenschaftler in fremden Fachbereichen recherchieren, dann fällt es ihnen aufgrund des oberflächlichen Einblicks oftmals schwer, zielgerichtet nach Informationen zu suchen. Die im KnowledgeFinder eingesetzten klassischen Suchverfahren, die auf textueller und struktureller Ähnlichkeit basieren, können bei diesen unspezifischen Suchanfragen nur bedingt beim Auffinden von relevanten Informationen helfen. Aufgrund von Mehrdeutigkeiten und unterschiedlichen Kontexten stoße solche Verfahren oftmals an ihre Grenzen. Semantische Technologien haben zum Ziel diesen Mangel zu beheben. Hier wird neben der textuellen und strukturellen Ähnlichkeit zusätzlich die Dimension der Bedeutung betrachtet. In dieser Masterthesis wurde untersucht, ob die Suchergebnisqualität des KnowledgeFinder durch den Einsatz semantischer Technologien verbessert werden kann. Innerhalb einer Machbarkeitsstudie wurde dazu das KnowledgeFinder Framework um semantische Suchverfahren erweitert. Diese Verfahren sollen die fachübergreifende Recherche von DLR-Wissenschaftlern erleichtern, indem sie ihnen helfen, passende Suchergebnisse in den entsprechenden Fachbereichen zu finden.
Distributed systems comprise distributed computing systems, distributed information systems, and distributed pervasive systems. They are often very complex and their implementation is challenging. Intensive and continuous testing is indispensable to ensure reliability and high quality of a distributed system. The testing process should have a high degree of automation, not only on lower levels (i.e. unit and module testing), but also on higher testing levels (e.g. system, integration, and acceptance tests). To achieve automation on higher testing levels virtual infrastructure components (e.g. virtual machines, virtual networks) that are offered as a Service (IaaS) can be employed. The elasticity of on-demand computation resources fits well together with the varying resource demands of automated test execution.
A methodology for automated acceptance testing of distributed systems that uses virtual infrastructure is presented. It is founded on a task-oriented model that is used to abstract concurrency and asynchronous, remote communication in distributed systems. The model is used as groundwork for a domain-specific language that allows expressing tests for distributed systems in the form of scenarios. On the one hand, test scenarios are executable and, therefore, fully automated. On the other hand, test scenarios represent requirements to the system under test making an automated, example-based verification possible.
A prototypical implementation is used to apply the developed methodology in the context of two different case studies. The first case study uses RCE as an example of a distributed, workflow-driven integration environment for scientific computing. The second one uses MongoDB as an example of a document-oriented database system that offers distributed data storage through master-slave replication. The results of the experimental evaluation indicate that the developed acceptance testing methodology is a useful approach to design, build, and execute tests for distributed systems with high quality and a high degree of automation.
Um eine Software fertigzustellen und dem Endkunden zu übergeben muss zunächst der Entwicklungsprozess durchschritten werden. Das zügige Durchlaufen dieses Entwicklungsprozesses ist besonders für den Endkunden von entscheidender Bedeutung, da die Wartezeit auf das Softwareprodukt für ihn reduziert wird. Problematisch könnte beispielsweise dabei ein modulares Vorgehen werden, wenn zunächst alle einzelnen Teilkomponenten eines Softwareproduktes entwickelt und diese daraufhin in einer anschließenden Phase, auch Integrationsphase genannt, zusammengefügt würden. Die Länge dieser Integrationsphase kann nur schwer vorausgesagt werden, so dass weder das Entwicklerteam noch der Endkunde wissen, wie lang die Fertigstellung des Produktes dauern wird. Dabei entsteht ein weiterer Nachteil. Da die Komponenten separat voneinander entwickelt werden, könnte es passieren, dass diese beim finalen Zusammenfügen nicht kompatibel sein und müssten, falls notwendig, angepasst werden. Die Folge wäre eine Verschwendung von personellen und somit auch finanziellen Ressourcen seitens des entwickelnden Unternehmens.
Die Matrix-Vektor-Multiplikation für dünn besetzte Matrizen (SpMV) stellt für weitreichende wissenschaftliche Anwendungen eine der Kernoperationen des High-Performance-Computing-Bereichs dar. Für die verteilte Berechnung mit immer beliebter werdenden hybriden Rechenclustern kommt dabei die Frage nach einer geeigneten Partitionierungsstrategie für die Verteilung von Daten und Berechnung auf. Diese Arbeit beschäftigt sich damit welchen Einfluss die Struktur der Matrix und die unterschiedlichen Prozessortypen auf die Leistung der SpMV haben und schlägt ein Modell vor, um für diese eine lastbalancierte Verteilung zu erreichen. Wesentliche Bestandteile sind dabei die Laufzeitvorhersage für aktuelle CPUs und GPUs basierend auf einem abgewandelten Roofline-Modell sowie die bewährte Methode der Graph-Partitionierung.
Distributed computing environments allow collaborative problem solving across teams and organisations. A fundamental precondition for collaboration is the ability to find available participants and be able to exchange information. One way to approach this conceptual formulation are central directories or registry services. A major disadvantage of centralized components is, that they limit the flexibility to form ad hoc networks that are targeted to solve a specific problem. To facilitate flexible and dynamic collaborations, ideas from decentralized and self-organising networks can be combined with concepts of service oriented computing. This project aims to investigate potential solutions for dynamic discovery of network participants and outlines how to manage challenges associated with the development of a discovery protocol for distributed systems. During the course of this project a prototypical implementation was created that integrates into the open source distributed, collaborative problem solving environment RCE [9]. It is currently developed at the German Aerospace Center (DLR) but is planned to make the framework available to broader community.
In der Arbeit wurde ein Steuerungsframework für die LAMA-Bibliothek (http://www.libama.org) zur Konfiguration von Lösern linearer Gleichungssysteme entwickelt. Hierzu wurde ein Parser mit der Boost.Spirit-Biblithek realisiert, der die Laufzeitinterpretation einer domänenspezifische Sprache (DSL) erlaubt. Durch die Konfigurationssprache ist es möglich, Löser ohne Einschränkungen über ihre ID zu verknüpfen, diesen Lösern Logger und logisch verknüpfte Haltekriterien zuzuordnen.
Segmentierung von 3D-Daten
(2011)
Die vorliegende Arbeit wird im Rahmen eines Projektes des Fraunhofer Instituts IAIS erstellt. Hier geht es um die Entwicklung eines neuen 3D-Laserscanners. Basierend auf diesem 3D-Laserscanner soll eine Sicherheits-Anwendung realisiert werden. Für eine Softwarekomponente - die Segmentierung von 3D-Daten - wird der Stand der Forschung untersucht und es werden drei Segmentierungs-Verfahren ausgewählt und implementiert. Der RANSAC-Algorithmus wird zur Detektion von Ebenen eingesetzt. In dieser Arbeit wird er um ein Abbruchkriterium erweitert, welches die Gesamtlaufzeit bei der Segmentierung von mehreren Ebenen verringert.