Refine
H-BRS Bibliography
- yes (70) (remove)
Departments, institutes and facilities
- Graduierteninstitut (66)
- Fachbereich Angewandte Naturwissenschaften (26)
- Fachbereich Informatik (22)
- Institut für Technik, Ressourcenschonung und Energieeffizienz (TREE) (8)
- Fachbereich Wirtschaftswissenschaften (6)
- Fachbereich Ingenieurwissenschaften und Kommunikation (5)
- Institut für Verbraucherinformatik (IVI) (4)
- Institute of Visual Computing (IVC) (4)
- Fachbereich Sozialpolitik und Soziale Sicherung (3)
- Institut für Cyber Security & Privacy (ICSP) (3)
Document Type
- Doctoral Thesis (70) (remove)
Year of publication
Has Fulltext
- no (70)
Keywords
- Lignin (3)
- Antioxidans (2)
- Evolutionary optimization (2)
- Gitter-Boltzmann-Methode (2)
- Human-Computer Interaction (2)
- Nachhaltigkeit (2)
- Quality diversity (2)
- Robotics (2)
- Spektroskopie (2)
- Strömungssimulation (2)
Die Untersuchung geht den Fragen nach, wie für das Programm und die Programmplanung von Fernseh-Vollprogrammen Verantwortliche die Bedeutung der Programmplanung und Programmierung im Gesamtzusammenhang eines Senders beurteilen, welche programmplanerischen Strategien sie verfolgen und mit welchen programmplanerischen Mitteln und Methoden sie ihre Ziele erreichen wollen. Untersucht wurden die Fernsehvollprogramme ARD/„Das Erste“, Kabel 1, ZDF, ProSieben, RTL, RTL II, SAT.1 und Vox. Die Studie basiert auf einer leitfadengestützten Expertenbefragung von zehn Programmverantwortlichen im Zeitraum 2003/2004.
20 Jahre nach der erstmaligen Zulassung privatwirtschaftlicher Fernsehprogramme in Deutschland stehen dabei Aspekte des Wettbewerbs zwischen öffentlich-rechtlichen und kommerziellen Fernsehanbietern im Vordergrund; unter anderem die Frage, ob der Einsatz im kommerziellen Fernsehen erfolgreicher Strategien und Methoden (wie etwa des Program und Audience Flows) mit dem öffentlich-rechtlichen Programmauftrag vereinbar sind.
In der vorliegenden Arbeit wurde ein Verfahren zur Analyse von Molekülen auf Grundlage ihrer molekularen Oberfläche und lokalen Werte für physiko-chemische und topografische Eigenschaften entwickelt. Der als Kernkomponente der Analyse entwickelte Fuzzy-Controller kombiniert molekulare Eigenschaften und selektiert die für Wechselwirkungen relevanten Merkmale auf der Oberfläche. Die Ergebnisse des Fuzzy-Controllers werden für die Berechnung von 3D-Deskriptoren und für die Visualisierung der ermittelten Domänen auf der Oberfläche herangezogen. Es werden zwei Arten von Deskriptoren berechnet. Deskriptoren, welche Flächeninhalte und Zugehörigkeiten zu den spezifizierten Bindungsmerkmalen der Domänen darstellen, und Deskriptoren, welche die räumliche Anordnung der Domänen zueinander beschreiben. Die vom Fuzzy-Controller überarbeitete Oberfläche wird im VRML-Format zur Visualisierung und weiteren Bearbeitung zur Verfügung gestellt. Die berechneten Deskriptoren werden zur Ähnlichkeitsanalyse von Liganden und zur Suche von komplementären Bereichen an der Bindungsstelle einesRezeptors eingesetzt. MTX in protonierter Form und DHF, die an das Enzym DHF-Reduktase binden, und die Inhibitoren Sildenafil, Tadalafil und Vardenafil des Enzyms PDE-5A wurden unter Ähnlichkeitsaspekten analysiert. Bei der Bestimmung von komplementären Bindungsmerkmalen wird ausgehend von den Bindungsmerkmalen eines Liganden nach komplementären Bereichen in der Bindungstasche des Rezeptors gesucht. Als Anwendungsbeispiele werden die Bindungsstelle des Enzyms DHF-Reduktase aus den Komplexen mit MTX und DHF und des Enzyms PDE-5A aus den Komplexen mit Sildenafil, Vardenafil und Tadalafil betrachtet. Insgesamt haben die Anwendungsbeispiele gezeigt, dass der vorgestellte Fuzzy-Controller Bindungsmerkmale auf der molekularen Oberfläche identifiziert unddie darauf basierenden, rotations- und translationsinvarianten Deskriptoren zur Ähnlichkeitsanalyse und zur Suche von komplementären Bereichen angewendet werden können.
The use of manually fed machines (e.g. table saws) bares risks of injury that are clearly above the average level of other high risk workplaces.
The wide use of such machines causes severe problems for occupational safety and implies high costs for medical treatments and accident annuities.
This thesis presents a new concept of a multispectral sensor to monitor an area in front of a danger zone to detect the user’s limbs and trigger safeguarding measures to prevent an accident in time.
The sensor concept realizes a contact-free material classification, which comprises the development of a system design and specific safety requirements with respect to international safety standards.
Furthermore, a prototypical implementation using four wavebands, which were determined for skin detection through an analysis of reflectance spectra acquired specifically for this purpose, was built.
During space missions astronauts suffer from cardiovascular deconditioning, when they are exposed to microgravity conditions. Until now, no specific drugs are available for effective countermeasures, since the underlying mechanism is not completely understood. Endothelial cells (ECs) and smooth muscle cells (SMCs) play crucial roles in a variety of cardiovascular functions, many of which are regulated via P2 receptors. However, their function in ECs and SMCs under microgravity condition is still unknown. In this study, ECs and SMCs were isolated from bovine aorta and differentiated from human mesenchymal stem cells (hMSCs), respectively. Subsequently, the cells were verified based on specific markers. An altered P2 receptor expression pattern was detected during the commitment of hMSC towards ECs and SMCs. The administration of natural and artificial P2 receptor agonists and antagonists directly affected the differentiation process. By using EC growth medium as conditioned medium, a vessel cell model was created to culture SMCs and vice versa. Within this study, we were able to show for the first time that the expression of some P2 receptors were altered in ECs and SMCs grown for 24h under simulated microgravity conditions. On the other hand, in some P2 receptor expressions such as P2X7 conditioned medium compensated this change.
In conclusion, our data show that P2 receptors play an important functional role in hMSC differentiation towards ECs and SMCs. Since some P2 receptor artificial ligands are already used as drugs for patients with cardiovascular diseases, it is reasonable to assume that in the future they might be promising candidates for treating cardiovascular deconditioning.
Over the last 50 years, the controlled motion of robots has become a very mature domain of expertise. It can deal with all sorts of topologies and types of joints and actuators, with kinematic as well as dynamic models of devices, and with one or several tools or sensors attached to the mechanical structure. Nevertheless, the domain has not succeeded in standardizing the modelling of robot devices (including such fundamental entities as “reference frames”!), let alone the semantics of their motion specification and control. This thesis aims to solve this long-standing problem, from three different sides: semantic models for robot kinematics and dynamics, semantic models of all possible motion specification and control problems, and software that can support the latter while being configured by a systematic use of the former.
Lignin ist bereits ein intensives Gebiet der Forschung, allerdings werden Verknüpfungen zwischen Quelle, Aufschlussmethode und Einsatz in der Literatur kaum beschrieben. In der vorliegenden Arbeit werden Lignine von verschiedenen Quellen (Weizenstroh, Buche, Nadelholz) und Aufschlussmethoden (AFEX, Wasserdampfaufschluss, Organosolv, Saure Hydrolyse) analytisch erfasst und hinsichtlich ihres Einsatzes in polymeren Materialien charakterisiert. Eine breite Auswahl an Methoden wurden eingesetzt, FT-IR- Spektroskopie, UV-Vis, 31P-NMR, GPC, Pyrolyse-GC/MS, sowie HPLC zur Bestimmung der Reinheit gemäß des NREL-Standard-Protokolls. Thermische Analysen, wie TGA und DSC zeigten Glasübergangstemperaturen um 120°C, sowie Zersetzungstemperaturen zwischen 340°C und 380°C. Die Ergebnisse weisen für das Organosolv-Buchenholz-Lignin hochreine Fraktionen auf, die bis dato noch nicht erreicht wurden. Die Ergebnisse dieser Arbeit identifizien die Organosolv-Buchenholz-Lignine als ein verwertbares Produkt im Hinblick auf die Anwendung in Polyurethanen sowie Phenol-Formaldehydharzen.
In this doctoral thesis the curing process of visible light-curing (VLC) dental composites and 3D printing rapid prototyping (RP) materials are investigated with the focus on dielectric analysis (DEA). This method is able to monitor the curing of resins in an alternating electric fringe field with adjustable frequencies and is often used for cure control of composites manufacturing in the aviation and automotive industry but hardly established in dental science or RP method development. It is capable of investigating very fast initiation and primary curing processes using high frequencies in the kHz-range. The aim of the Thesis is a better understanding of the curing processes with respect to curing parameters such as resin composition, viscosity, temperature, and for light-curing composites also light intensity and irradiation depth. Due to the nature of both dental and RP systems an application of specific experimental set-up had to be designed allowing for the generation of reproducible and valid results. Subsequently, different evaluation methods were developed to characterize the curing behavior of both material types. A special focus was paid to the determination of kinetic parameters from DEA measurements. Reaction rates of the curing of the corresponding thermosets were calculated and applied to the ion viscosity curves measured by DEA to evaluate reaction kinetic parameters. For the dental composites it could be clearly shown that the initial curing rate is directly proportional to light intensity and not to its square root as proposed by many others authors. A good description of the curing behaviour of 3DP RP materials was also achieved assuming a reaction order smaller than one. This data provides the base for the kinetic modeling of polymerization and curing processes proposed within the Thesis.
During the last 50 years, a broad range of visible light curing resin based composites (VLC RBC) was developed for restorative applications in dentistry. Correspondingly, the technologies of light curing units (LCU) have changed from UV to visible blue light, and there from quartz tungsten halogen over plasma arc to LED LCUs increasing their light intensity significantly. In this thesis, the influence of the curing conditions in terms of irradiance, exposure time and irradiance distribution of LCU on reaction kinetics as well as corresponding mechanical and viscoelastic properties were investigated.
Diese Arbeit beschäftigt sich mit der Effizienz der Seitenkanal-Kryptanalyse. In Teil II dieser Arbeit demonstrieren wir, wie die Laufzeit der wichtigsten Analysewerkzeuge mit Hilfe der CUDA Plattform erheblich gesteigert werden kann. Zweitens untersuchen wir neue Ansätze der profilierenden Seitenkanal-Kryptanalyse. Der Forschungszweig des maschinellen Lernens kann für deutliche Verbesserungen adaptiert werden, wurde jedoch wenig dahingehend untersucht. In Teil III dieser Arbeit präsentieren wir zwei neue Methoden, die einige Gemeinsamkeiten jedoch auch einige Unterschiede aufbieten, sodass sich Prüfergebnisse in einem vollständigeren Bild zeigen lassen. Darüber hinaus schlagen wir in Teil IV eine Seitenkanalanwendung zum Schutz geistigen Eigentums (IP) vor. In Teil V beschäftigen wir uns tiefergehend mit praktischer Seitenkanal-Kryptanalyse, indem wir Attacken auf einen Sicherheitsmikrokontroller durchführen, der Anwendung in einer, in Deutschland weit verbreiteten, EC Karte findet.
The detection of human skin in images is a very desirable feature for applications such as biometric face recognition, which is becoming more frequently used for, e.g., automated border or access control. However, distinguishing real skin from other materials based on imagery captured in the visual spectrum alone and in spite of varying skin types and lighting conditions can be dicult and unreliable. Therefore, spoofing attacks with facial disguises or masks are still a serious problem for state of the art face recognition algorithms. This dissertation presents a novel approach for reliable skin detection based on spectral remission properties in the short-wave infrared (SWIR) spectrum and proposes a cross-modal method that enhances existing solutions for face verification to ensure the authenticity of a face even in the presence of partial disguises or masks. Furthermore, it presents a reference design and the necessary building blocks for an active multispectral camera system that implements this approach, as well as an in-depth evaluation. The system acquires four-band multispectral images within T = 50ms. Using a machine-learning-based classifier, it achieves unprecedented skin detection accuracy, even in the presence of skin-like materials used for spoofing attacks. Paired with a commercial face recognition software, the system successfully rejected all evaluated attempts to counterfeit a foreign face.
In dieser Arbeit werden neuartige methodische Erweiterungen der Lattice-Boltzmann-Methode (LBM) entwickelt, die effizientere Simulationen inkompressibler Wirbelströmungen ermöglichen. Diese Erweiterungen beheben zwei Hauptprobleme der Standard-LBM: ihre Instabilität in unteraufgelösten turbulenten Simulationen und ihre Beschränkung auf reguläre Rechengitter. Dazu wird zunächst eine Pseudo-Entropische Stabilisierung (PES) entwickelt. Diese kombiniert Ansätze der Multiple-Relaxation-Time (MRT)-Modelle und der Entropischen LBM zu einem expliziten, lokalen und flexiblen Stabilisierungsoperator. Diese Modifikation des Kollisionsschritts erlaubt selbst auf stark unteraufgelösten Gittern stabile und qualitativ korrekte Simulationen. Zur Erweiterung der LBM auf irreguläre Rechengitter wird zunächst eine moderne Discontinuous-Galerkin-LBM untersucht und um stabilere Zeitintegratoren ergänzt. Diese Studie demonstriert die drastischen Schwächen existierender LBMAnsätze auf irregulären Gittern. Basierend auf den gewonnenen Erkenntnissen gelingt die Formulierung einer neuartigen Semi-Lagrangeschen LBM (SLLBM). Diese ermöglicht in einzigartigerWeise sowohl die Verwendung irregulärer Gitter und großer Zeitschritte als auch eine hohe räumliche Konvergenzordnung. Anhand von Beispielsimulationen wird demonstriert, wieso dieser Ansatz anderen aktuellen Off-Lattice-Boltzmann-Methoden (OLBMs) in Effizienz und Genauigkeit überlegen ist. Weitere neuartige Aspekte dieser Arbeit sind die Entwicklung eines modularen Off-Lattice-Boltzmann-Codes und die Erweiterung der LBM um implizite Mehrschrittverfahren, mit denen eine Erhöhung der zeitlichen Konvergenzordnung gelingt.
As robots are becoming ubiquitous and more capable, the need for introducing solid robot software development methods is pressing to increase robots' task spectrum. This thesis is concerned with improving software engineering of robot perception systems. The presented research employs a model-based approach to provide the means to represent knowledge about robotics software. The thesis is divided into three parts, namely research on the specification, deployment and adaptation of robot perception systems.
The knowledge of Software Features (SFs) is vital for software developers and requirements specialists during all software engineering phases: to understand and derive software requirements, to plan and prioritize implementation tasks, to update documentation, or to test whether the final product correctly implements the requested SF. In most software projects, SFs are managed in conjunction with other information such as bug reports, programming tasks, or refactoring tasks with the aid of Issue Tracking Systems (ITSs). Hence ITSs contains a variety of information that is only partly related to SFs. In practice, however, the usage of ITSs to store SFs comes with two major problems: (1) ITSs are neither designed nor used as documentation systems. Therefore, the data inside an ITS is often uncategorized and SF descriptions are concealed in rather lengthy. (2) Although an SF is often requested in a single sentence, related information can be scattered among many issues. E.g. implementation tasks related to an SF are often reported in additional issues. Hence, the detection of SFs in ITSs is complicated: a manual search for the SFs implies reading, understanding and exploiting the Natural Language (NL) in many issues in detail. This is cumbersome and labor intensive, especially if related information is spread over more than one issue. This thesis investigates whether SF detection can be supported automatically. First the problem is analyzed: (i) An empirical study shows that requests for important SFs reside in ITSs, making ITSs a good tar- get for SF detection. (ii) A second study identifies characteristics of the information and related NL in issues. These characteristics repre- sent opportunities as well as challenges for the automatic detection of SFs. Based on these problem studies, the Issue Tracking Software Feature Detection Method (ITSoFD), is proposed. The method has two main components and includes an approach to preprocess issues. Both components address one of the problems associated with storing SFs in ITSs. ITSoFD is validated in three solution studies: (I) An empirical study researches how NL that describes SFs can be detected with techniques from Natural Language Processing (NLP) and Machine Learning. Issues are parsed and different characteristics of the issue and its NL are extracted. These characteristics are used to clas- sify the issue’s content and identify SF description candidates, thereby approaching problem (1). (II) An empirical study researches how issues that carry information potentially related to an SF can be detected with techniques from NLP and Information Retrieval. Characteristics of the issue’s NL are utilized to create a traceability network vii of related issues, thereby approaching problem (2). (III) An empirical study researches how NL data in issues can be preprocessed using heuristics and hierarchical clustering. Code, stack traces, and other technical information is separated from NL. Heuristics are used to identify candidates for technical information and clustering improves the heuristic’s results. The technique can be applied to support components, I. and II.
Daryoush Daniel Vaziri illustrates that the use of mixed methods designs may support the induction of more subtle and complete theories about older adults’ use of technologies for the support of active and healthy aging. The results show that older adults’ social contexts and environments considerably affect their perspectives, practices and attitudes with respect to health, quality of life, well-being and technology use for active and healthy aging support. Results were collected with older adults aged 60+ as well as relevant secondary stakeholders like caregivers, policy makers or health insurance companies.
The design of an efficient digital circuit in term of low-power has become a very challenging issue. For this reason, low-power digital circuit design is a topic addressed in electrical and computer engineering curricula, but it also requires practical experiments in a laboratory. This PhD research investigates a novel approach, the low-power design laboratory system by developing a new technical and pedagogical system. The low-power design laboratory system is composed of two types of laboratories: the on-site (hands-on) laboratory and the remote laboratory. It has been developed at the Bonn-Rhine-Sieg University of Applied Sciences to teach low-power techniques in the laboratory. Additionally, this thesis contributes a suggestion on how the learning objectives can be complemented by developing a remote system in order to improve the teaching process of the low-power digital circuit design. This laboratory system enables online experiments that can be performed using physical instruments and obtaining real data via the internet. The laboratory experiments use a Field Programmable Gate Array (FPGA) as a design platform for circuit implementation by students and use image processing as an application for teaching low-power techniques.
This thesis presents the instructions for the low-power design experiments which use a top-down hierarchical design methodology. The engineering student designs his/her algorithm with a high level of abstraction and the experimental results are obtained and measured at a low level (hardware) so that more information is available to correctly estimate the power dissipation such as specification, latency, thermal effect, and technology used. Power dissipation of the digital system is influenced by specification, design, technology used, as well as operating temperature. Digital circuit designers can observe the most influential factors in power dissipation during the laboratory exercises in the on-site system and then use the remote system to supplement investigating the other factors. Furthermore, the remote system has obvious benefits such as developing learning outcomes, facilitating new teaching methods, reducing costs and maintenance, cost-saving by reducing the numbers of instructors, saving instructor time and simplifying their tasks, facilitating equipment sharing, improving reliability, and finally providing flexibility of usage the laboratories.
Gegenstand dieser Arbeit sind Untersuchungen zur Detektion von verpackten Gefahrstoffen wie beispielsweise Explosivstoffen. Hierzu wird in einem ersten Schritt die Verpackung mittels Laserbohrens durchdrungen, um anschließend den nun freiliegenden Gefahrstoff nachweisen zu können. Dies geschieht einerseits durch eine lasergestützte Probenahme und anschließende Detektion mit gängigen chemisch-analytischen Verfahren sowie direkt bei der Wechselwirkung zwischen Laser und Gefahrstoff mittels Ramanspektroskopie. Zudem werden schnelle in situ-Techniken im Hinblick auf ihre Eignung zur Überwachung des Laserbohrprozesses untersucht. Hier werden kostengünstige und kompakte Sensortechniken (Messung der Prozessgase durch Halbleitergassensoren, Messung des Luftschalls mittels Kondensatormikrofon) mit aufwendigeren und komplexeren spektroskopischen Verfahren (Plasma- und Ramanspektroskopie) bewertend verglichen. Anhand ausgewählter Modellsysteme in verkleinertem Maßstab werden die unterschiedlichen Verfahren unter Verwendung gängiger Verpackungs- und Hüllenmaterialien sowie anhand ausgewählter Explosivstoffe charakterisiert. Für das Laserverfahren kommen gepulste Nd:YAG Laser mit unterschiedlichen Emissionswellenlängen zum Einsatz.
Im Rahmen der vorliegenden wissenschaftlichen Arbeit wurde das Potenzial der einfachen Halbleitergassensoren zum Einsatz in komplexen Fragestellungen erforscht. Ein im wahrsten Sinne des Wortes brandaktuelles Thema, das hier in den Fokus geraten ist, ist die Detektion explosionsfähiger Substanzen. 42547 – so hoch war die Anzahl der Terroranschläge im Zeitraum 2000 bis 2016, die unter Einsatz von energetischen Materialien begangen wurden. Bei mehr als der Hälfte waren Menschenopfer zu beklagen. Terrorismus ist eine Gefahr und neue explosionsfähige Stoffmischungen, deren Analysedaten in keiner Datenbank eines Detektors enthalten sind, bilden zurzeit ein enormes Bedrohungspotential - solche Gefahrstoffe sind mit etablierten bibliothekgestützten Verfahren schwer nachweisbar. In dieser Arbeit wurde ein bibliothekfrei arbeitender Detektor entwickelt, der schnell und verlässlich die Explosionsfähigkeit unbekannter Substanzen anhand der Auswertung ihrer Reaktionsverläufe bewerten konnte. Es wurde gezeigt, dass der Einsatz von Halbleitergassensoren in Kombination mit Photodioden und einem Drucksensor unter Voraussetzung der durchdachten Reaktionsführung und Anwendung von auf die Aufgabenstellung zugeschnittenen Auswertealgorithmen zielführend ist und eine extrem hohe Detektionsrate von 99,8% ermöglicht. Des Weiteren wurde ein einfacher Herstellungsweg für Halbleitergassensoren ausgehend von der vorhandenen Precursorbibliothek gefunden, der in Zukunft gezielte Manipulation der sensorischen Eigenschaften der Halbleitergassensoren durch Variieren des eingesetzten Precursors sowie der Sensorherstellungsparameter erlaubt. Die auf diesem Weg gefertigten Sensoren wurden in den entwickelten Detektor integriert und zeigten großes Potential neben bibliothekfreier Einschätzung der Explosionsfähigkeit einer unbekannten Substanz auch Aussagen über deren Identität treffen zu können.