Refine
H-BRS Bibliography
- yes (43) (remove)
Departments, institutes and facilities
Document Type
- Bachelor Thesis (43) (remove)
Year of publication
Keywords
- Lignin (2)
- 3D Crosstalk (1)
- 3D Display (1)
- 3D crosstalk (1)
- 3D display (1)
- 3D-Kartierung (1)
- 3D-Laserscanner (1)
- 3D-Lokalisierung (1)
- 3D-Punktwolke (1)
- Al2O3 (1)
In dieser Arbeit wird eine von P. Ahlrichs und B. Dünweg entwickelte Methode [Ahlrichs und Dünweg, 1998] zur Simulation von Polymeren in Flüssigkeiten auf dem Cell-Prozessor implementiert. Dabei soll der Frage nachgegangen werden, wie performant der Cell-Processor in der Lage ist diese Simulation zu berechnen.
Zur Simulation der Polymere wird eine Molekular-Dynamik Simulation genutzt. Die Monomere der Polymerketten werden durch ein Kugel-Feder Modell gekoppelt. Die einzelnen Monomere der Polymere werden als einfache Punktteilchen betrachtet. Dies ermöglicht eine Interaktion der Monomere, unabhängig von deren Zeit- und Längenskalen, mit der Flüssigkeitssimulation durch Reibung. Die Flüssigkeit wird in dieser Arbeit durch die Lattice-Boltzmann-Methode simuliert.
Heutige Grid-Systeme sind in der Lage dem Nutzer verschiedenste Ressourcen einfach, transparent und sicher zur Verfügung zu stellen. Für die Ausführung von komplexen Workflows wird eine Advance Reservation benötigt, welche die Ausführung der einzelnen Workflowelemente zu vorher berechneten oder festgelegten Zeitpunkten ermöglicht. Durch die Advance Reservation werden die benötigten Ressourcen auf den Grid-Sites reserviert. In der von der Fraunhofer Gesellschaft eingesetzten Grid-Middleware-Software UNICORE wird eine solche Reservierung von Ressourcen bisher nicht unterstützt. Um die Reservierung in einem UNICORE Grid zu ermöglichen und die Co-Allokation von Ressourcen vorzunehmen, wurde im VIOLA Projekt der MetaScheduling Service (MSS) entwickelt. Über lokal auf den Grid-Ressourcen installierte Adapter kann der MSS Statusinformationen abfragen und Reservierungen vornehmen. Die Adapter sind als Webservice implementiert, was eine komplexe Installation und Konfiguration erfordert, da die Adapter Zugriff auf das lokale System benötigen. Durch eine doppelte Benutzerverwaltung und einer zur UNICORE Grid-Middleware parallelen Kommunikation wird die Anfälligkeit für Fehler erhöht.
Volumen Rendering ist ein eigenes Thema der Computergrafik und wurde in den letzten Jahren fortlaufend optimiert. Neben verschiedenen Ansätzen, die in Software implementiert sind, gibt es auch einige spezielle Methoden, die die Grafikhardware geeignet nutzen. 2003 wurde ein erstes Paper von J. Krüger und R. Westermann veröffentlicht, in dem eine Hardwareimplementierung eines Raycasting Volumen Renderers gezeigt wurde, ein Ansatz, der bislang nicht geeignet in Hardware umgesetzt werden konnte. Die Vorteile von diesem Ansatz bestehen in zwei Beschleunigungstechniken, die entweder bei fast opaken Darstellungen der Datensätze oder bei Darstellungen mit wenig sichtbaren Daten ausgespielt werden können.
Diese Arbeit zeigt und erläutert, neben der theoretischen Einführung in das Thema, die Implementierung eines interaktiven raycasting-basierten Volumen Renderers auf neuester Grafikhardware mit Hilfe von Shaderprogrammen. Wesentliche Schritte folgen der Veröffentlichung von J. Krüger und R. Westermann, welche aber viele Details und Problemstellen verschweigt. Die Ergebnisse werden mit einem 3D-Textur Volumenrenderverfahren verglichen, wobei durch charakteristische Testdatensätze die beiden Beschleunigungstechniken des Raycasters untersucht werden. Weil beide Techniken bei fast allen Datensätzen eine Beschleunigung des Rendervorgangs hervorrufen sollten, werden die erzielten Ergebnisse miteinander verglichen und kritisch besprochen, um zu beurteilen, ob das hier implementierte Verfahren schneller als das bisher oft verwendete 3D-Texturverfahren ist.
Scientists and engineers are using a distributed system Remote Component Environment (RCE) to design and simulate complex systems like airplanes, ships and satellites. During the simulation, RCE executes local and remote code. Remote code is classified as untrusted code. The execution of remote code comprises potential security risks for the host system of RCE. Additionally, RCE provides full access to system resources. The objective of this thesis is to implement a sandbox prototype to reduce the vulnerability of RCE during the execution of remote code.
The introduction of gestures as a supplementary input modality has become of increasing interest to human computer interaction design, especially for 3D computer environments. This thesis describes the concepts and development of a gesture recognition system based on the machine learning technique of Hidden Markov Models. Well-known from the field of speech recognition, this statistical method is employed in this thesis to represent and recognize predefined gestures. Within this work, gestures are defined as symbols, such as simple geometric shapes or Roman letters. They are extracted from a stream of three-dimensional optical tracking data which is resampled, reduced to 2D and quantized to be used as input to discrete Hidden Markov Models. A set of prerecorded training data is used to learn the parameters of the models and recognition is achieved by evaluating the trained models. The devised system was used to augment an existing virtual reality prototype application which serves as a demonstration and development platform for the VRGeo consortium. The consortium's goal is to investigate and utilize the benefits of virtual reality technology for the oil and gas industry. An isolated test of the system with seven gestures showed accuracies of up to 98.57% and the review from experts in the fields of virtual reality and geophysics was predominantly positive.
Diese Bachelor-Thesis entwickelt ein Charakterisierungskonzept für ein autostereoskopisches 3D-Display. Der daraus entstandene Parametersatz ist die Grundlage für die Anforderungen eines 3D-Charakterisierungsmessplatzes. Die Arbeit zeigt die Auswahl geeigneter Komponenten und Methoden um einen 3D-Charakterisierungsmessplatz aufzubauen. Mithilfe des neuartigen Aufbaus wird ein autostereoskopisches Display charakterisiert. Nach der Auswertung der gewonnen Messwerte wird der ermittelte Parametersatz dem Lastenheft gegenübergestellt. Mögliche Fehlerquellen im Aufbau und der Ansteuerung des Displays werden lokalisiert und soweit es möglich ist behoben.
Die Matrix ist eine der entscheidenden Hauptkomponenten oxidkeramischer Faserverbundwerkstoffe (Ox-CMCs). Im Herstellungsprozess stellen typischerweise keramische Schlicker die Ausgangsbasis für die spätere Ausbildung der Matrix im CMC dar. Die Aufbereitungsart und -dauer keramischer Schlicker haben dabei wesentlichen Einfluss auf die Verarbeitungseigenschaften des Schlicker und die Eigenschaften der späteren Matrix. In dieser Arbeit wird der Einfluss verschiedener Aufbereitungsparameter auf die Schlickereigenschaften und das Sinterverhalten untersucht. Dazu werden zwei Aufbereitungsverfahren, Planeten- und Ringspaltkugelmühle, eingesetzt sowie Mahlkörpermaterialien (Al2O3 und ZrO2), Additive (Glycerin) und Aufbereitungsdauer gezielt verändert. Es wurden Partikelgrößenverteilung, Rheologie und Feststoffgehalt ermittelt, sowie die Mikrostruktur und Schwindung analysiert. Im Vergleich zur Ringspaltkugelmühle konnte eine definierte Partikelgrößenverteilung mit der Planetenkugelmühle bereits nach einem Drittel der Zeit erreicht werden. Zusätzlich wird mit zunehmender Mahldauer auch die Neigung zur Thixotropie beobachtet. Bei zu langer Aufbereitungsdauer, aber fast identischer Partikelgrößenverteilung führt dieser Effekt zu Problemen bei der Herstellung von Ox-CMCs über das Wickelverfahren. Insgesamt ist dieses Verhalten stärker ausgeprägt bei Schlickern mit wenig Glyceringehalt. Gleichzeitig werden bei Schlickern mit gleichen Feststoffanteilen, aber höherem Glycerinanteil niedrigere Viskositäten gemessen. Mit zunehmendem Glyceringehalt steigt der Gewichtsverlust, jedoch nimmt die Sinterschwindung der Proben ab. Die in dieser Arbeit dargestellten Ergebnisse können für die Optimierung des Wicklungsprozesses zur CMC-Herstellung genutzt werden.
Die vorliegende Arbeit widmet sich dem Aufbau und Betrieb eines Teststandes zur kontinuierlichen solaren Methanreformierung. Für den Teststand, der in einem Hochleistungsstrahler aufgebaut wird, werden Verfahrenskomponenten sowie Mess- und Regelungstechniken ausgewählt, platziert und ein Regelungskonzept erstellt. Mit dem Programm LabVIEW werden die erfassten Mess- und Regelungsgrößen grafisch angezeigt, gespeichert und eine vor-läufige Bestimmung der Prozessgüte durchgeführt. Um die Qualität der Messergebnisse zu steigern, wird die Messunsicherheit der verwendeten Messtechnik berechnet. Für die solare Methanreformierung wird ein Absorber mit neuartiger Zweikanalstruktur in einen bereits bestehenden Receiver integriert. In der einen Hälfte der Kanalstruktur findet die Methanreformierungsreaktion statt. In den restlichen Kanälen kann ein Wärmeaustauch mit dem Medium Luft erfolgen, um einen Wärmespeicher zu beladen bzw. im Nachtbetrieb Wärme aus dem Speicher wieder in den Receiver einzukoppeln. Für die Inbetriebnahme werden Mess- und Regelungskomponenten kalibriert und ein Gaserhitzer für die Verwendung im Teststand entwickelt und optimiert. Weiterhin werden die Inbetriebnahme und Versuchspläne für die erste Testkampagne ausgearbeitet.
Durch den digitalen Wandel der letzten Jahrzehnte haben sich Fotos im Journalismus zum Must-have entwickelt, gerade online. Doch nicht immer sind Fotos verfügbar, die das Thema eines Artikels dokumentieren können. In dem Fall wird häufig auf Symbolfotos zurückgegriffen. Es finden Fotos Verwendung, die meist auf Vorrat produziert, durch Stockdatenbanken selektiert und präsentiert werden, um schließlich Gesicht eines Produktes oder Artikels zu sein, ohne in ihrer Entstehung mit der Verwendung in Zusammenhang zu stehen.
Welche Wirkung hat die Verwendung von Symbolfotos im Technik- und Wissenschaftsjournalismus auf Rezipienten in Deutschland? Anhand einer explorativen Befragung von 82 Personen mit dem Ziel durch eine vorwiegend quantitative Analyse einen Überblick über Einstellung und Umgang der Stichprobe mit Symbolfotos zu gewinnen, ermöglicht die Arbeit erste Thesen zur Sicht der Rezipienten auf die Verwendung von Symbolfotos – jedoch keine repräsentativen Ergebnisse.
Die vorliegende Bachelorthesis setzt sich mit der Problematik auseinander, ob Produktbewertungen auf Youtube nutzwertjournalistisch sein können, wozu zunächst ein Kategoriensystem zur Identifikation von Nutzwertjournalismus entwickelt wird. Mithilfe der Methode der qualitativen Inhaltsanalyse und dem Kategoriensystem, werden vier Produkttests des Fotografie-Kanals Value-TechTV untersucht. Die Forschungsfrage lautet daher: Zählen die Produkttests des Kanals ValueTechTV zum Nutzwertjournalismus?
Das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS) betreibt seit mehreren Jahren auf dem Campus Schloss Birlinghoven in Sankt Augustin angewandte Forschung in den Bereichen Multisensordatenanalyse und Datenvisualisierung.
Im Rahmen einer mehrjährigen Kooperation zwischen dem Fraunhofer-IAIS und der Wehrtechnischen Dienststelle 71 (WTD71) wurde das Seeraumüberwachungssystem iLEXX entwickelt. Es soll den Benutzer auf auffällige Situationen hinweisen und ihm kontextabhängig alle notwendigen Handlungsoptionen zur weiteren Aufklärung der Situation oder der Abwehr einer Bedrohung aufzeigen. Das iLEXX-System verarbeitet eine Vielzahl von Sensordaten und Ereignissen. Abhängig vom Szenario kommen hier mehrere tausend Updates pro Sekunde zusammen, die in Echtzeit vorverarbeitet und visualisiert werden müssen.
Die Klimakrise stellt eine Bedrohung für das menschliche Wohlergehen und die planetare Gesundheit dar, welcher u.a. durch Lebens- und Verhaltensstiländerungen begegnet werden kann. Eine dieser individuellen und gesamtgesellschaftlichen Veränderungen könnte eine geschlechtergerechte Aufteilung der Care-Arbeit sein, weshalb es notwendig ist, an vorderster Stelle die dahinterliegenden Mechanismen und Zusammenhänge zu verstehen. Aus diesem Grund beschäftigt sich die vorliegende Bachelorarbeit mit der Frage „Wie kann geschlechtergerechte Care-Arbeit ausgestaltet werden, um einen Beitrag zum Klimaschutz zu leisten?“. Um die Forschungsfrage zu beantworten, wird eine systematische Literaturrecherche durchgeführt, welche durch den theoretischen Rahmen analysiert wird. Dieser setzt sich aus der Externalisierungsgesellschaft von Lessenich, dem Gerechtigkeitsansatz von Fraser und dem soziologischen Geschlecht von Pimminger zusammen. Die Analyse ergibt, dass sowohl die Ursachen, Auswirkungen und Lösungsansätze zur Klimakrise abhängig vom Geschlecht sind und ein Eco Gender Gap existiert.Des Weiteren ist die Aufteilung der Care-Arbeit durch das soziologische Geschlecht geprägt und weist sowohl im lokalen und globalen Kontext Parallelen zur Klimakrise auf. Lösungsansätze für beide Herausforderungen finden sich im Ökofeminismus und einer Verkürzung der Arbeitszeit wieder. In zukünftigen Wirtschaftsmodellen sollte die Care-Arbeit daher mehr Beachtung finden, da sie die unsichtbare Grundlage der derzeitigen Wirtschaftsweise ist, die zur Klimakrise geführt hat.
E-Sport im Fernsehen - Eine Analyse der Chancen eines neuen Themenfelds bei deutschen Fernsehsendern
(2022)
In den letzten Jahren hat die mediale Präsenz des E-Sports in Deutschland zugenommen, was dazu führte, dass auch die Allgemeinheit sich mit dem Thema auseinandersetzt. Dadurch sind Fernsehunternehmen auf die ursprüngliche Nischensportart, welche im Internet beheimatet und dort stark verwurzelt ist, aufmerksam geworden und bauen ihr Engagement in dem Bereich aus, um an dem wachsenden Erfolg teilzuhaben, der dem E-Sport prognostiziert wird. Doch eine erfolgreiche und geeignete Thematisierung des Trendthemas scheint aufgrund der besonderen Rahmenbedingungen nicht so einfach zu sein, wie es bei anderen klassischen Sportarten der Fall ist. Daraus ergibt sich die Frage: Welche Chancen hat die Thematisierung des E-Sports bei deutschen Fernsehsendern, wenn man die besonderen Gegebenheiten zusammen betrachtet? Die TV-Sender haben hierbei die Aufgabe, ein Publikum zu gewinnen, welches eigentlich gewohnt ist, dieses Thema im Internet zu konsumieren – dabei verliert das Fernsehen seit dem digitalen Zeitalter sowieso schon immer mehr Zuschauende an ebendieses. Neben den Hindernissen, die überwunden werden müssen, bietet der E-Sport den Fernsehunternehmen aber auch Mehrwerte – beides wird in dieser Arbeit ergründet.
Diese explorative Forschungsarbeit bietet einen Ansatz für die weitere Erforschung des E-Sports in den deutschen Medien – vor allem, da existierende Arbeiten sich hauptsächlich auf Live-Streaming-Portale oder die Darstellung des E-Sports in den klassischen Medien beziehen und ein Bezug zu den Intentionen und Gedanken der Fernsehunternehmen nicht vorhanden ist. Um diese Lücke zu schließen, wurden sieben Handelnde bei deutschen TV-Sendern oder Senderfamilien interviewt, die den E-Sport schon in unterschiedlicher Intensivität behandelt oder Überlegungen dazu durchgeführt haben. Den Abschluss dieser Arbeit - und gleichzeitige Anknüpfungspunkte für eine weiterführende Forschung zu dem Thema - bilden die acht Hypothesen, die einen Aufschluss darüber geben, welche Faktoren einen Einfluss auf die Chancen einer Thematisierung haben und die durch die Methode der qualitativen Inhaltsanalyse erstellt wurden. Der Forschungsgegenstand wurde dabei unter einer Vielzahl besonderer Aspekte und deren Wechselwirkungen betrachtet, wie z. B. den unterschiedlichen Senderformen, den Umständen innerhalb der E-Sport-Branche oder den vorhandenen Unternehmensstrukturen.
Selbstlokalisation eines Mikroflugsystems mit Laserscannern zur 3D-Kartierung von Innenräumen
(2017)
In der Bachelorarbeit Selbstlokalisation eines Mikroflugsystems mit Laserscannern zur 3D-Kartierung von Innenräumen wird ein Verfahren vorgestellt, welches die Position eines Flugroboters in Abhängigkeit aller sechs Freiheitsgrade darstellen kann. Mithilfe von zwei Laserscannern werden zeitgleich dreidimensionale Karten der Umgebung erstellt. Zur Ermittlung der Bewegung des Flugroboters auf der horizontalen Ebene wird Hector SLAM verwendet. Um zusätzlich Höheninformationen zu erhalten, werden zwei verschiedene Verfahren implementiert: Das erste Verfahren misst die Höhe direkt mithilfe eines Laserscanners, das zweite Verfahren nutzt Hector SLAM zur Ermittlung der Höheninformationen aus der vertikalen Scanebene.
Der Klimawandel ist eine immer größer werdende Herausforderung von der besonders Kinder auf Grund ihrer Vulnerabilität betroffen sind. Ein Ansatz, um die Resilienz von Kindern zu stärken ist die Agency von Kindern im Kontext des Klimawandels zu stärken. Diese Arbeit analysiert, wie Maßnahmen zur Stärkung der Agency von Kindern in Form von Klimawandelprojekten wirksam gestaltet werden können. Dieses Vorhaben wird mittels einer qualitativen Inhaltsanalyse von bereits durchgeführten Klimaprojekten umgesetzt. Die Analyse zeigt, dass vor allem Maßnahmen, bei denen eine Aktionskomponente, neben der Wissensbildung und Stimmenschaffung, im Vordergrund stehen die Agency von Kindern stärken.
The aim of this thesis is to investigate and optimize the camera system which is used for Filtered Rayleigh Scattering (FRS) measurement systems. Theoretical considerations about the integration of interference filters explain state-of-the-art accuracy limitations. Based on that promising modifications of the established FRS system are presented: test results indicate that frequency fringes - artifacts distorting FRS scans - are minimized by positioning the spectral bandpass filter between camera and first lens. As a tradeoff, the signal level decreases by 70 % to 75% depending on the beam path through the molecular filter. Furthermore, reference measurements without a bandpass filter account for a non-negligible iodine fluorescence background of about 1% of typical signal levels. All things considered following these results FRS systems can now be systematically optimized towards specific measurement tasks.
Ziel: Diese Arbeit ermittelt die Einsatzszenarien der Design Thinking Methode in Informationseinrichtungen. Diesbezüglich wird der aktuelle Wandlungsprozess in Bibliotheken berücksichtig und danach gefragt, ob Divergenzen zwischen den ermittelten Handlungsfeldern und den aufgezeigten Anwendungsbeispielen bestehen. Darüber hinaus soll aufgezeigt werden, ob der Einsatz der Design Thinking Methode in Informationseinrichtungen zielführend ist. Der Gegenstand der Arbeit ist demnach die Evaluation des Methodeneinsatzes. Methode: Im Rahmen dieser Arbeit wurde die Methode des Systematic Review angewandt. Diese evidenzbasierte Methode findet erst seit wenigen Jahren verstärkten Einsatz im LIS-Bereich (Library and Information Science). Deshalb führt eine kurze historische Betrachtung in die Methodik ein, gefolgt von dem Bezug zu den Bibliotheks- und Informationswissenschaften. Vor dem Hintergrund der Forschungsfragen werden nach vordefinierten Ein- und Ausschlusskriterien die inkludierten Fachartikel ausgewertet. Die Ausführungen schließen mit der ausführlichen Recherchedokumentation. Ergebnisse: Über den Methodeneinsatz wurden zunächst 170 potenziell relevante Treffer ermittelt. Diese Treffermenge wurde in einem iterativen Suchprozess reduziert, um abschließend 30 dokumentierte Praxisanwendungen in die Auswertung aufzunehmen. Neben der Ermittlung der Einsatzszenarien wurden Abweichungen hinsichtlich der Inhalte des Innovationsportfolios aufgezeigt und diskutiert. Die Anwendungsvielfalt der Design Thinking Methode aufzuzeigen und in diesem Zusammenhang mögliche Herausforderungen aufzudecken, könnte zukünftige Entscheidungsprozesse, in Bezug auf die Methodenauswahl, evidenzbasiert unterstützen und bestenfalls motivierend wirken, der umgebenden Komplexität positiv entgegen zu blicken. Forschungsbeschränkungen: Die Auswahl der Dokumente begrenzte sich auf informationswissenschaftliche Fachartikel und Projektberichte. Die Praxisrelevanz stand im Vordergrund, und so wurde Literatur, die inhaltlich nur über die Design Thinking Methode berichtete, ausgeschlossen. Die Fachartikel wurden in englischer oder deutscher Sprache veröffentlicht und mussten ein Peer-Review-Verfahren durchlaufen haben.
Die vergangene Forschung zeigte, dass Werte und Persönlichkeitseigenschaften von (potentiellen) Arbeitnehmern die wahrgenommene Attraktivität bestimmter Arbeitgebermerkmale wie der Corporate Social Responsibility (CSR) beeinflussen. Weitere Forschung wird hingegen benötigt, um die in diesem Zusammenhang relevanten Persönlichkeitsmerkmale zu identifizieren. Diese Studie zielt darauf ab, die Werte und Persönlichkeitseigenschaften zu ermitteln, welche die unterschiedliche Attraktivität von CSR und weiteren Arbeitgebermerkmalen, die sich nicht auf die CSR beziehen, erklären können. Dazu bewerteten (potentielle) Arbeitnehmer (N = 145) auf zwei eigenentwickelten Skalen sowohl CSR-basierte Faktoren der Arbeitgeberattraktivität (z.B. Wassersparen) als auch Nicht-CSR-basierte Faktoren der Arbeitgeberattraktivität (z.B. erwünschte Unternehmenslage) hinsichtlich ihrer Wichtigkeit. Für die CSR-basierte Arbeitgeberattraktivität konnten unter Kontrolle der Big-Five hypothesenkonform die Wertedimension Selbst-Überwindung, die Persönlichkeitsdimension Communion und die prosoziale Persönlichkeit als Prädiktoren identifiziert werden. Die Wertedimensionen Selbst-Erhöhung und Selbst-Überwindung sowie die Persönlichkeitsdimensionen Agency und Communion leisten – ebenfalls über die Big-Five hinaus – einen bedeutenden Beitrag zur Vorhersage der Nicht-CSR-basierten Arbeitgeberattraktivität.
Die vorliegende Arbeit befasst sich mit der Entwicklung eines Schaltungskonzepts und Labormusters einer externen Beleuchtung für den Einsatz in der Forschung an Time-of-Flight (ToF) Kameras mit Amplitude-Modulated Continuous Wave (AMCW)-Verfahren. Die externe Beleuchtung stellt einen leistungsstarken Repeater der internen Beleuchtung einer ToF Kamera dar und ist in der Lage die von ToF Kameras genutzten hochfrequenten Rechtecksignale zu emittieren.
Da von ToF Kameras in der Regel kein elektrisches Steuersignal (Triggersignal) für den Einsatz einer externen Beleuchtung zur Verfügung gestellt wird, wird dieses aus dem optischen Signal der ToF Kamera gewonnen. Dafür wird ein Konzept für einen optischen Detektor (Trigger) vorgestellt. Dieser setzt sich aus einer Photodiode, einem Transimpedanzverstärker und einer anschließenden Signalaufbereitung zusammen. Außerdem wird gezeigt, wie eine schnelle externe Beleuchtung mit hoher Strahlungsleistung mithilfe eines Metal-Oxid-Semiconductor Field-Effekt-Transistor (MOSFET) und vier Vertical-Cavitiy Surface-Emitting Laser (VCSEL) umgesetzt werden kann. Dafür werden mit der Serien- und Parallelschaltung von MOSFET und VCSEL zwei Schaltungskonzepte vorgestellt. Als Lichtquellen kommen VCSEL mit einer für ToF Kameras typischen Wellenlänge von 940 nm im Nahinfraroten (NIR) zum Einsatz.
Es konnte gezeigt werden, dass mit dem optischen Trigger Signale von bis zu 100 MHz in elektrische Ausgangssignale gewandelt werden können. Außerdem wurden rechteckige Triggersignale mit Anstiegszeiten von 650 ps und Abfallzeiten von 440 ps erzielt. Mit der externen Beleuchtung konnten Signale mit bis zu 100 MHz emittiert werden. Es wurden im Zusammenspiel mit dem optischen Trigger optische Signale mit Anstiegszeiten von 1,5 ns und Abfallzeiten von 960 ps erreicht. Dabei konnten Strahlungsleistungen von knapp 7 W erzielt werden. Das gesamte System aus optischem Trigger und externer Beleuchtung weist eine Latenz von 16 ns auf. Als Ergebnis dieser Arbeit konnte ein System aufgebaut werden, das aufgrund der erzielten Ergebnisse höchstwahrscheinlich als externe Beleuchtung zu Forschungszwecken mit verschiedenen ToF Kameras eingesetzt werden kann. Außerdem besteht die Möglichkeit den optischen Trigger und die Beleuchtung separat zu nutzen.
Grid services will form the base for future computational Grids. Web Services, have been extended to build Grid services. Grid Services are dened in the Open Grid Service Architecture (OGSA). The Globus Alliance has released a Web Service Resource Framework, which is still under development and which is still missing vital parts. One of them is a Concept that allows Grid-Service Requests to securely traverse Firewalls, and its realization. This Thesis aims at the development and realization of a detailed Concept for an Application Level Gateway for Grid services, based on an existing rough concept. This approach should enable a strict division between a local network and the Internet. The internet is considered as a untrusted site and the local network is considered as a trusted site. Grid resources are placed in the internet as well as in the local network. This means that the possibility to communicate through a Firewall is essential. Some further protocols like Grid Resource Allocation and Management (GRAM) and the Grid File Transfer Protocol (GridFTP) must be able to traverse the network borders securely as well, while no further actions must be taken from the user side. The German Federal Oce for Information Security (BSI) proposes a Firewall - Application Level Gateway (ALG) - Firewall solution to the German Aerospace Center (DLR) where this Thesis is written, as a principle approach. In this approach, the local network is divided from the Internet with two rewalls. Between those rewalls is a demilitarized zone (DMZ), where computers may be placed, which can be accessed from the Internet and from the local network. An ALG which is placed in this DMZ should represent the local Grid nodes to the Internet and it should act as a client to the local nodes. All Grid service requests must be directed to the ALG instead of the protected Grid nodes. The ALG then checks and validates the requests on the application level (OSI layer 7). Requests that pose no security threat and fulll certain criteria will then be forwarded to the local Grid nodes. The responses from the local Grid nodes are checked and validated by the ALG as well.
Auf der Suche nach einem CO2-Filtermaterial für niedrige Partialdrücke wurden Aerogel-Beads aus Chitosan analysiert. Da zahlreiche Publikationen und Reviews auf die Fähigkeit von Aminen CO2 zu adsorbieren hinweisen, wurden diese Beads funktionalisiert, um den Amingehalt im Netzwerk und damit die Adsorptionskapazität zu erhöhen. Die Beads wurden mit Hilfe eines JetCutters hergestellt, mit Polyethylenimin (PEI), p-Phenylendiamin (PPD) und 1,2-Epoxyhexan (EH) funktionalisiert und anschließend überkritisch getrocknet. Die Ansätze wurden bei jeweils unterschiedlichen pH-Werten durchgeführt, um Aussagen über den Einfluss von NaOH auf die Reaktion treffen zu können. Alle Proben wurden mit für Aerogele typischen Methoden charakterisiert und auf ihre CO2-Adsorptionskapazität untersucht. Die Adsorptionskapazität der Chitosan Beads konnte durch Aufpfropfen der oben genannten Stoffe nur leicht verbessert werden, während die Funktionalisierung mit PPD dagegen überraschender Weise negative Auswirkungen hatte. Eine Funktionalisierung findet auch in Abwesenheit von NaOH statt.
Grid Infrastrukturen sind heute in der Lage, auch große Datenmengen verteilt zu verarbeiten. Ein Anwendungsgebiet, das davon profitiert, ist das Textmining. Es zeichnet sich vor allem durch die große Anzahl voneinander unabhängiger Teiljobs aus, in die eine Aufgabe zerlegt werden kann. Um die Gesamtlaufzeit bis zur Fertigstellung eines Textmininglaufes für einen großen Datenbestand zu optimieren, ist Load-Balancing unerlässlich. Dafür muss abgeschätzt werden, wie lange eine Ressource für die Lösung eines Teilproblems benötigt. Diese Abschätzungen beruhen auf den Aufzeichnungen vorangegangener Textminingverarbeitungen. Sind darüber noch keine Daten vorhanden, muss die Laufzeitvorhersage anhand der Leistungsfähigkeit der Hardware einer Ressource prognostiziert werden. Wir stellen in dieser Arbeit Methoden vor, mit denen die Laufzeit für Textmining-Applikationen mittels historischer Daten und Hardwareeigenschaften vorhergesagt werden kann. Dabei nutzen wir Methoden der Statistik und des maschinellen Lernens, um eine Prognose zu berechnen. Anschließend wird ein Dienst vorgestellt, der eine Laufzeitvorhersage im Grid anbietet. Er kann auch für andere Anwendungsgebiete als das Textmining eingesetzt werden und ist in der Lage, Informationen über die Laufzeiten von Jobs auf den Ressourcen abzurufen. Dazu nutzt er bereits vorhandene Dienste der Grid-Middleware und kann sich so dynamisch in bestehende Strukturen eingliedern.
Auswirkungen einer anhaltenden, inflationären Geldpolitik in der Eurozone auf den privaten Sparer
(2022)
Die vorliegende Bachelorarbeit setzt sich kritisch mit den Auswirkungen einer anhaltenden, inflationären Geldpolitik in der Eurozone auf den privaten Sparer auseinander. Im Rahmen dieser Arbeit wird aufgezeigt, wie die starke Erhöhung der Geldmenge Einfluss auf die Möglichkeiten und Entscheidungen des Sparers hat und wie weit eine solche Geldpolitik mit den Interessen des Sparers vereinbar ist.
Qualität der Qualitätsprüfung: Testberichte im klassischen und modernen Videospieljournalismus
(2022)
Die Hochzeit des gedruckten Videospieljournalismus um die Jahrtausendwende ist vorüber. Seit über 15 Jahren sind die verkauften Auflagen der klassischen Videospielzeitschriften wie Gamestar oder PC Games rückläufig. Andere Magazine wurden zwischenzeitlich aus wirtschaftlichen Gründen eingestellt, darunter PC Action oder auch der einstige Marktführer Computer Bild Spiele. Trotzdem entwickelte sich eine journalistische Gegenbewegung, die Kieron Gillen im Jahr 2004 in seinem Manifest "The New Games Journalism" begründete. Es entstanden in Deutschland Videospielzeitschriften wie GAIN oder WASD, deren Berichterstattung Videospiele weniger als Produkt, sondern zunehmend als künstlerisches Objekt wahrnehmen und sie in einen gesellschaftlichen und kulturellen Kontext einordnen.
Ungeachtet dessen erfolgt in den Redaktionen eine technische und inhaltliche Sichtung der Videospiele, die dem Publikum als Testbericht präsentiert wird. Da es sich dabei aus historischer Perspektive um den Kerninhalt von Videospielzeitschriften handelt, soll dieser als Analysegegenstand dieser Arbeit dienen und ein Indiz für die Qualität der Magazine als Ganzes sein. Mit Blick auf die unterschiedlichen Entwicklungen im Videospieljournalismus soll folgende Frage beantwortet werden: Verfügen moderne Videospielzeitschriften über eine höhere Qualität als klassische Magazine? Dazu erfolgt eine qualitative Inhaltsanalyse der Testberichte und ein Vergleich mit etablierten Qualitätsmerkmalen aus dem allgemeinen Journalismus, ebenso wie dem Fach-, Nutzwert- und Videospieljournalismus.
Der Befall mit schädlichen Pilzen führt im Weinbau zu Ertragseinbusen sowie zu ökonomischen und ökologischen Belastungen durch den präventiven Einsatz von Fungiziden. Diese könnten durch eine Früherkennung des Befalls verringert werden. Das Projekt vinoLAS® soll die kontaktlose Früherkennung des falschen Mehltaus, einer wichtigen schädlichen Pilzart im Weinbau, ermöglichen. Dabei sollen Methoden der laserinduzierten Fluoreszenzspektroskopie verwendet werden. In dieser Arbeit wird ein Detektionsmodul zur Analyse des laserinduziertem Fluoreszenzlichts in vier spektralen Kanälen entwickelt.
Die Anforderungen an das Detektionsmodul werden festgelegt und die Entwicklung erläutert. Das System lässt sich in einen optischen und elektronischen Aufbau teilen. Das Verhalten des elektronische Aufbaus wird anhand umfangreicher Messungen bestimmt und mit den Anforderungen verglichen. Es wird mit dem optischen Aufbau zu einem Gesamtsystem kombiniert. Mit diesem werden Messungen im vinoLAS® Laboraufbau durchgeführt, welche zur Verifikation mit einer Referenzmessung verglichen werden.
Die Messungen zum elektronischen Aufbau zeigen, dass alle gestellten Anforderungen erfüllt und teilweise übertroffen werden. Das entstandene Gated-Integrator System ist mit einem, deutlich teureren, kommerziellen Gated-Integrator vergleichbar, bietet dabei aber doppelt so viele Kanäle und ein 44% geringeres Rauschen. Mit der Diskussion der Messdaten werden außerdem Ansätze vorgestellt, die eine kostengünstige weiter Verbesserung des elektronischen Systems ermöglichen.
Die Messungen mit dem Gesamtsystem zeigen eine qualitative Übereinstimmung mit der Referenzmessung, es sind jedoch noch quantitative Abweichungen vorhanden, die weiter untersucht werden müssen. Außerdem zeigt sich, dass die Qualität der Messdaten durch eine Schwankung der Laserfrequenz stark eingeschränkt wird. Eine leicht implementierbare und kostengünstige Lösung für dieses Problem wird jedoch vorgestellt.
Nach Umsetzung der beiden Verbesserungsvorschläge kann das System in den vinoLAS® Aufbau integriert werden und so eine kontaktlose Früherkennung von falschem Mehltau in Weinreben ermöglichen.
Nowadays perception is still an up-to-date scienti fic issue on a mobile robot system. This thesis introduces an approach on how to recognize objects, namely numbers, using a digital camera on a Volksbot robot. The robot used in this thesis has been specifi cally designed for the SICK robot day. The development of the vision algorithm was done in two stages: the region of interest detection and the actual number recognition. Diff erent algorithms had been tested and evaluated and the Canny edge detector with contour finding has been proven to be the best choice for the region of interest detection and the Tesseract OCR engine was the best decision for number recognition. To integrate the vision component on an existing robot system, ROS was used. This thesis also discusses the integration of the EPOS motor controller into ROS.
Segmentierung von 3D-Daten
(2011)
Die vorliegende Arbeit wird im Rahmen eines Projektes des Fraunhofer Instituts IAIS erstellt. Hier geht es um die Entwicklung eines neuen 3D-Laserscanners. Basierend auf diesem 3D-Laserscanner soll eine Sicherheits-Anwendung realisiert werden. Für eine Softwarekomponente - die Segmentierung von 3D-Daten - wird der Stand der Forschung untersucht und es werden drei Segmentierungs-Verfahren ausgewählt und implementiert. Der RANSAC-Algorithmus wird zur Detektion von Ebenen eingesetzt. In dieser Arbeit wird er um ein Abbruchkriterium erweitert, welches die Gesamtlaufzeit bei der Segmentierung von mehreren Ebenen verringert.
In der vorliegenden Arbeit wurde Kraft-Lignin als Makromonomer für die Synthese von thermoplastischen Polyurethanen mit hoher molarer Masse durch acide Präzipitation aus Schwarzlauge isoliert. Die Charakterisierung des Rohstoffes bezüglich seiner Ausgangsmolmasse erfolgte mittels Gel-Permeations-Chromatographie mit Polystyren-Polymerstandard, welche sich als sehr hilfreiche Analysemethode erwies. Da das Kraft-Lignin die klassische Polyolkomponente bei der Synthese von Polyurethanen ersetzen sollte, war es notwendig, den Hydroxylgehalt des Kraft-Lignins zu bestimmen. Für diesen Zweck wurde eine bereits etablierte Prozedur zur nasschemischen Bestimmung des Hydroxylgehaltes von Polyolen für die Synthese von Polyurethanen einer Adaption unterzogen. Es wurde die Reaktionsdauer bei der Acetylierung des Kraft-Lignins variiert. Das Ergebnis war, dass die Messgenauigkeit durch eine Erhöhung der Reaktionsdauer von 1 h auf 3 h drastisch von 25,5 % auf 3,6 % reduziert werden konnte. Um abschätzen zu können, ob die erzielte Messgenauigkeit im Rahmen einer nasschemischen Prozedur mit manueller Titration liegt, wurden zusätzlich die Hydroxylgehalte von Ethandiol und Saccharose bestimmt. Diese dienten als Referenzsubstanz mit definierten und bekannten Hydroxylgehalten. Die Ermittlung der Hydroxylgehalte mit diesen Substanzen ergab für Ethandiol eine Messgenauigkeit von 2,2 % und für Saccharose eine Messgenauigkeit von 1,4 %. Eine Messgenauigkeit von 3,6 % ist in Anbetracht des Zeitaufwandes akzeptabel.
Für die Synthese von thermoplastischen Polyurethanen wurde Kraft-Lignin mit Methylendiphenyldiisocyanat in Dimethylacetamid mit Zinnoktoat als Katalysator zur Reaktion gebracht. Es wurde das NCO/OH-Verhältnis und die Reaktionsdauer variiert. Die Analyse der synthetisierten Polyurethane erfolgte mittels Ubbelohde-Kapillarviskosimetrie, Fourier-Transformations-Infrarotspektroskopie und Schmelzpunktbestimmung. Die FTIR-Spektren bestätigte eine erfolgreiche Synthese von Polyurethanen aus Kraft-Lignin und Methylendiphenyldiisocyanat und zeigte, dass die Variation des NCO/OH-Verhältnisses und der Reaktionsdauer keinerlei Einflüsse auf die chemische Grundstruktur des Polyurethans hat. Die Ubbelohde-Kapillarviskosimetrie belegte die thermoplastischen Eigenschaften des synthetisierten Polyurethans, die sich in einem thermoplastischen Nassprozess verarbeiten lassen. Sie zeigte auch die Abhängigkeit der Molmasse der synthetisierten Polyurethane von der Reaktionsdauer und vom NCO/OH-Verhältnis. So steigt die Molmasse des Polyurethans mit steigender Reaktionsdauer und sinkendem NCO/OH-Verhältnis. Letztere Beobachtung ist sogar praktisch hinsichtlich der gesundheitsgefährdenden Eigenschaft von Isocyanaten, da so der Einsatz von Isocyanaten reduziert werden kann. Um die schmelzflüssige Verarbeitbarkeit des synthetisierten Polyurethans zu untersuchen, wurden die Schmelzpunkte der Polymere bestimmt. Es konnte in einem Temperaturbereich von 25 °C-410 °C keine Aggregatzustandsänderung, sondern lediglich eine Zersetzungsreaktion beobachtet werden.
Sexuelle Belästigung am Arbeitsplatz ist ein tiefgreifendes Thema, welches den (Arbeits-)Alltag vieler Menschen massiv beeinträchtigt. Trotz vieler Studien und der juristischen Grundlage, die die Relevanz der Thematik hervorheben, findet es in Unternehmen und im öffentlichen Diskurs noch zu wenig Aufmerksamkeit. In der vorliegenden Studie wird deshalb untersucht, inwiefern das Allgemeine Gleichbehandlungsgesetz (AGG) Anwendung in der Praxis findet und was konkrete Verbesserungspotenziale von Unternehmen hinsichtlich des Umgangs mit sexueller Belästigung sind. Im Rahmen einer qualitativen Untersuchung werden Expert*inneninterviews geführt, die anschließend nach der Inhaltsanalyse nach Mayring, in Form einer Zusammenfassung, ausgewertet werden. Der Themenschwerpunkt wird hierbei auf die subjektiven Erfahrungen der Befragten gelegt. Die Ergebnisse dieser Arbeit unterstreichen, dass es sich bei sexueller Belästigung nach wie vor um ein Tabuthema handelt, obwohl es nachweislich sowohl auf die Beschäftigten als auch auf das Unternehmen negative Auswirkungen hat. Da das AGG in den wenigsten Unternehmen Anwendung findet, wird es von einem Großteil der Arbeitnehmenden nicht als Schutz vor sexueller Belästigung wahrgenommen. Maßnahmen, die existieren sind entweder dysfunktional oder werden nicht ausreichend bekannt gemacht. Die Auswertung zeigt vor allem, dass Unternehmen in Zukunft ein Unternehmensklima etablieren müssen, in dem eine Nulltoleranz-Haltung gegenüber Diskriminierung herrscht. Ganzheitliche Präventions- und Interventionskonzepte sollten unter anderem die Schaffung von transparenten Anlaufstellen, klare Richtlinien und Konzepte zur präventiven Aufklärungsarbeit enthalten. Hierbei sollten vor allem marginalisierte Gruppen berücksichtigt werden. Wenn Unternehmen ihre im AGG festgehaltenen Pflichten in Zukunft wahrnehmen und entsprechende Maßnahmen ergreifen, kann eine Enttabuisierung des Themas angestoßen werden. Neben der Stärkung der Betroffenen, kann dies letztendlich zu einem Rückgang der Übergriffe führen.
Diese Arbeit soll sich mit dem Erstellen von High Dynamic Range Images beschäftigen und damit, es den Fotografen ein wenig leichter zu machen. Ein Algorithmus zum Entfernen von Bildartefakten wird ausgewählt und parallel unter Nutzung der NVIDIA CUDA API implementiert. Der dadurch erzielte Geschwindigkeitszuwachs macht dieses Verfahren tauglich für den Einsatz in Bildbearbeitungsprogrammen.
Ein wichtiges Themengebiet der Forschung ist die Beschleunigung von Berechnungen mittels Parallelisierung von Algorithmen. Grafikprozessoren, die für den General Purpose Computation on GPU’s (GPGPU) Betrieb geeignet sind, bieten eine aktuelle Möglichkeit der Parallelisierung. Anhand dieser Grafikkarten ist es möglich, die hohe Leistung der Grafikprozessoren zur Berechnung wissenschaftlicher Aufgabenstellungen zu nutzen. In dieser Arbeit wird ein Algorithmus zur Ausrichtung von Belichtungsreihen, die bei der High-Dynamic-Range (HDR) Fotografie genutzt werden, ausgewählt und auf der Grafikkartenarchitektur von NVIDIA parallelisiert.
Um eine Software fertigzustellen und dem Endkunden zu übergeben muss zunächst der Entwicklungsprozess durchschritten werden. Das zügige Durchlaufen dieses Entwicklungsprozesses ist besonders für den Endkunden von entscheidender Bedeutung, da die Wartezeit auf das Softwareprodukt für ihn reduziert wird. Problematisch könnte beispielsweise dabei ein modulares Vorgehen werden, wenn zunächst alle einzelnen Teilkomponenten eines Softwareproduktes entwickelt und diese daraufhin in einer anschließenden Phase, auch Integrationsphase genannt, zusammengefügt würden. Die Länge dieser Integrationsphase kann nur schwer vorausgesagt werden, so dass weder das Entwicklerteam noch der Endkunde wissen, wie lang die Fertigstellung des Produktes dauern wird. Dabei entsteht ein weiterer Nachteil. Da die Komponenten separat voneinander entwickelt werden, könnte es passieren, dass diese beim finalen Zusammenfügen nicht kompatibel sein und müssten, falls notwendig, angepasst werden. Die Folge wäre eine Verschwendung von personellen und somit auch finanziellen Ressourcen seitens des entwickelnden Unternehmens.
Im Rahmen der Arbeit wurde Kraft-Lignin mit Natriumsulfit demethyliert, um den Gehalt an aromatischen Hydroxygruppen zu erhöhen und damit die Reaktivität des Lignins in Bezug auf Polyurethan-Synthesen zu erhöhen. Variiert wurden die Demethylierungstemperatur (72°C, 90°C) sowie der pH-Wert zur Isolierung des Kraft-Lignins (pH 2, 3, 4 und 5). Die Analyse der demethylierten Proben erfolgte mittels differentieller UV-Spektroskopie und der OH-Gehaltbestimmung via automatischer Titration (angelehnt an ISO 14900:2001(E)). Weitere Untersuchungen umfassten Löslichkeitstests sowie Strukturanalysen via FTIR- und UV/Vis-Spektroskopie.
Robots integrated into a social environment with humans need the ability to locate persons in their surrounding area. This is also the case for the WelcomeBot which is developed at the Fraunhofer Institute IAIS. In the future, the robot should follow persons in the buildings and guide them to certain areas. Therefore, it needs the capability to detect and track a person in the environment. In this master thesis, an approach for fast and reliable tracking of a person via a mobile robotic platform is presented. Based on the investigation of different methods and sensors, a laser scanner and a camera are selected as the primary two sensors.
Intelligente Dialogsysteme – Chatbots – werden immer häufiger als virtuelle Ansprechpartner von Unternehmen und Institutionen eingesetzt. Auf Basis einer Wissensdatenbank können Chatbots einen größeren Anteil von Kundenanfragen automatisiert beantworten. Analog ist der Einsatz von Chatbots als digitaler Ansprechpartner öffentlicher Verwaltungen denkbar. Sie könnten Bürgern helfen, sich innerhalb der behördlichen Strukturen zu orientieren und Verwaltungsleistungen effizient und effektiv in Anspruch zu nehmen.
Diese Arbeit überprüft den Einsatz eines Chatbots in der öffentlichen Verwaltung hinsichtlich der entstehenden Kosten und des erwartbaren Nutzens. Auf Basis einer umfangreichen Literaturauswertung und der prototypischen Realisierung eines Chatbots für ein Stadtportal werden dabei Herausforderungen dieser Anwendungsdomäne herausgearbeitet, konkrete Funktionsweise und Implementierungsstrategien von Chatbots erörtert und einige Erfolgsfaktoren formuliert, die den Kern einer Handlungsempfehlung für Entscheidungsträger öffentlicher Verwaltungen bilden.