Refine
H-BRS Bibliography
- yes (37) (remove)
Departments, institutes and facilities
Document Type
- Bachelor Thesis (37) (remove)
Year of publication
Language
- German (37) (remove)
Keywords
- Lignin (2)
- 3D Crosstalk (1)
- 3D Display (1)
- 3D crosstalk (1)
- 3D display (1)
- 3D-Kartierung (1)
- 3D-Laserscanner (1)
- 3D-Lokalisierung (1)
- 3D-Punktwolke (1)
- Al2O3 (1)
Intelligente Dialogsysteme – Chatbots – werden immer häufiger als virtuelle Ansprechpartner von Unternehmen und Institutionen eingesetzt. Auf Basis einer Wissensdatenbank können Chatbots einen größeren Anteil von Kundenanfragen automatisiert beantworten. Analog ist der Einsatz von Chatbots als digitaler Ansprechpartner öffentlicher Verwaltungen denkbar. Sie könnten Bürgern helfen, sich innerhalb der behördlichen Strukturen zu orientieren und Verwaltungsleistungen effizient und effektiv in Anspruch zu nehmen.
Diese Arbeit überprüft den Einsatz eines Chatbots in der öffentlichen Verwaltung hinsichtlich der entstehenden Kosten und des erwartbaren Nutzens. Auf Basis einer umfangreichen Literaturauswertung und der prototypischen Realisierung eines Chatbots für ein Stadtportal werden dabei Herausforderungen dieser Anwendungsdomäne herausgearbeitet, konkrete Funktionsweise und Implementierungsstrategien von Chatbots erörtert und einige Erfolgsfaktoren formuliert, die den Kern einer Handlungsempfehlung für Entscheidungsträger öffentlicher Verwaltungen bilden.
Im Rahmen der Arbeit wurde Kraft-Lignin mit Natriumsulfit demethyliert, um den Gehalt an aromatischen Hydroxygruppen zu erhöhen und damit die Reaktivität des Lignins in Bezug auf Polyurethan-Synthesen zu erhöhen. Variiert wurden die Demethylierungstemperatur (72°C, 90°C) sowie der pH-Wert zur Isolierung des Kraft-Lignins (pH 2, 3, 4 und 5). Die Analyse der demethylierten Proben erfolgte mittels differentieller UV-Spektroskopie und der OH-Gehaltbestimmung via automatischer Titration (angelehnt an ISO 14900:2001(E)). Weitere Untersuchungen umfassten Löslichkeitstests sowie Strukturanalysen via FTIR- und UV/Vis-Spektroskopie.
Um eine Software fertigzustellen und dem Endkunden zu übergeben muss zunächst der Entwicklungsprozess durchschritten werden. Das zügige Durchlaufen dieses Entwicklungsprozesses ist besonders für den Endkunden von entscheidender Bedeutung, da die Wartezeit auf das Softwareprodukt für ihn reduziert wird. Problematisch könnte beispielsweise dabei ein modulares Vorgehen werden, wenn zunächst alle einzelnen Teilkomponenten eines Softwareproduktes entwickelt und diese daraufhin in einer anschließenden Phase, auch Integrationsphase genannt, zusammengefügt würden. Die Länge dieser Integrationsphase kann nur schwer vorausgesagt werden, so dass weder das Entwicklerteam noch der Endkunde wissen, wie lang die Fertigstellung des Produktes dauern wird. Dabei entsteht ein weiterer Nachteil. Da die Komponenten separat voneinander entwickelt werden, könnte es passieren, dass diese beim finalen Zusammenfügen nicht kompatibel sein und müssten, falls notwendig, angepasst werden. Die Folge wäre eine Verschwendung von personellen und somit auch finanziellen Ressourcen seitens des entwickelnden Unternehmens.
Ein wichtiges Themengebiet der Forschung ist die Beschleunigung von Berechnungen mittels Parallelisierung von Algorithmen. Grafikprozessoren, die für den General Purpose Computation on GPU’s (GPGPU) Betrieb geeignet sind, bieten eine aktuelle Möglichkeit der Parallelisierung. Anhand dieser Grafikkarten ist es möglich, die hohe Leistung der Grafikprozessoren zur Berechnung wissenschaftlicher Aufgabenstellungen zu nutzen. In dieser Arbeit wird ein Algorithmus zur Ausrichtung von Belichtungsreihen, die bei der High-Dynamic-Range (HDR) Fotografie genutzt werden, ausgewählt und auf der Grafikkartenarchitektur von NVIDIA parallelisiert.
Diese Arbeit soll sich mit dem Erstellen von High Dynamic Range Images beschäftigen und damit, es den Fotografen ein wenig leichter zu machen. Ein Algorithmus zum Entfernen von Bildartefakten wird ausgewählt und parallel unter Nutzung der NVIDIA CUDA API implementiert. Der dadurch erzielte Geschwindigkeitszuwachs macht dieses Verfahren tauglich für den Einsatz in Bildbearbeitungsprogrammen.
Sexuelle Belästigung am Arbeitsplatz ist ein tiefgreifendes Thema, welches den (Arbeits-)Alltag vieler Menschen massiv beeinträchtigt. Trotz vieler Studien und der juristischen Grundlage, die die Relevanz der Thematik hervorheben, findet es in Unternehmen und im öffentlichen Diskurs noch zu wenig Aufmerksamkeit. In der vorliegenden Studie wird deshalb untersucht, inwiefern das Allgemeine Gleichbehandlungsgesetz (AGG) Anwendung in der Praxis findet und was konkrete Verbesserungspotenziale von Unternehmen hinsichtlich des Umgangs mit sexueller Belästigung sind. Im Rahmen einer qualitativen Untersuchung werden Expert*inneninterviews geführt, die anschließend nach der Inhaltsanalyse nach Mayring, in Form einer Zusammenfassung, ausgewertet werden. Der Themenschwerpunkt wird hierbei auf die subjektiven Erfahrungen der Befragten gelegt. Die Ergebnisse dieser Arbeit unterstreichen, dass es sich bei sexueller Belästigung nach wie vor um ein Tabuthema handelt, obwohl es nachweislich sowohl auf die Beschäftigten als auch auf das Unternehmen negative Auswirkungen hat. Da das AGG in den wenigsten Unternehmen Anwendung findet, wird es von einem Großteil der Arbeitnehmenden nicht als Schutz vor sexueller Belästigung wahrgenommen. Maßnahmen, die existieren sind entweder dysfunktional oder werden nicht ausreichend bekannt gemacht. Die Auswertung zeigt vor allem, dass Unternehmen in Zukunft ein Unternehmensklima etablieren müssen, in dem eine Nulltoleranz-Haltung gegenüber Diskriminierung herrscht. Ganzheitliche Präventions- und Interventionskonzepte sollten unter anderem die Schaffung von transparenten Anlaufstellen, klare Richtlinien und Konzepte zur präventiven Aufklärungsarbeit enthalten. Hierbei sollten vor allem marginalisierte Gruppen berücksichtigt werden. Wenn Unternehmen ihre im AGG festgehaltenen Pflichten in Zukunft wahrnehmen und entsprechende Maßnahmen ergreifen, kann eine Enttabuisierung des Themas angestoßen werden. Neben der Stärkung der Betroffenen, kann dies letztendlich zu einem Rückgang der Übergriffe führen.
In der vorliegenden Arbeit wurde Kraft-Lignin als Makromonomer für die Synthese von thermoplastischen Polyurethanen mit hoher molarer Masse durch acide Präzipitation aus Schwarzlauge isoliert. Die Charakterisierung des Rohstoffes bezüglich seiner Ausgangsmolmasse erfolgte mittels Gel-Permeations-Chromatographie mit Polystyren-Polymerstandard, welche sich als sehr hilfreiche Analysemethode erwies. Da das Kraft-Lignin die klassische Polyolkomponente bei der Synthese von Polyurethanen ersetzen sollte, war es notwendig, den Hydroxylgehalt des Kraft-Lignins zu bestimmen. Für diesen Zweck wurde eine bereits etablierte Prozedur zur nasschemischen Bestimmung des Hydroxylgehaltes von Polyolen für die Synthese von Polyurethanen einer Adaption unterzogen. Es wurde die Reaktionsdauer bei der Acetylierung des Kraft-Lignins variiert. Das Ergebnis war, dass die Messgenauigkeit durch eine Erhöhung der Reaktionsdauer von 1 h auf 3 h drastisch von 25,5 % auf 3,6 % reduziert werden konnte. Um abschätzen zu können, ob die erzielte Messgenauigkeit im Rahmen einer nasschemischen Prozedur mit manueller Titration liegt, wurden zusätzlich die Hydroxylgehalte von Ethandiol und Saccharose bestimmt. Diese dienten als Referenzsubstanz mit definierten und bekannten Hydroxylgehalten. Die Ermittlung der Hydroxylgehalte mit diesen Substanzen ergab für Ethandiol eine Messgenauigkeit von 2,2 % und für Saccharose eine Messgenauigkeit von 1,4 %. Eine Messgenauigkeit von 3,6 % ist in Anbetracht des Zeitaufwandes akzeptabel.
Für die Synthese von thermoplastischen Polyurethanen wurde Kraft-Lignin mit Methylendiphenyldiisocyanat in Dimethylacetamid mit Zinnoktoat als Katalysator zur Reaktion gebracht. Es wurde das NCO/OH-Verhältnis und die Reaktionsdauer variiert. Die Analyse der synthetisierten Polyurethane erfolgte mittels Ubbelohde-Kapillarviskosimetrie, Fourier-Transformations-Infrarotspektroskopie und Schmelzpunktbestimmung. Die FTIR-Spektren bestätigte eine erfolgreiche Synthese von Polyurethanen aus Kraft-Lignin und Methylendiphenyldiisocyanat und zeigte, dass die Variation des NCO/OH-Verhältnisses und der Reaktionsdauer keinerlei Einflüsse auf die chemische Grundstruktur des Polyurethans hat. Die Ubbelohde-Kapillarviskosimetrie belegte die thermoplastischen Eigenschaften des synthetisierten Polyurethans, die sich in einem thermoplastischen Nassprozess verarbeiten lassen. Sie zeigte auch die Abhängigkeit der Molmasse der synthetisierten Polyurethane von der Reaktionsdauer und vom NCO/OH-Verhältnis. So steigt die Molmasse des Polyurethans mit steigender Reaktionsdauer und sinkendem NCO/OH-Verhältnis. Letztere Beobachtung ist sogar praktisch hinsichtlich der gesundheitsgefährdenden Eigenschaft von Isocyanaten, da so der Einsatz von Isocyanaten reduziert werden kann. Um die schmelzflüssige Verarbeitbarkeit des synthetisierten Polyurethans zu untersuchen, wurden die Schmelzpunkte der Polymere bestimmt. Es konnte in einem Temperaturbereich von 25 °C-410 °C keine Aggregatzustandsänderung, sondern lediglich eine Zersetzungsreaktion beobachtet werden.
Segmentierung von 3D-Daten
(2011)
Die vorliegende Arbeit wird im Rahmen eines Projektes des Fraunhofer Instituts IAIS erstellt. Hier geht es um die Entwicklung eines neuen 3D-Laserscanners. Basierend auf diesem 3D-Laserscanner soll eine Sicherheits-Anwendung realisiert werden. Für eine Softwarekomponente - die Segmentierung von 3D-Daten - wird der Stand der Forschung untersucht und es werden drei Segmentierungs-Verfahren ausgewählt und implementiert. Der RANSAC-Algorithmus wird zur Detektion von Ebenen eingesetzt. In dieser Arbeit wird er um ein Abbruchkriterium erweitert, welches die Gesamtlaufzeit bei der Segmentierung von mehreren Ebenen verringert.
Der Befall mit schädlichen Pilzen führt im Weinbau zu Ertragseinbusen sowie zu ökonomischen und ökologischen Belastungen durch den präventiven Einsatz von Fungiziden. Diese könnten durch eine Früherkennung des Befalls verringert werden. Das Projekt vinoLAS® soll die kontaktlose Früherkennung des falschen Mehltaus, einer wichtigen schädlichen Pilzart im Weinbau, ermöglichen. Dabei sollen Methoden der laserinduzierten Fluoreszenzspektroskopie verwendet werden. In dieser Arbeit wird ein Detektionsmodul zur Analyse des laserinduziertem Fluoreszenzlichts in vier spektralen Kanälen entwickelt.
Die Anforderungen an das Detektionsmodul werden festgelegt und die Entwicklung erläutert. Das System lässt sich in einen optischen und elektronischen Aufbau teilen. Das Verhalten des elektronische Aufbaus wird anhand umfangreicher Messungen bestimmt und mit den Anforderungen verglichen. Es wird mit dem optischen Aufbau zu einem Gesamtsystem kombiniert. Mit diesem werden Messungen im vinoLAS® Laboraufbau durchgeführt, welche zur Verifikation mit einer Referenzmessung verglichen werden.
Die Messungen zum elektronischen Aufbau zeigen, dass alle gestellten Anforderungen erfüllt und teilweise übertroffen werden. Das entstandene Gated-Integrator System ist mit einem, deutlich teureren, kommerziellen Gated-Integrator vergleichbar, bietet dabei aber doppelt so viele Kanäle und ein 44% geringeres Rauschen. Mit der Diskussion der Messdaten werden außerdem Ansätze vorgestellt, die eine kostengünstige weiter Verbesserung des elektronischen Systems ermöglichen.
Die Messungen mit dem Gesamtsystem zeigen eine qualitative Übereinstimmung mit der Referenzmessung, es sind jedoch noch quantitative Abweichungen vorhanden, die weiter untersucht werden müssen. Außerdem zeigt sich, dass die Qualität der Messdaten durch eine Schwankung der Laserfrequenz stark eingeschränkt wird. Eine leicht implementierbare und kostengünstige Lösung für dieses Problem wird jedoch vorgestellt.
Nach Umsetzung der beiden Verbesserungsvorschläge kann das System in den vinoLAS® Aufbau integriert werden und so eine kontaktlose Früherkennung von falschem Mehltau in Weinreben ermöglichen.
Qualität der Qualitätsprüfung: Testberichte im klassischen und modernen Videospieljournalismus
(2022)
Die Hochzeit des gedruckten Videospieljournalismus um die Jahrtausendwende ist vorüber. Seit über 15 Jahren sind die verkauften Auflagen der klassischen Videospielzeitschriften wie Gamestar oder PC Games rückläufig. Andere Magazine wurden zwischenzeitlich aus wirtschaftlichen Gründen eingestellt, darunter PC Action oder auch der einstige Marktführer Computer Bild Spiele. Trotzdem entwickelte sich eine journalistische Gegenbewegung, die Kieron Gillen im Jahr 2004 in seinem Manifest "The New Games Journalism" begründete. Es entstanden in Deutschland Videospielzeitschriften wie GAIN oder WASD, deren Berichterstattung Videospiele weniger als Produkt, sondern zunehmend als künstlerisches Objekt wahrnehmen und sie in einen gesellschaftlichen und kulturellen Kontext einordnen.
Ungeachtet dessen erfolgt in den Redaktionen eine technische und inhaltliche Sichtung der Videospiele, die dem Publikum als Testbericht präsentiert wird. Da es sich dabei aus historischer Perspektive um den Kerninhalt von Videospielzeitschriften handelt, soll dieser als Analysegegenstand dieser Arbeit dienen und ein Indiz für die Qualität der Magazine als Ganzes sein. Mit Blick auf die unterschiedlichen Entwicklungen im Videospieljournalismus soll folgende Frage beantwortet werden: Verfügen moderne Videospielzeitschriften über eine höhere Qualität als klassische Magazine? Dazu erfolgt eine qualitative Inhaltsanalyse der Testberichte und ein Vergleich mit etablierten Qualitätsmerkmalen aus dem allgemeinen Journalismus, ebenso wie dem Fach-, Nutzwert- und Videospieljournalismus.
Auswirkungen einer anhaltenden, inflationären Geldpolitik in der Eurozone auf den privaten Sparer
(2022)
Die vorliegende Bachelorarbeit setzt sich kritisch mit den Auswirkungen einer anhaltenden, inflationären Geldpolitik in der Eurozone auf den privaten Sparer auseinander. Im Rahmen dieser Arbeit wird aufgezeigt, wie die starke Erhöhung der Geldmenge Einfluss auf die Möglichkeiten und Entscheidungen des Sparers hat und wie weit eine solche Geldpolitik mit den Interessen des Sparers vereinbar ist.
Grid Infrastrukturen sind heute in der Lage, auch große Datenmengen verteilt zu verarbeiten. Ein Anwendungsgebiet, das davon profitiert, ist das Textmining. Es zeichnet sich vor allem durch die große Anzahl voneinander unabhängiger Teiljobs aus, in die eine Aufgabe zerlegt werden kann. Um die Gesamtlaufzeit bis zur Fertigstellung eines Textmininglaufes für einen großen Datenbestand zu optimieren, ist Load-Balancing unerlässlich. Dafür muss abgeschätzt werden, wie lange eine Ressource für die Lösung eines Teilproblems benötigt. Diese Abschätzungen beruhen auf den Aufzeichnungen vorangegangener Textminingverarbeitungen. Sind darüber noch keine Daten vorhanden, muss die Laufzeitvorhersage anhand der Leistungsfähigkeit der Hardware einer Ressource prognostiziert werden. Wir stellen in dieser Arbeit Methoden vor, mit denen die Laufzeit für Textmining-Applikationen mittels historischer Daten und Hardwareeigenschaften vorhergesagt werden kann. Dabei nutzen wir Methoden der Statistik und des maschinellen Lernens, um eine Prognose zu berechnen. Anschließend wird ein Dienst vorgestellt, der eine Laufzeitvorhersage im Grid anbietet. Er kann auch für andere Anwendungsgebiete als das Textmining eingesetzt werden und ist in der Lage, Informationen über die Laufzeiten von Jobs auf den Ressourcen abzurufen. Dazu nutzt er bereits vorhandene Dienste der Grid-Middleware und kann sich so dynamisch in bestehende Strukturen eingliedern.
Auf der Suche nach einem CO2-Filtermaterial für niedrige Partialdrücke wurden Aerogel-Beads aus Chitosan analysiert. Da zahlreiche Publikationen und Reviews auf die Fähigkeit von Aminen CO2 zu adsorbieren hinweisen, wurden diese Beads funktionalisiert, um den Amingehalt im Netzwerk und damit die Adsorptionskapazität zu erhöhen. Die Beads wurden mit Hilfe eines JetCutters hergestellt, mit Polyethylenimin (PEI), p-Phenylendiamin (PPD) und 1,2-Epoxyhexan (EH) funktionalisiert und anschließend überkritisch getrocknet. Die Ansätze wurden bei jeweils unterschiedlichen pH-Werten durchgeführt, um Aussagen über den Einfluss von NaOH auf die Reaktion treffen zu können. Alle Proben wurden mit für Aerogele typischen Methoden charakterisiert und auf ihre CO2-Adsorptionskapazität untersucht. Die Adsorptionskapazität der Chitosan Beads konnte durch Aufpfropfen der oben genannten Stoffe nur leicht verbessert werden, während die Funktionalisierung mit PPD dagegen überraschender Weise negative Auswirkungen hatte. Eine Funktionalisierung findet auch in Abwesenheit von NaOH statt.
Die vorliegende Arbeit befasst sich mit der Entwicklung eines Schaltungskonzepts und Labormusters einer externen Beleuchtung für den Einsatz in der Forschung an Time-of-Flight (ToF) Kameras mit Amplitude-Modulated Continuous Wave (AMCW)-Verfahren. Die externe Beleuchtung stellt einen leistungsstarken Repeater der internen Beleuchtung einer ToF Kamera dar und ist in der Lage die von ToF Kameras genutzten hochfrequenten Rechtecksignale zu emittieren.
Da von ToF Kameras in der Regel kein elektrisches Steuersignal (Triggersignal) für den Einsatz einer externen Beleuchtung zur Verfügung gestellt wird, wird dieses aus dem optischen Signal der ToF Kamera gewonnen. Dafür wird ein Konzept für einen optischen Detektor (Trigger) vorgestellt. Dieser setzt sich aus einer Photodiode, einem Transimpedanzverstärker und einer anschließenden Signalaufbereitung zusammen. Außerdem wird gezeigt, wie eine schnelle externe Beleuchtung mit hoher Strahlungsleistung mithilfe eines Metal-Oxid-Semiconductor Field-Effekt-Transistor (MOSFET) und vier Vertical-Cavitiy Surface-Emitting Laser (VCSEL) umgesetzt werden kann. Dafür werden mit der Serien- und Parallelschaltung von MOSFET und VCSEL zwei Schaltungskonzepte vorgestellt. Als Lichtquellen kommen VCSEL mit einer für ToF Kameras typischen Wellenlänge von 940 nm im Nahinfraroten (NIR) zum Einsatz.
Es konnte gezeigt werden, dass mit dem optischen Trigger Signale von bis zu 100 MHz in elektrische Ausgangssignale gewandelt werden können. Außerdem wurden rechteckige Triggersignale mit Anstiegszeiten von 650 ps und Abfallzeiten von 440 ps erzielt. Mit der externen Beleuchtung konnten Signale mit bis zu 100 MHz emittiert werden. Es wurden im Zusammenspiel mit dem optischen Trigger optische Signale mit Anstiegszeiten von 1,5 ns und Abfallzeiten von 960 ps erreicht. Dabei konnten Strahlungsleistungen von knapp 7 W erzielt werden. Das gesamte System aus optischem Trigger und externer Beleuchtung weist eine Latenz von 16 ns auf. Als Ergebnis dieser Arbeit konnte ein System aufgebaut werden, das aufgrund der erzielten Ergebnisse höchstwahrscheinlich als externe Beleuchtung zu Forschungszwecken mit verschiedenen ToF Kameras eingesetzt werden kann. Außerdem besteht die Möglichkeit den optischen Trigger und die Beleuchtung separat zu nutzen.
Die vergangene Forschung zeigte, dass Werte und Persönlichkeitseigenschaften von (potentiellen) Arbeitnehmern die wahrgenommene Attraktivität bestimmter Arbeitgebermerkmale wie der Corporate Social Responsibility (CSR) beeinflussen. Weitere Forschung wird hingegen benötigt, um die in diesem Zusammenhang relevanten Persönlichkeitsmerkmale zu identifizieren. Diese Studie zielt darauf ab, die Werte und Persönlichkeitseigenschaften zu ermitteln, welche die unterschiedliche Attraktivität von CSR und weiteren Arbeitgebermerkmalen, die sich nicht auf die CSR beziehen, erklären können. Dazu bewerteten (potentielle) Arbeitnehmer (N = 145) auf zwei eigenentwickelten Skalen sowohl CSR-basierte Faktoren der Arbeitgeberattraktivität (z.B. Wassersparen) als auch Nicht-CSR-basierte Faktoren der Arbeitgeberattraktivität (z.B. erwünschte Unternehmenslage) hinsichtlich ihrer Wichtigkeit. Für die CSR-basierte Arbeitgeberattraktivität konnten unter Kontrolle der Big-Five hypothesenkonform die Wertedimension Selbst-Überwindung, die Persönlichkeitsdimension Communion und die prosoziale Persönlichkeit als Prädiktoren identifiziert werden. Die Wertedimensionen Selbst-Erhöhung und Selbst-Überwindung sowie die Persönlichkeitsdimensionen Agency und Communion leisten – ebenfalls über die Big-Five hinaus – einen bedeutenden Beitrag zur Vorhersage der Nicht-CSR-basierten Arbeitgeberattraktivität.
Ziel: Diese Arbeit ermittelt die Einsatzszenarien der Design Thinking Methode in Informationseinrichtungen. Diesbezüglich wird der aktuelle Wandlungsprozess in Bibliotheken berücksichtig und danach gefragt, ob Divergenzen zwischen den ermittelten Handlungsfeldern und den aufgezeigten Anwendungsbeispielen bestehen. Darüber hinaus soll aufgezeigt werden, ob der Einsatz der Design Thinking Methode in Informationseinrichtungen zielführend ist. Der Gegenstand der Arbeit ist demnach die Evaluation des Methodeneinsatzes. Methode: Im Rahmen dieser Arbeit wurde die Methode des Systematic Review angewandt. Diese evidenzbasierte Methode findet erst seit wenigen Jahren verstärkten Einsatz im LIS-Bereich (Library and Information Science). Deshalb führt eine kurze historische Betrachtung in die Methodik ein, gefolgt von dem Bezug zu den Bibliotheks- und Informationswissenschaften. Vor dem Hintergrund der Forschungsfragen werden nach vordefinierten Ein- und Ausschlusskriterien die inkludierten Fachartikel ausgewertet. Die Ausführungen schließen mit der ausführlichen Recherchedokumentation. Ergebnisse: Über den Methodeneinsatz wurden zunächst 170 potenziell relevante Treffer ermittelt. Diese Treffermenge wurde in einem iterativen Suchprozess reduziert, um abschließend 30 dokumentierte Praxisanwendungen in die Auswertung aufzunehmen. Neben der Ermittlung der Einsatzszenarien wurden Abweichungen hinsichtlich der Inhalte des Innovationsportfolios aufgezeigt und diskutiert. Die Anwendungsvielfalt der Design Thinking Methode aufzuzeigen und in diesem Zusammenhang mögliche Herausforderungen aufzudecken, könnte zukünftige Entscheidungsprozesse, in Bezug auf die Methodenauswahl, evidenzbasiert unterstützen und bestenfalls motivierend wirken, der umgebenden Komplexität positiv entgegen zu blicken. Forschungsbeschränkungen: Die Auswahl der Dokumente begrenzte sich auf informationswissenschaftliche Fachartikel und Projektberichte. Die Praxisrelevanz stand im Vordergrund, und so wurde Literatur, die inhaltlich nur über die Design Thinking Methode berichtete, ausgeschlossen. Die Fachartikel wurden in englischer oder deutscher Sprache veröffentlicht und mussten ein Peer-Review-Verfahren durchlaufen haben.
The aim of this thesis is to investigate and optimize the camera system which is used for Filtered Rayleigh Scattering (FRS) measurement systems. Theoretical considerations about the integration of interference filters explain state-of-the-art accuracy limitations. Based on that promising modifications of the established FRS system are presented: test results indicate that frequency fringes - artifacts distorting FRS scans - are minimized by positioning the spectral bandpass filter between camera and first lens. As a tradeoff, the signal level decreases by 70 % to 75% depending on the beam path through the molecular filter. Furthermore, reference measurements without a bandpass filter account for a non-negligible iodine fluorescence background of about 1% of typical signal levels. All things considered following these results FRS systems can now be systematically optimized towards specific measurement tasks.
Selbstlokalisation eines Mikroflugsystems mit Laserscannern zur 3D-Kartierung von Innenräumen
(2017)
In der Bachelorarbeit Selbstlokalisation eines Mikroflugsystems mit Laserscannern zur 3D-Kartierung von Innenräumen wird ein Verfahren vorgestellt, welches die Position eines Flugroboters in Abhängigkeit aller sechs Freiheitsgrade darstellen kann. Mithilfe von zwei Laserscannern werden zeitgleich dreidimensionale Karten der Umgebung erstellt. Zur Ermittlung der Bewegung des Flugroboters auf der horizontalen Ebene wird Hector SLAM verwendet. Um zusätzlich Höheninformationen zu erhalten, werden zwei verschiedene Verfahren implementiert: Das erste Verfahren misst die Höhe direkt mithilfe eines Laserscanners, das zweite Verfahren nutzt Hector SLAM zur Ermittlung der Höheninformationen aus der vertikalen Scanebene.
E-Sport im Fernsehen - Eine Analyse der Chancen eines neuen Themenfelds bei deutschen Fernsehsendern
(2022)
In den letzten Jahren hat die mediale Präsenz des E-Sports in Deutschland zugenommen, was dazu führte, dass auch die Allgemeinheit sich mit dem Thema auseinandersetzt. Dadurch sind Fernsehunternehmen auf die ursprüngliche Nischensportart, welche im Internet beheimatet und dort stark verwurzelt ist, aufmerksam geworden und bauen ihr Engagement in dem Bereich aus, um an dem wachsenden Erfolg teilzuhaben, der dem E-Sport prognostiziert wird. Doch eine erfolgreiche und geeignete Thematisierung des Trendthemas scheint aufgrund der besonderen Rahmenbedingungen nicht so einfach zu sein, wie es bei anderen klassischen Sportarten der Fall ist. Daraus ergibt sich die Frage: Welche Chancen hat die Thematisierung des E-Sports bei deutschen Fernsehsendern, wenn man die besonderen Gegebenheiten zusammen betrachtet? Die TV-Sender haben hierbei die Aufgabe, ein Publikum zu gewinnen, welches eigentlich gewohnt ist, dieses Thema im Internet zu konsumieren – dabei verliert das Fernsehen seit dem digitalen Zeitalter sowieso schon immer mehr Zuschauende an ebendieses. Neben den Hindernissen, die überwunden werden müssen, bietet der E-Sport den Fernsehunternehmen aber auch Mehrwerte – beides wird in dieser Arbeit ergründet.
Diese explorative Forschungsarbeit bietet einen Ansatz für die weitere Erforschung des E-Sports in den deutschen Medien – vor allem, da existierende Arbeiten sich hauptsächlich auf Live-Streaming-Portale oder die Darstellung des E-Sports in den klassischen Medien beziehen und ein Bezug zu den Intentionen und Gedanken der Fernsehunternehmen nicht vorhanden ist. Um diese Lücke zu schließen, wurden sieben Handelnde bei deutschen TV-Sendern oder Senderfamilien interviewt, die den E-Sport schon in unterschiedlicher Intensivität behandelt oder Überlegungen dazu durchgeführt haben. Den Abschluss dieser Arbeit - und gleichzeitige Anknüpfungspunkte für eine weiterführende Forschung zu dem Thema - bilden die acht Hypothesen, die einen Aufschluss darüber geben, welche Faktoren einen Einfluss auf die Chancen einer Thematisierung haben und die durch die Methode der qualitativen Inhaltsanalyse erstellt wurden. Der Forschungsgegenstand wurde dabei unter einer Vielzahl besonderer Aspekte und deren Wechselwirkungen betrachtet, wie z. B. den unterschiedlichen Senderformen, den Umständen innerhalb der E-Sport-Branche oder den vorhandenen Unternehmensstrukturen.