Refine
Departments, institutes and facilities
Document Type
- Bachelor Thesis (39) (remove)
Year of publication
Language
- German (39) (remove)
Keywords
- Lignin (2)
- 3D Crosstalk (1)
- 3D Display (1)
- 3D crosstalk (1)
- 3D display (1)
- 3D-Kartierung (1)
- 3D-Laserscanner (1)
- 3D-Lokalisierung (1)
- 3D-Punktwolke (1)
- Al2O3 (1)
In dieser Arbeit wird eine von P. Ahlrichs und B. Dünweg entwickelte Methode [Ahlrichs und Dünweg, 1998] zur Simulation von Polymeren in Flüssigkeiten auf dem Cell-Prozessor implementiert. Dabei soll der Frage nachgegangen werden, wie performant der Cell-Processor in der Lage ist diese Simulation zu berechnen.
Zur Simulation der Polymere wird eine Molekular-Dynamik Simulation genutzt. Die Monomere der Polymerketten werden durch ein Kugel-Feder Modell gekoppelt. Die einzelnen Monomere der Polymere werden als einfache Punktteilchen betrachtet. Dies ermöglicht eine Interaktion der Monomere, unabhängig von deren Zeit- und Längenskalen, mit der Flüssigkeitssimulation durch Reibung. Die Flüssigkeit wird in dieser Arbeit durch die Lattice-Boltzmann-Methode simuliert.
Qualität der Qualitätsprüfung: Testberichte im klassischen und modernen Videospieljournalismus
(2022)
Die Hochzeit des gedruckten Videospieljournalismus um die Jahrtausendwende ist vorüber. Seit über 15 Jahren sind die verkauften Auflagen der klassischen Videospielzeitschriften wie Gamestar oder PC Games rückläufig. Andere Magazine wurden zwischenzeitlich aus wirtschaftlichen Gründen eingestellt, darunter PC Action oder auch der einstige Marktführer Computer Bild Spiele. Trotzdem entwickelte sich eine journalistische Gegenbewegung, die Kieron Gillen im Jahr 2004 in seinem Manifest "The New Games Journalism" begründete. Es entstanden in Deutschland Videospielzeitschriften wie GAIN oder WASD, deren Berichterstattung Videospiele weniger als Produkt, sondern zunehmend als künstlerisches Objekt wahrnehmen und sie in einen gesellschaftlichen und kulturellen Kontext einordnen.
Ungeachtet dessen erfolgt in den Redaktionen eine technische und inhaltliche Sichtung der Videospiele, die dem Publikum als Testbericht präsentiert wird. Da es sich dabei aus historischer Perspektive um den Kerninhalt von Videospielzeitschriften handelt, soll dieser als Analysegegenstand dieser Arbeit dienen und ein Indiz für die Qualität der Magazine als Ganzes sein. Mit Blick auf die unterschiedlichen Entwicklungen im Videospieljournalismus soll folgende Frage beantwortet werden: Verfügen moderne Videospielzeitschriften über eine höhere Qualität als klassische Magazine? Dazu erfolgt eine qualitative Inhaltsanalyse der Testberichte und ein Vergleich mit etablierten Qualitätsmerkmalen aus dem allgemeinen Journalismus, ebenso wie dem Fach-, Nutzwert- und Videospieljournalismus.
Die Frage, in welcher Umgebung Informationskompetenz in Hochschulbibliotheken erworben wird und wie sich die Gestaltung der Räumlichkeiten auf den Lernprozess auswirken kann, hat bisher in der Forschung wenig Aufmerksamkeit erhalten. Dieser Fragestellung geht die vorliegende Bachelorarbeit nach. Die Leitfrage lautet dabei: Wie kann die Gestaltung von Hochschulbibliotheksräumen den Erwerb von Informationskompetenz fördern?
Grid Infrastrukturen sind heute in der Lage, auch große Datenmengen verteilt zu verarbeiten. Ein Anwendungsgebiet, das davon profitiert, ist das Textmining. Es zeichnet sich vor allem durch die große Anzahl voneinander unabhängiger Teiljobs aus, in die eine Aufgabe zerlegt werden kann. Um die Gesamtlaufzeit bis zur Fertigstellung eines Textmininglaufes für einen großen Datenbestand zu optimieren, ist Load-Balancing unerlässlich. Dafür muss abgeschätzt werden, wie lange eine Ressource für die Lösung eines Teilproblems benötigt. Diese Abschätzungen beruhen auf den Aufzeichnungen vorangegangener Textminingverarbeitungen. Sind darüber noch keine Daten vorhanden, muss die Laufzeitvorhersage anhand der Leistungsfähigkeit der Hardware einer Ressource prognostiziert werden. Wir stellen in dieser Arbeit Methoden vor, mit denen die Laufzeit für Textmining-Applikationen mittels historischer Daten und Hardwareeigenschaften vorhergesagt werden kann. Dabei nutzen wir Methoden der Statistik und des maschinellen Lernens, um eine Prognose zu berechnen. Anschließend wird ein Dienst vorgestellt, der eine Laufzeitvorhersage im Grid anbietet. Er kann auch für andere Anwendungsgebiete als das Textmining eingesetzt werden und ist in der Lage, Informationen über die Laufzeiten von Jobs auf den Ressourcen abzurufen. Dazu nutzt er bereits vorhandene Dienste der Grid-Middleware und kann sich so dynamisch in bestehende Strukturen eingliedern.
Segmentierung von 3D-Daten
(2011)
Die vorliegende Arbeit wird im Rahmen eines Projektes des Fraunhofer Instituts IAIS erstellt. Hier geht es um die Entwicklung eines neuen 3D-Laserscanners. Basierend auf diesem 3D-Laserscanner soll eine Sicherheits-Anwendung realisiert werden. Für eine Softwarekomponente - die Segmentierung von 3D-Daten - wird der Stand der Forschung untersucht und es werden drei Segmentierungs-Verfahren ausgewählt und implementiert. Der RANSAC-Algorithmus wird zur Detektion von Ebenen eingesetzt. In dieser Arbeit wird er um ein Abbruchkriterium erweitert, welches die Gesamtlaufzeit bei der Segmentierung von mehreren Ebenen verringert.
Selbstlokalisation eines Mikroflugsystems mit Laserscannern zur 3D-Kartierung von Innenräumen
(2017)
In der Bachelorarbeit Selbstlokalisation eines Mikroflugsystems mit Laserscannern zur 3D-Kartierung von Innenräumen wird ein Verfahren vorgestellt, welches die Position eines Flugroboters in Abhängigkeit aller sechs Freiheitsgrade darstellen kann. Mithilfe von zwei Laserscannern werden zeitgleich dreidimensionale Karten der Umgebung erstellt. Zur Ermittlung der Bewegung des Flugroboters auf der horizontalen Ebene wird Hector SLAM verwendet. Um zusätzlich Höheninformationen zu erhalten, werden zwei verschiedene Verfahren implementiert: Das erste Verfahren misst die Höhe direkt mithilfe eines Laserscanners, das zweite Verfahren nutzt Hector SLAM zur Ermittlung der Höheninformationen aus der vertikalen Scanebene.
Die vergangene Forschung zeigte, dass Werte und Persönlichkeitseigenschaften von (potentiellen) Arbeitnehmern die wahrgenommene Attraktivität bestimmter Arbeitgebermerkmale wie der Corporate Social Responsibility (CSR) beeinflussen. Weitere Forschung wird hingegen benötigt, um die in diesem Zusammenhang relevanten Persönlichkeitsmerkmale zu identifizieren. Diese Studie zielt darauf ab, die Werte und Persönlichkeitseigenschaften zu ermitteln, welche die unterschiedliche Attraktivität von CSR und weiteren Arbeitgebermerkmalen, die sich nicht auf die CSR beziehen, erklären können. Dazu bewerteten (potentielle) Arbeitnehmer (N = 145) auf zwei eigenentwickelten Skalen sowohl CSR-basierte Faktoren der Arbeitgeberattraktivität (z.B. Wassersparen) als auch Nicht-CSR-basierte Faktoren der Arbeitgeberattraktivität (z.B. erwünschte Unternehmenslage) hinsichtlich ihrer Wichtigkeit. Für die CSR-basierte Arbeitgeberattraktivität konnten unter Kontrolle der Big-Five hypothesenkonform die Wertedimension Selbst-Überwindung, die Persönlichkeitsdimension Communion und die prosoziale Persönlichkeit als Prädiktoren identifiziert werden. Die Wertedimensionen Selbst-Erhöhung und Selbst-Überwindung sowie die Persönlichkeitsdimensionen Agency und Communion leisten – ebenfalls über die Big-Five hinaus – einen bedeutenden Beitrag zur Vorhersage der Nicht-CSR-basierten Arbeitgeberattraktivität.
Durch den digitalen Wandel der letzten Jahrzehnte haben sich Fotos im Journalismus zum Must-have entwickelt, gerade online. Doch nicht immer sind Fotos verfügbar, die das Thema eines Artikels dokumentieren können. In dem Fall wird häufig auf Symbolfotos zurückgegriffen. Es finden Fotos Verwendung, die meist auf Vorrat produziert, durch Stockdatenbanken selektiert und präsentiert werden, um schließlich Gesicht eines Produktes oder Artikels zu sein, ohne in ihrer Entstehung mit der Verwendung in Zusammenhang zu stehen.
Welche Wirkung hat die Verwendung von Symbolfotos im Technik- und Wissenschaftsjournalismus auf Rezipienten in Deutschland? Anhand einer explorativen Befragung von 82 Personen mit dem Ziel durch eine vorwiegend quantitative Analyse einen Überblick über Einstellung und Umgang der Stichprobe mit Symbolfotos zu gewinnen, ermöglicht die Arbeit erste Thesen zur Sicht der Rezipienten auf die Verwendung von Symbolfotos – jedoch keine repräsentativen Ergebnisse.
Sexuelle Belästigung am Arbeitsplatz ist ein tiefgreifendes Thema, welches den (Arbeits-)Alltag vieler Menschen massiv beeinträchtigt. Trotz vieler Studien und der juristischen Grundlage, die die Relevanz der Thematik hervorheben, findet es in Unternehmen und im öffentlichen Diskurs noch zu wenig Aufmerksamkeit. In der vorliegenden Studie wird deshalb untersucht, inwiefern das Allgemeine Gleichbehandlungsgesetz (AGG) Anwendung in der Praxis findet und was konkrete Verbesserungspotenziale von Unternehmen hinsichtlich des Umgangs mit sexueller Belästigung sind. Im Rahmen einer qualitativen Untersuchung werden Expert*inneninterviews geführt, die anschließend nach der Inhaltsanalyse nach Mayring, in Form einer Zusammenfassung, ausgewertet werden. Der Themenschwerpunkt wird hierbei auf die subjektiven Erfahrungen der Befragten gelegt. Die Ergebnisse dieser Arbeit unterstreichen, dass es sich bei sexueller Belästigung nach wie vor um ein Tabuthema handelt, obwohl es nachweislich sowohl auf die Beschäftigten als auch auf das Unternehmen negative Auswirkungen hat. Da das AGG in den wenigsten Unternehmen Anwendung findet, wird es von einem Großteil der Arbeitnehmenden nicht als Schutz vor sexueller Belästigung wahrgenommen. Maßnahmen, die existieren sind entweder dysfunktional oder werden nicht ausreichend bekannt gemacht. Die Auswertung zeigt vor allem, dass Unternehmen in Zukunft ein Unternehmensklima etablieren müssen, in dem eine Nulltoleranz-Haltung gegenüber Diskriminierung herrscht. Ganzheitliche Präventions- und Interventionskonzepte sollten unter anderem die Schaffung von transparenten Anlaufstellen, klare Richtlinien und Konzepte zur präventiven Aufklärungsarbeit enthalten. Hierbei sollten vor allem marginalisierte Gruppen berücksichtigt werden. Wenn Unternehmen ihre im AGG festgehaltenen Pflichten in Zukunft wahrnehmen und entsprechende Maßnahmen ergreifen, kann eine Enttabuisierung des Themas angestoßen werden. Neben der Stärkung der Betroffenen, kann dies letztendlich zu einem Rückgang der Übergriffe führen.
Die Matrix ist eine der entscheidenden Hauptkomponenten oxidkeramischer Faserverbundwerkstoffe (Ox-CMCs). Im Herstellungsprozess stellen typischerweise keramische Schlicker die Ausgangsbasis für die spätere Ausbildung der Matrix im CMC dar. Die Aufbereitungsart und -dauer keramischer Schlicker haben dabei wesentlichen Einfluss auf die Verarbeitungseigenschaften des Schlicker und die Eigenschaften der späteren Matrix. In dieser Arbeit wird der Einfluss verschiedener Aufbereitungsparameter auf die Schlickereigenschaften und das Sinterverhalten untersucht. Dazu werden zwei Aufbereitungsverfahren, Planeten- und Ringspaltkugelmühle, eingesetzt sowie Mahlkörpermaterialien (Al2O3 und ZrO2), Additive (Glycerin) und Aufbereitungsdauer gezielt verändert. Es wurden Partikelgrößenverteilung, Rheologie und Feststoffgehalt ermittelt, sowie die Mikrostruktur und Schwindung analysiert. Im Vergleich zur Ringspaltkugelmühle konnte eine definierte Partikelgrößenverteilung mit der Planetenkugelmühle bereits nach einem Drittel der Zeit erreicht werden. Zusätzlich wird mit zunehmender Mahldauer auch die Neigung zur Thixotropie beobachtet. Bei zu langer Aufbereitungsdauer, aber fast identischer Partikelgrößenverteilung führt dieser Effekt zu Problemen bei der Herstellung von Ox-CMCs über das Wickelverfahren. Insgesamt ist dieses Verhalten stärker ausgeprägt bei Schlickern mit wenig Glyceringehalt. Gleichzeitig werden bei Schlickern mit gleichen Feststoffanteilen, aber höherem Glycerinanteil niedrigere Viskositäten gemessen. Mit zunehmendem Glyceringehalt steigt der Gewichtsverlust, jedoch nimmt die Sinterschwindung der Proben ab. Die in dieser Arbeit dargestellten Ergebnisse können für die Optimierung des Wicklungsprozesses zur CMC-Herstellung genutzt werden.
Im Rahmen der Arbeit wurde Kraft-Lignin mit Natriumsulfit demethyliert, um den Gehalt an aromatischen Hydroxygruppen zu erhöhen und damit die Reaktivität des Lignins in Bezug auf Polyurethan-Synthesen zu erhöhen. Variiert wurden die Demethylierungstemperatur (72°C, 90°C) sowie der pH-Wert zur Isolierung des Kraft-Lignins (pH 2, 3, 4 und 5). Die Analyse der demethylierten Proben erfolgte mittels differentieller UV-Spektroskopie und der OH-Gehaltbestimmung via automatischer Titration (angelehnt an ISO 14900:2001(E)). Weitere Untersuchungen umfassten Löslichkeitstests sowie Strukturanalysen via FTIR- und UV/Vis-Spektroskopie.
In der vorliegenden Arbeit wurde Kraft-Lignin als Makromonomer für die Synthese von thermoplastischen Polyurethanen mit hoher molarer Masse durch acide Präzipitation aus Schwarzlauge isoliert. Die Charakterisierung des Rohstoffes bezüglich seiner Ausgangsmolmasse erfolgte mittels Gel-Permeations-Chromatographie mit Polystyren-Polymerstandard, welche sich als sehr hilfreiche Analysemethode erwies. Da das Kraft-Lignin die klassische Polyolkomponente bei der Synthese von Polyurethanen ersetzen sollte, war es notwendig, den Hydroxylgehalt des Kraft-Lignins zu bestimmen. Für diesen Zweck wurde eine bereits etablierte Prozedur zur nasschemischen Bestimmung des Hydroxylgehaltes von Polyolen für die Synthese von Polyurethanen einer Adaption unterzogen. Es wurde die Reaktionsdauer bei der Acetylierung des Kraft-Lignins variiert. Das Ergebnis war, dass die Messgenauigkeit durch eine Erhöhung der Reaktionsdauer von 1 h auf 3 h drastisch von 25,5 % auf 3,6 % reduziert werden konnte. Um abschätzen zu können, ob die erzielte Messgenauigkeit im Rahmen einer nasschemischen Prozedur mit manueller Titration liegt, wurden zusätzlich die Hydroxylgehalte von Ethandiol und Saccharose bestimmt. Diese dienten als Referenzsubstanz mit definierten und bekannten Hydroxylgehalten. Die Ermittlung der Hydroxylgehalte mit diesen Substanzen ergab für Ethandiol eine Messgenauigkeit von 2,2 % und für Saccharose eine Messgenauigkeit von 1,4 %. Eine Messgenauigkeit von 3,6 % ist in Anbetracht des Zeitaufwandes akzeptabel.
Für die Synthese von thermoplastischen Polyurethanen wurde Kraft-Lignin mit Methylendiphenyldiisocyanat in Dimethylacetamid mit Zinnoktoat als Katalysator zur Reaktion gebracht. Es wurde das NCO/OH-Verhältnis und die Reaktionsdauer variiert. Die Analyse der synthetisierten Polyurethane erfolgte mittels Ubbelohde-Kapillarviskosimetrie, Fourier-Transformations-Infrarotspektroskopie und Schmelzpunktbestimmung. Die FTIR-Spektren bestätigte eine erfolgreiche Synthese von Polyurethanen aus Kraft-Lignin und Methylendiphenyldiisocyanat und zeigte, dass die Variation des NCO/OH-Verhältnisses und der Reaktionsdauer keinerlei Einflüsse auf die chemische Grundstruktur des Polyurethans hat. Die Ubbelohde-Kapillarviskosimetrie belegte die thermoplastischen Eigenschaften des synthetisierten Polyurethans, die sich in einem thermoplastischen Nassprozess verarbeiten lassen. Sie zeigte auch die Abhängigkeit der Molmasse der synthetisierten Polyurethane von der Reaktionsdauer und vom NCO/OH-Verhältnis. So steigt die Molmasse des Polyurethans mit steigender Reaktionsdauer und sinkendem NCO/OH-Verhältnis. Letztere Beobachtung ist sogar praktisch hinsichtlich der gesundheitsgefährdenden Eigenschaft von Isocyanaten, da so der Einsatz von Isocyanaten reduziert werden kann. Um die schmelzflüssige Verarbeitbarkeit des synthetisierten Polyurethans zu untersuchen, wurden die Schmelzpunkte der Polymere bestimmt. Es konnte in einem Temperaturbereich von 25 °C-410 °C keine Aggregatzustandsänderung, sondern lediglich eine Zersetzungsreaktion beobachtet werden.
Die vorliegende Bachelorthesis setzt sich mit der Problematik auseinander, ob Produktbewertungen auf Youtube nutzwertjournalistisch sein können, wozu zunächst ein Kategoriensystem zur Identifikation von Nutzwertjournalismus entwickelt wird. Mithilfe der Methode der qualitativen Inhaltsanalyse und dem Kategoriensystem, werden vier Produkttests des Fotografie-Kanals Value-TechTV untersucht. Die Forschungsfrage lautet daher: Zählen die Produkttests des Kanals ValueTechTV zum Nutzwertjournalismus?