Refine
Departments, institutes and facilities
- Präsidium (386)
- Fachbereich Ingenieurwissenschaften und Kommunikation (41)
- Fachbereich Wirtschaftswissenschaften (35)
- Stabsstelle Kommunikation und Marketing (22)
- Institut für Technik, Ressourcenschonung und Energieeffizienz (TREE) (20)
- Fachbereich Informatik (18)
- Internationales Zentrum für Nachhaltige Entwicklung (IZNE) (17)
- Fachbereich Sozialpolitik und Soziale Sicherung (15)
- Institut für Medienentwicklung und -analyse (IMEA) (14)
- Institut für Verbraucherinformatik (IVI) (10)
Document Type
- Part of Periodical (394)
- Article (43)
- Working Paper (28)
- Part of a Book (25)
- Conference Object (20)
- Report (20)
- Bachelor Thesis (17)
- Other (8)
- Master's Thesis (6)
- Book (monograph, edited volume) (3)
Year of publication
Language
- German (573) (remove)
Has Fulltext
- yes (573) (remove)
Keywords
- Digitalisierung (6)
- Hochschule Bonn-Rhein-Sieg (5)
- Deutschland (4)
- Nachhaltigkeit (4)
- Cutting sticks-Problem (3)
- Lignin (3)
- Teilsummenaufteilung (3)
- Agil (2)
- Agilität (2)
- Auslandsstudium (2)
Während sich die unternehmerische Arbeitswelt immer mehr in Richtung Agilität verschiebt, verharrt das IT-Controlling noch in alten, klassischen Strukturen. Diese Arbeit untersucht die Fragestellung, ob und inwieweit agile Ansätze im IT-Controlling eingesetzt werden können. Dieser Beitrag ist eine modifizierte Version des in der Zeitschrift „HMD Praxis der Wirtschaftsinformatik“ (https://link.springer.com/article/10.1365/s40702-022-00837-0) erschienenen Artikels „Agiles IT-Controlling“.
Agiles IT-Controlling
(2022)
Während im IT-Projektmanagement agile Methoden seit vielen Jahren in der Praxis Zuspruch finden, werden im IT-Controlling überwiegend noch klassische Methoden eingesetzt. Der Beitrag untersucht die Fragestellung, ob und wie die im IT-Controlling eingesetzten Methoden auch agilen Paradigmen folgen und Methoden des agilen IT-Projektmanagements adaptiert werden können.
Die digitale Transformation verändert die internationale Kooperation der Hochschulen massiv. Über die Möglichkeiten der virtuellen Mobilität hinaus entstehen neue Themenfelder, die internationale Lern- und Lehrerlebnisse mit digitaler Unterstützung verändern, ergänzen oder neu ermöglichen. Dazu sind im Bereich der Förderung der Internationalisierung (DAAD, Erasmus+, BMBF u.a.) Projekte und Förderformate entstanden, die Digitalisierung und Internationalisierung kombinieren und die neuen Themenstellungen adressieren, z.B. didaktische Formate, administrative Prozesse (auch im Kontext OZG und DSGVO), virtuelle und hybride Mobilität, internationale Projekt- und Teamformate sowie schlussendlich auch Inhalte, die internationale, interkulturelle und interdisziplinäre Kompetenzen mit digitalen Kompetenzen verbinden. Der vorgeschlagene Workshop soll entsprechende Projekte zusammenbringen und die Themen strukturieren, um einen Überblick der Entwicklungen zu schaffen und somit einen Beitrag zur Definition des Themenfelds „Digitalisierung & Internationalisierung“ zu leisten.
Ziel der vorliegenden Forschungsarbeit ist es, den Einfluss von Persönlichkeit auf nachhaltige Maßnahmen anhand des Streamingkonsums zu eruieren. Der allgemein steigende Streamingkonsum und die damit einhergehenden Umweltschäden einerseits und ein wachsendes gesellschaftliches Umweltbewusstsein andererseits stellen einen Widerspruch dar. An einer Online-Umfrage zu diesen und weiterführenden Aspekten nahmen 204 Probanden teil. Während sich die Eigenschaften Verträglichkeit und Offenheit in hoher Ausprägung positiv auf die Umwelteinstellung, das Umweltverhalten und die Umweltbesorgnis auswirkten, wurden die umweltfreundlichen Maßnahmen in einer Clusteranalyse hingegen stärker von der Gruppe bevorzugt, deren Verträglichkeit und Offenheit verhältnismäßig schwach ausgeprägt waren. Ein geringes Wissen über die streamingbedingten Umweltfolgen lag grundsätzlich vor und dient als möglicher Erklärungsansatz des genannten Widerspruchs. Die Probanden forderten, ein Bewusstsein für diese Thematik zu schaffen. Um Streamingkonsum umweltfreundlicher zu gestalten empfiehlt es sich, alle am Prozess beteiligten Akteure einzubeziehen. Die befragten Konsumenten bevorzugten dabei vor allem die Verwendung von Ökostrom und lehnten eine Umstellung der Bezahlstruktur vorwiegend ab.
AErOmAt Abschlussbericht
(2020)
Das Projekt AErOmAt hatte zum Ziel, neue Methoden zu entwickeln, um einen erheblichen Teil aerodynamischer Simulationen bei rechenaufwändigen Optimierungsdomänen einzusparen. Die Hochschule Bonn-Rhein-Sieg (H-BRS) hat auf diesem Weg einen gesellschaftlich relevanten und gleichzeitig wirtschaftlich verwertbaren Beitrag zur Energieeffizienzforschung geleistet. Das Projekt führte außerdem zu einer schnelleren Integration der neuberufenen Antragsteller in die vorhandenen Forschungsstrukturen.
Projekte des maschinellen Lernens (ML), insbesondere im Bereich der Zeitreihenanalyse, gewinnen heute zunehmend an Bedeutung. Die Bereitstellung solcher Projekte in einer Produktionsumgebung mit dem gleichen Automatisierungsgrad wie bei klassischen Softwareprojekten ist ein komplexes Unterfangen. Die Umsetzung in Produktionsumgebungen erfordert neben klassischen DevOps auch Machine Learning Operation (MLOps) Technologien und Werkzeuge. Ziel dieser Studie ist es, einen umfassenden Überblick über verfügbare MLOps Tools zu bieten und einen spezifischen Techstack für Zeitreihen ML Projekte zu entwickeln. Es werden aktuelle Trends und Werkzeuge im Bereich MLOps durch eine multivokale Literaturrecherche (MLR) untersucht und analysiert. Die Studie identifiziert passende MLOps Werkzeuge und Methoden für die Zeitreihenanalyse und präsentiert eine spezifische Implementierung einer MLOps Pipeline für die Aktienkursprognose des S&P 500. MLOps und DevOps Tools nehmen eine essenzielle Rolle bei der effektiven Konstruktion und Verwaltung von ML Pipelines ein. Bei der Auswahl geeigneter Werkzeuge ist stets eine spezifische Anpassung an die jeweiligen Projektanforderungen erforderlich. Die Bereitstellung einer detaillierten Darstellung der aktuellen MLOps Tool Landschaft erweist sich hierbei als wertvolle Ressource, die es Entwicklern ermöglicht, die Effizienz und Effektivität ihrer ML Projekte zu optimieren.
In Zeiten deutlicher Auswirkungen des Klimawandels und gravierender sozialer Missstände in Teilen der Welt drängen sich dringender denn je für die Weltgemeinschaft die Fragen nach Handlungsoptionen zum Erreichen nachhaltiger Entwicklung auf. Dementsprechend ist auch der öffentliche Sektor gefragt seinen Beitrag zu leisten. Als ein wirkungsvoller Beitrag ist die Etablierung nachhaltiger öffentlicher Beschaffung zu nennen. Um diesen Beitrag adäquat umzusetzen, müssen unter anderem die Richtlinien und Gesetze, die die öffentliche Beschaffung regeln, ausreichend Umsetzungsmöglichkeiten dafür bieten. Mit der jüngsten europäischen Vergaberechtsreform und der daraufhin verabschiedeten deutschen Anpassung der Gesetze ist der Grundstein dafür gelegt worden. Welche erfolgsversprechenden Umsetzungsmöglichkeiten diese rechtliche Basis nun den Kommunen in Deutschland als Hauptakteuren öffentlicher Beschaffung bietet und welche weiteren Erfolgsfaktoren für die Umsetzung nachhaltiger öffentlicher Beschaffung auf kommunaler Ebene entscheidend sind, ist Thema dieses Arbeitspapiers. Ein Praxischeck der Erfolgsfaktoren wird am Beispiel der Stadt Bonn, stellvertretend für die kommunale Ebene in NRW vorgenommen.
Im Zuge der Migrationsbewegung in den Jahren 2015 und 2016 hat die menschenwürdige Unterbringung von geflüchteten Menschen in Kommunen in Deutschland an Aufmerksamkeit gewonnen. Der Anstieg der Asylbewerber:innen in den Kommunen sowie die Bundesinitiative „Schutz von geflüchteten Menschen in Flüchtlingsunterkünften“ haben Veränderungen im Hinblick auf Schutzstandards in der kommunalen Unterbringung geflüchteter Menschen hervorgerufen. Der Artikel erklärt diese Veränderungen mittels einer akteurszentrierten organisationssoziologischen Herangehensweise. Grundlage sind empirische Forschungsergebnisse des Projektes „Organisational Perspectives on Human Security Standards for Refugees in Germany“ aus zwei deutschen Kommunen.
Migrationspolitik in Deutschland polarisiert derzeit wie kaum ein anderes Thema. Einen zentralen Kritikpunkt aus der menschenrechtlichen Perspektive stellen hierbei fehlende gesetzlich verbindliche und einheitliche Standards in der Unterbringung von geflüchteten Menschen in Deutschland dar. Das Ausbleiben verbindlicher bundesweiter Vorgaben hat weitreichende negative Folgen insbesondere für vulnerable Gruppen unter den geflüchteten Menschen, wie Frauen, Kinder, Senior:innen, chronisch Kranke oder LGBTQ+ Personen.
Konsument:innen scheint die Lust vergangen zu sein, individuellen Kleidungsstil auszudrücken, da der Onlinehandel zur Steigerung von Auswahlmöglichkeiten geführt hat. Dies mündet unter anderem in der Nutzung virtueller Stilberatungen. Diese Dienste dienen dazu, Kund:innen möglichst effizient, individuell und authentisch „zu machen“, und sind somit als paradoxaler Demokratisierungsprozess zu verstehen. Eine Erklärung für den Erfolg dieser Dienstleistungen soll mit Reckwitz’ Singularisierungsthese gestützt werden.
Intelligente Dialogsysteme – Chatbots – werden immer häufiger als virtuelle Ansprechpartner von Unternehmen und Institutionen eingesetzt. Auf Basis einer Wissensdatenbank können Chatbots einen größeren Anteil von Kundenanfragen automatisiert beantworten. Analog ist der Einsatz von Chatbots als digitaler Ansprechpartner öffentlicher Verwaltungen denkbar. Sie könnten Bürgern helfen, sich innerhalb der behördlichen Strukturen zu orientieren und Verwaltungsleistungen effizient und effektiv in Anspruch zu nehmen.
Diese Arbeit überprüft den Einsatz eines Chatbots in der öffentlichen Verwaltung hinsichtlich der entstehenden Kosten und des erwartbaren Nutzens. Auf Basis einer umfangreichen Literaturauswertung und der prototypischen Realisierung eines Chatbots für ein Stadtportal werden dabei Herausforderungen dieser Anwendungsdomäne herausgearbeitet, konkrete Funktionsweise und Implementierungsstrategien von Chatbots erörtert und einige Erfolgsfaktoren formuliert, die den Kern einer Handlungsempfehlung für Entscheidungsträger öffentlicher Verwaltungen bilden.
An der Hochschule Bonn-Rhein-Sieg fand am Donnerstag, den 23.9.21 das erste Verbraucherforum für Verbraucherinformatik statt. Im Rahmen der Online-Tagesveranstaltung diskutierten mehr als 30 Teilnehmer:innen über Themen und Ideen rund um den Bereich Verbraucherdatenschutz. Dabei kamen sowohl Beiträge aus der Informatik, den Verbraucher- und Sozialwissenschaften sowie auch der regulatorischen Perspektive zur Sprache. Der folgende Beitrag stellt den Hintergrund der Veranstaltung dar und berichtet über Inhalte der Vorträge sowie Anknüpfungspunkte für die weitere Konstituierung der Verbraucherinformatik. Veranstalter waren das Institut für Verbraucherinformatik an der H-BRS in Zusammenarbeit mit dem Lehrstuhl IT-Sicherheit der Universität Siegen sowie dem Kompetenzzentrum Verbraucherforschung NRW der Verbraucherzentrale NRW e. V. mit Förderung des Bundesministeriums der Justiz und für Verbraucherschutz.
Die vorliegende Forschungsarbeit behandelt die Filtrierung von sozialen Medien durch die Content Moderatoren. Die Content Moderatoren sind Menschen, die unter schlechten Arbeitsbedingungen und hoher psychischer Belastung Plattformen wie Facebook tagtäglich von strafbaren Inhalten filtern. Durch dieses Löschregime werden zwar gewaltzeigende Inhalte gelöscht, aber auch aufklärende oder künstlerische Inhalte zensiert.
Mithilfe von durchgeführten Fokusgruppendiskussionen wurde der Einfluss der Gruppenzusammensetzung und Darbietung positiver und negativer Informationen auf die individuelle und eindimensionale Wahrnehmung der Teilnehmer bezüglich sozialer Medien, Content Moderatoren und Löschrichtlinien erforscht.
Die Ergebnisse zeigen, dass die Darbietung der Informationen keinen Einfluss auf die mehrdimensionale Wahrnehmung der Probanden hatte und sie unabhängig von der Gruppenzusammensetzung nonkonforme Meinungen vertraten. Trotz des erweiterten Wissenstandes und der entwickelten Alternativlösungen äußerten die meisten Probanden nicht die Absicht, ihr Nutzungsverhalten künftig zu ändern. Trotz der Annahme, dass die meisten Probanden eine eindimensionale Wahrnehmung sozialer Medien haben, zeigten die Ergebnisse, dass viele Probanden eine ähnlich positive und kritische Haltung gegenüber den Plattformen hatten. Darüber hinaus wird deutlich, dass es einen starken Forschungsbedarf in Bezug auf die Langzeitfolgen der Arbeit als Content Moderator und Auswirkungen von Zensur und Filtrierung auf die Nutzer sozialer Medien gibt.
Softwareentwickelnde kleine und mittlere Unternehmen (KMU) erkennen zunehmend, dass die nutzerzentrierte Gestaltung ein wichtiges, oft entscheidendes Kriterium für die Benutzerfreundlichkeit und damit den Erfolg ihrer Produkte ist. Stolpersteine auf dem Weg zum erfolgreichen Usability- und User Experience-Engineering sind dabei allerdings häufig die Unkenntnis der passenden Methoden bzw. die Befürchtung zu hohen Aufwands an Ressourcen und von Verzögerungen in der Produktentwicklung (vgl. Stade et al., 2013; Reckin & Brandenburg, 2013; Woywode et al., 2011).
Die Motive für die Einführung von Public Cloud Services liegen oft im Bereich der Kosteneinsparung und Qualitätsverbesserung. Vielfach werden bei der erstmaligen Einführung vermeidbare Fehler gemacht, die im Nachhinein den Erfolg des Vorhabens schmälern. Der Beitrag beschreibt ein aus Sicht der Beratungspraxis bewährtes Vorgehensmodell für die Einführung und Nutzung von Public Cloud Services unter besonderer Berücksichtigung von Microsoft Cloud Services.
In der heutigen Zeit nimmt die Bedeutung schlanker und effektiver Prozesse in Unternehmen vor dem Hintergrund des Wettbewerbs sowie Kostendrucks stetig zu. Um dieser Herausforderung entgegenzuwirken, fokussieren sich Unternehmen auf die Identifikation neuer innovativer Potenziale. Aufgrund der Tatsache, dass monotone und regelbasierte Prozesse durch Softwareroboter automatisiert werden können, ist das Interesse an Robotic Process Automation (RPA) in den letzten Jahren stetig gestiegen. Bevor sich Unternehmen allerdings für oder gegen den Einsatz von RPA entscheiden, ist es zunächst notwendig, dass die Entscheidungsträger ein Verständnis von RPA erlangen sowie die entsprechenden Einsatzpotenziale und Risiken einschätzen können. Dieser Artikel trägt diesem Bedürfnis Rechnung, indem es diese auf Basis einer Literaturrecherche ermittelt und bewertet. Im Ausblick wird das zukünftige Potenzial von RPA eingeschätzt.
Im Rahmen der Arbeit wurde Kraft-Lignin mit Natriumsulfit demethyliert, um den Gehalt an aromatischen Hydroxygruppen zu erhöhen und damit die Reaktivität des Lignins in Bezug auf Polyurethan-Synthesen zu erhöhen. Variiert wurden die Demethylierungstemperatur (72°C, 90°C) sowie der pH-Wert zur Isolierung des Kraft-Lignins (pH 2, 3, 4 und 5). Die Analyse der demethylierten Proben erfolgte mittels differentieller UV-Spektroskopie und der OH-Gehaltbestimmung via automatischer Titration (angelehnt an ISO 14900:2001(E)). Weitere Untersuchungen umfassten Löslichkeitstests sowie Strukturanalysen via FTIR- und UV/Vis-Spektroskopie.
Studienverläufe von Studenten weichen nicht selten vom offiziell geplanten Curriculum ab. Für eine den Studienerfolg verbessernde Planung und Weiterentwicklung von Studiengängen und Curricula fehlen den Verantwortlichen häufig Erkenntnisse über tatsächliche sowie typischerweise erfolgreiche und weniger erfolgreiche Studienverlaufsmuster. Process-Mining-Techniken können helfen, mehr Transparenz bei der Auswertung von Studienverläufen zu schaffen und so die Erkennung typischer Studienverlaufsmuster, die Überprüfung der Übereinstimmung der konkreten Studienverläufe mit dem vorgegebenen Curriculum sowie eine zielgerechte Verbesserung des Curriculums zu unterstützen.
Vorwort
(2022)
Das Optimalziel für ein Logistiklager ist eine hohe Auslastung des Transportsystems. Es stellt sich somit die Frage nach der Auswahl der Aufträge, die gleichzeitig innerhalb des Lagers abgearbeitet werden, ohne Staus, Blockaden oder Überlastungen entstehen zu lassen. Dieser Auswahlprozess wird auch als Path-Packing bezeichnet. Diese Masterthesis untersucht das Path-Packing auf graphentheoretischer Ebene und stellt verschiedene Greedy-Heuristiken, eine Optimallösung auf Basis der Linearen Programmierung sowie einen kombinierten Ansatz gegenüber. Die Ansätze werden anhand von Messzeiten und Auslastungen unterschiedlich randomisiert erstellter Testdaten ausgewertet.
Das Cutting sticks-Problem ist in seiner allgemeinen Formulierung ein NP-vollständiges Problem mit Anwendungspotenzialen im Bereich der Logistik. Unter der Annahme, dass P ungleich NP (P != NP) ist, existieren keine effizienten, d.h. polynomiellen Algorithmen zur Lösung des allgemeinen Problems.
In diesem Papier werden Ansätze aufgezeigt, mit denen bestimmte Instanzen des Problems effizient berechnet werden können. Für die Berechnung wichtige Parameter werden charakterisiert und deren Beziehung untereinander analysiert.
Das Cutting sticks-Problem ist ein NP-vollständiges Problem mit Anwendungspotenzialen im Bereich der Logistik. Es werden grundlegende Definitionen für die Behandlung sowie bisherige Ansätze zur Lösung des Problems aufgearbeitet und durch einige neue Aussagen ergänzt. Insbesondere stehen Ideen für eine algorithmische Lösung des Problems bzw. von Varianten des Problems im Fokus.
Das Cutting sticks-Problem ist in seiner allgemeinen Formulierung ein NP-vollständiges Problem mit Anwendungspotenzialen im Bereich der Logistik. Unter der Annahme, dass P ungleich NP (P != NP) ist, existieren keine effizienten, d.h. polynomiellen Algorithmen zur Lösung des allgemeinen Problems.
In diesem Papier werden für eine Reihe von Instanzen effiziente Lösungen angegeben.
Sexuelle Belästigung am Arbeitsplatz ist ein tiefgreifendes Thema, welches den (Arbeits-)Alltag vieler Menschen massiv beeinträchtigt. Trotz vieler Studien und der juristischen Grundlage, die die Relevanz der Thematik hervorheben, findet es in Unternehmen und im öffentlichen Diskurs noch zu wenig Aufmerksamkeit. In der vorliegenden Studie wird deshalb untersucht, inwiefern das Allgemeine Gleichbehandlungsgesetz (AGG) Anwendung in der Praxis findet und was konkrete Verbesserungspotenziale von Unternehmen hinsichtlich des Umgangs mit sexueller Belästigung sind. Im Rahmen einer qualitativen Untersuchung werden Expert*inneninterviews geführt, die anschließend nach der Inhaltsanalyse nach Mayring, in Form einer Zusammenfassung, ausgewertet werden. Der Themenschwerpunkt wird hierbei auf die subjektiven Erfahrungen der Befragten gelegt. Die Ergebnisse dieser Arbeit unterstreichen, dass es sich bei sexueller Belästigung nach wie vor um ein Tabuthema handelt, obwohl es nachweislich sowohl auf die Beschäftigten als auch auf das Unternehmen negative Auswirkungen hat. Da das AGG in den wenigsten Unternehmen Anwendung findet, wird es von einem Großteil der Arbeitnehmenden nicht als Schutz vor sexueller Belästigung wahrgenommen. Maßnahmen, die existieren sind entweder dysfunktional oder werden nicht ausreichend bekannt gemacht. Die Auswertung zeigt vor allem, dass Unternehmen in Zukunft ein Unternehmensklima etablieren müssen, in dem eine Nulltoleranz-Haltung gegenüber Diskriminierung herrscht. Ganzheitliche Präventions- und Interventionskonzepte sollten unter anderem die Schaffung von transparenten Anlaufstellen, klare Richtlinien und Konzepte zur präventiven Aufklärungsarbeit enthalten. Hierbei sollten vor allem marginalisierte Gruppen berücksichtigt werden. Wenn Unternehmen ihre im AGG festgehaltenen Pflichten in Zukunft wahrnehmen und entsprechende Maßnahmen ergreifen, kann eine Enttabuisierung des Themas angestoßen werden. Neben der Stärkung der Betroffenen, kann dies letztendlich zu einem Rückgang der Übergriffe führen.
An Universitäten und Fachhochschulen ist die Mathematik-Ausbildung eines der Nadelöhre für angehende Ingenieurinnen und Ingenieure. Viele Studierende der Ingenieurwissenschaften scheitern in den ersten Studiensemestern an den Anforderungen der Mathematik. Lehrende, Fach- und Hochschuldidaktiker/innen und zunehmend auch Fachvertretungen und Verbände stellen sich die Frage, was an den Fakultäten und Fachbereichen getan werden kann, damit Studierende ihre mathematischen Fähigkeiten vergrößern und den anspruchsvollen Studienweg zur Ingenieurin oder zum Ingenieur meistern können.
In Deutschland im Allgemeinen sowie in der Region Bonn-Rhein-Sieg im Konkreten ist ein Startup-Trend sichtbar, der sich insbesondere auf den digitalen Bereich erstreckt. Dies äußert sich z.B. durch die Realisierung verschiedener Digital Hubs, unter anderem auch dem Digital Hub Bonn, sowie diversen Netzwerken und Communities, die sich mit dem Thema Unternehmensgründung befassen.
Die Studierenden der Hochschule Bonn-Rhein-Sieg (H-BRS) stellen dabei potenzielle Unternehmensgründer dar. Das Centrum für Entrepreneurship, Innovation und Mittelstand (CENTIM) hat als Hochschulinstitut zur Aufgabe unter anderem den Bereich Entrepreneurship zu vertreten. Um die Studierenden in ihren Gründungsaktivitäten besser unterstützen zu können, soll ein Überblick über das Gründungsverhalten sowie das Gründungsinteresse der Studierenden erstellt werden. Dabei sollen ebenfalls mögliche Optimierungsfelder der Lehr- und Beratungsangebote identifiziert werden.
Die Implementierung strategischer Erfolgsfaktoren rückt zunehmend in den Fokus kleiner und mittelständischer Unternehmen. Vor dem Hintergrund des überdurchschnittlichen Erfolgs sogenannter Hidden Champions (HC) stellt sich unter einer praxisorientierten Perspektive die Frage, welche Bedeutung mittelständische Unternehmen grundsätzlich den von Hermann Simon identifizierten Erfolgsprinzipien für HC für den Unternehmenserfolg zumessen. Die empirische Studie analysierte dazu die Bedeutung dieser Erfolgsfaktoren für mittelständische Unternehmen und untersuchte, ob Bedeutungsunterschiede zwischen erfolgreichen und weniger erfolgreichen Unternehmen der Stichprobe existieren. Im Rahmen einer explorativen, multivariaten Datenanalyse konnten außerdem zwei Cluster, die „Internationalen Innovatoren“ und die „Nationalen Traditionalisten“, im Datensatz identifiziert werden, die sich hinreichend in der Bedeutungszumessung der Erfolgsfaktoren voneinander unterschieden.
In diesem Paper wird das abbildende Millimeterwellen-Radarsystem SAMMI® (Stand Alone MilliMeter wave Imager) des Fraunhofer-Institutes für Hochfrequenzphysik und Radartechnik FHR vorgestellt. SAMMI ist ein CW System welches bei einer Messfrequenz von 78 GHz die Proben in Transmission vermisst. Durch ein Endlosband wird ein kontinuierlicher Materialstrom sichergestellt, wobei ein DIN A4 Blatt innerhalb von 20 s durchleuchtet wird. SAMMI besitzt die Größe eines durchschnittlichen Laserdruckers wodurch es leicht zu transportieren und in wenigen Minuten einsatzbereit ist. Die mittels SAMMI erfassten Messdaten, können bereits während der Datenerfassung mit verschiedenen bereits vorinstallierten Verfahren aufbereitet und analysiert werden. Zu den integrierten Algorithmen in SAMMI® gehören unter anderen Verfahren zum 2D-Phase Unwrapping-, Cluster- und Rekonstruktions-Algorithmen zur Berechnung der Materialparameter. Die offene Softwareschnittstelle erlaubt auch die Implementierung eigener Verfahren auf der mitgelieferten Computer-Hardware. Mit den integrierten Algorithmen bietet SAMMI® eine Vielzahl an Möglichkeiten um z.B. Verunreinigungen in Materialien zu detektieren oder Schwankungen im Fertigungsprozess frühzeitig zu identifizieren. Desweiteren ist SAMMI® eine optimale Ausbildungsplattform in den Bereichen der industriellen Bildverarbeitung mittels Hochfrequenzsensoren. Insbesondere können Verfahren für unterschiedliche Anwendungen getestet bzw. für Anwendungen weiterentwickelt werden. Es werden konkrete Beispiele aus dem Bereich der Qualitätssicherung erläutert und Möglichkeiten des Gerätes und der Millimeterwellen-Technologie für die zerstörungsfreie Prüfung in Detail beschrieben.
In den Atmosphärenwissenschaften spielt die Strahlungsbilanz der Erde eine wichtige Rolle für unser Verständnis des Klimasystems. Hier liefern ausgereifte Satellitenprodukte dekadische Klimazeitreihen mit einer so hohen Genauigkeit, dass z.B. Änderungen im Zusammenhang mit dem Klimawandel detektiert werden können. Dies gilt insbesondere auch für die solaren Strahlungsflüsse an der Erdoberfläche. Beim Vergleich dieser Satellitenprodukte mit instantanen Beobachtungen der Strahlung am Erdboden sind jedoch oft erhebliche Abweichungen feststellbar, die hauptsächlich durch kleinskalige Variabilität in der räumlichen Struktur von Wolken und ihrer Strahlungswirkung verursacht werden. Hier ist auch zu bedenken, dass Bodenbeobachtungen fast einer Punktmessung entsprechen, während Satellitenpixel eine Fläche in der Größenordnung von Quadratkilometern abtasten.
Personal-Information-Management-Systeme (PIMS) gelten als Chance, um die Datensouveränität der Verbraucher zu stärken. Datenschutzbezogene Fragen sind für Verbraucher immer dort relevant, wo sie Verträge und Nutzungsbedingungen mit Diensteanbietern eingehen. Vor diesem Hintergrund diskutiert dieser Beitrag die Potenziale von VRM-Systemen, die nicht nur das Datenmanagement, sondern das gesamte Vertragsmanagement von Verbrauchern unterstützen. Dabei gehen wir der Frage nach, ob diese besser geeignet sind, um Verbraucher zu souveränem Handeln zu befähigen.
Der vorliegende Beitrag setzt sich mit der Bedeutung von Lernorten der beruflichen Bildung im Zuge einer BBNE sowie der diesbezüglichen Kompetenzentwicklung auseinander. Dabei wird entlang des BIBB-Modellversuchs „NAUZUBI“ ein möglicher Ansatz skizziert, der darauf ausgerichtet ist, eine integrative Kompetenzentwicklung in Nachhaltigkeitsthemen zu ermöglichen. Ausgangspunkt sind dabei betriebliche Nachhaltigkeitsaudits, die im vorliegenden Ansatz als kontextualisierte Zugänge für berufliche Lernanlässe dienten. Diese wurden in aufeinander abgestimmten Schritten im betrieblichen und schulischen Lernen reflektiert. Im Beitrag werden das Grundkonzept sowie die entsprechenden Umsetzungserfahrungen beschrieben. Es werden ferner Herausforderungen und Potenziale für das betriebliche, berufsschulische und das lernortkooperative Lernen und damit die integrative Kompetenzentwicklung dargestellt.
In dieser vorliegenden Arbeit wurde der photolytische und photokatalytische Abbau von Lignin untersucht. Eine Charakterisierung des verwendeten Photoreaktors wurde mittels Kalium-Ferrioxalat-Aktinometrie durchgeführt. Zur Analyse der abgebauten Lignine wurde eine Optimierung einer bereits bestehenden Methode zur Bestimmung des Hydroxylgehaltes erarbeitet. Die Bestimmung der Hydroxylgehalte erfolgte demnach bei Raumtemperatur nach einer Acetylierungsdauer von 72 h und zeigte eine Abnahme der Hydroxylgehalte mit andauernder UV-Bestrahlung. Selbige Beobachtung konnte mit Hilfe der ATR-IR-Spektroskopie gemacht werden. Zusätzlich konnte die Bildung von Carbonsäuren und der Abbau von aromatischen Strukturen detektiert werden. Der Abbau aromatischer Strukturen konnte ebenfalls durch UV-VIS-Spektroskopie gezeigt werden. Eine Vermutung, dass es sich bei dem Abbauprozess um einen oxidativen Mechanismus handelt, konnte mit dem Abbau von Hydroxylgruppen über eine Bildung von Carbonsäuren zu Kohlenstoffdioxid bestätigt werden. Eine Freisetzung von Kohlenstoffdioxid konnte durch eine Bestimmung des IC festgestellt werden. Die Ergebnisse der Gel-Permeations-Chromatographie zusammen mit einer TOC-Analyse zeigen einen Abbau der molaren Masse des Lignins auf. Es konnten Fragmente mit einer Molmasse ähnlich der Monomere des Lignins gefunden werden. Der eingesetzte Photokatalysator wurde via Röntgenbeugung untersucht und konnte als das hoch photokatalytisch aktive P25 von Degussa identifiziert werden. Trotz des Einsatzes verschiedener Katalysatorkonzentrationen in einem Bereich von 0-0,5 g L^(-1) konnte kein Einfluss des Photokatalysators auf den Abbauprozess des Lignins beobachtet werden.
In der vorliegenden Arbeit wurde Kraft-Lignin als Makromonomer für die Synthese von thermoplastischen Polyurethanen mit hoher molarer Masse durch acide Präzipitation aus Schwarzlauge isoliert. Die Charakterisierung des Rohstoffes bezüglich seiner Ausgangsmolmasse erfolgte mittels Gel-Permeations-Chromatographie mit Polystyren-Polymerstandard, welche sich als sehr hilfreiche Analysemethode erwies. Da das Kraft-Lignin die klassische Polyolkomponente bei der Synthese von Polyurethanen ersetzen sollte, war es notwendig, den Hydroxylgehalt des Kraft-Lignins zu bestimmen. Für diesen Zweck wurde eine bereits etablierte Prozedur zur nasschemischen Bestimmung des Hydroxylgehaltes von Polyolen für die Synthese von Polyurethanen einer Adaption unterzogen. Es wurde die Reaktionsdauer bei der Acetylierung des Kraft-Lignins variiert. Das Ergebnis war, dass die Messgenauigkeit durch eine Erhöhung der Reaktionsdauer von 1 h auf 3 h drastisch von 25,5 % auf 3,6 % reduziert werden konnte. Um abschätzen zu können, ob die erzielte Messgenauigkeit im Rahmen einer nasschemischen Prozedur mit manueller Titration liegt, wurden zusätzlich die Hydroxylgehalte von Ethandiol und Saccharose bestimmt. Diese dienten als Referenzsubstanz mit definierten und bekannten Hydroxylgehalten. Die Ermittlung der Hydroxylgehalte mit diesen Substanzen ergab für Ethandiol eine Messgenauigkeit von 2,2 % und für Saccharose eine Messgenauigkeit von 1,4 %. Eine Messgenauigkeit von 3,6 % ist in Anbetracht des Zeitaufwandes akzeptabel.
Für die Synthese von thermoplastischen Polyurethanen wurde Kraft-Lignin mit Methylendiphenyldiisocyanat in Dimethylacetamid mit Zinnoktoat als Katalysator zur Reaktion gebracht. Es wurde das NCO/OH-Verhältnis und die Reaktionsdauer variiert. Die Analyse der synthetisierten Polyurethane erfolgte mittels Ubbelohde-Kapillarviskosimetrie, Fourier-Transformations-Infrarotspektroskopie und Schmelzpunktbestimmung. Die FTIR-Spektren bestätigte eine erfolgreiche Synthese von Polyurethanen aus Kraft-Lignin und Methylendiphenyldiisocyanat und zeigte, dass die Variation des NCO/OH-Verhältnisses und der Reaktionsdauer keinerlei Einflüsse auf die chemische Grundstruktur des Polyurethans hat. Die Ubbelohde-Kapillarviskosimetrie belegte die thermoplastischen Eigenschaften des synthetisierten Polyurethans, die sich in einem thermoplastischen Nassprozess verarbeiten lassen. Sie zeigte auch die Abhängigkeit der Molmasse der synthetisierten Polyurethane von der Reaktionsdauer und vom NCO/OH-Verhältnis. So steigt die Molmasse des Polyurethans mit steigender Reaktionsdauer und sinkendem NCO/OH-Verhältnis. Letztere Beobachtung ist sogar praktisch hinsichtlich der gesundheitsgefährdenden Eigenschaft von Isocyanaten, da so der Einsatz von Isocyanaten reduziert werden kann. Um die schmelzflüssige Verarbeitbarkeit des synthetisierten Polyurethans zu untersuchen, wurden die Schmelzpunkte der Polymere bestimmt. Es konnte in einem Temperaturbereich von 25 °C-410 °C keine Aggregatzustandsänderung, sondern lediglich eine Zersetzungsreaktion beobachtet werden.
Das Thema Prozessorganisation hat die gfo in den letzten Jahren intensiv begleitet und auf mehreren Tagungen eingehend diskutiert. Um den aktuellen Umsetzungsstand der Prozessorganisation in Deutschland zu untersuchen wurde im Jahr 2014 eine empirische Studie durchgeführt. Neben der Ist-Situation liefert die Studie Einsichten in Erwartungen über zukünftige Entwicklungen, Hindernisse und Erfolgsfaktoren der Einführung einer Prozessorganisation sowie zur Zielerreichung durch prozessorientierte Organisationen.
Interne Audits können mehr
(2024)
Dieser Beitrag zeigt, wie das Deutsche Zentrum für Luft- und Raumfahrt e. V. (DLR) Zufriedenheitsanalysen aus zwei Sichtweisen durchführt: Aus Sicht der Auditoren und aus Sicht der Managementbeauftragten der auditierten Institute und Einrichtungen. Die Ergebnisse fließen in die jährliche Auditprogrammplanung ein. Damit wird der Nutzen von internen Audits gesteigert.
Der Befall mit schädlichen Pilzen führt im Weinbau zu Ertragseinbusen sowie zu ökonomischen und ökologischen Belastungen durch den präventiven Einsatz von Fungiziden. Diese könnten durch eine Früherkennung des Befalls verringert werden. Das Projekt vinoLAS® soll die kontaktlose Früherkennung des falschen Mehltaus, einer wichtigen schädlichen Pilzart im Weinbau, ermöglichen. Dabei sollen Methoden der laserinduzierten Fluoreszenzspektroskopie verwendet werden. In dieser Arbeit wird ein Detektionsmodul zur Analyse des laserinduziertem Fluoreszenzlichts in vier spektralen Kanälen entwickelt.
Die Anforderungen an das Detektionsmodul werden festgelegt und die Entwicklung erläutert. Das System lässt sich in einen optischen und elektronischen Aufbau teilen. Das Verhalten des elektronische Aufbaus wird anhand umfangreicher Messungen bestimmt und mit den Anforderungen verglichen. Es wird mit dem optischen Aufbau zu einem Gesamtsystem kombiniert. Mit diesem werden Messungen im vinoLAS® Laboraufbau durchgeführt, welche zur Verifikation mit einer Referenzmessung verglichen werden.
Die Messungen zum elektronischen Aufbau zeigen, dass alle gestellten Anforderungen erfüllt und teilweise übertroffen werden. Das entstandene Gated-Integrator System ist mit einem, deutlich teureren, kommerziellen Gated-Integrator vergleichbar, bietet dabei aber doppelt so viele Kanäle und ein 44% geringeres Rauschen. Mit der Diskussion der Messdaten werden außerdem Ansätze vorgestellt, die eine kostengünstige weiter Verbesserung des elektronischen Systems ermöglichen.
Die Messungen mit dem Gesamtsystem zeigen eine qualitative Übereinstimmung mit der Referenzmessung, es sind jedoch noch quantitative Abweichungen vorhanden, die weiter untersucht werden müssen. Außerdem zeigt sich, dass die Qualität der Messdaten durch eine Schwankung der Laserfrequenz stark eingeschränkt wird. Eine leicht implementierbare und kostengünstige Lösung für dieses Problem wird jedoch vorgestellt.
Nach Umsetzung der beiden Verbesserungsvorschläge kann das System in den vinoLAS® Aufbau integriert werden und so eine kontaktlose Früherkennung von falschem Mehltau in Weinreben ermöglichen.
Die Wahrnehmung des perzeptionellen Aufrecht (perceptual upright, PU) variiert in Abhängigkeit der Gewichtung verschiedener gravitationsbezogener und körperbasierter Merkmale zwischen Kontexten und aufgrund individueller Unterschiede. Ziel des Vorhabens war es, systematisch zu untersuchen, welche Zusammenhänge zwischen visuellen und gravitationsbedingten Merkmalen bestehen. Das Vorhaben baute auf vorangegangen Untersuchungen auf, deren Ergebnisse indizieren, dass eine Gravitation von ca. 0,15g notwendig ist, um effiziente Selbstorientierungsinformationen bereit zu stellen (Herpers et. al, 2015; Harris et. al, 2014).
In dem hier beschriebenen Vorhaben wurden nun gezielt künstliche Gravitationsbedingungen berücksichtigt, um die Gravitationsschwelle, ab der ein wahrnehmbarer Einfluss beobachtbar ist, genauer zu quantifizieren bzw. die oben genannte Hypothese zu bestätigen. Es konnte gezeigt werden, dass die zentripetale Kraft, die auf einer rotierenden Zentrifuge entlang der Längsachse des Körpers wirkt, genauso efektiv wie Stehen mit normaler Schwerkraft ist, um das Gefühl des perzeptionellen Aufrechts auszulösen. Die erzielten Daten deuten zudem darauf hin, dass ein Gravitationsfeld von mindestens 0,15 g notwendig ist, um eine efektive Orientierungsinformation für die Wahrnehmung von Aufrecht zu liefern. Dies entspricht in etwa der Gravitationskraft von 0,17 g, die auf dem Mond besteht. Für eine lineare Beschleunigung des Körpers liegt der vestibulare Schwellenwert bei etwa 0,1 m/s2 und somit liegt der Wert für die Situation auf dem Mond von 1,6 m/s2 deutlich über diesem Schwellenwert.
Qualität der Qualitätsprüfung: Testberichte im klassischen und modernen Videospieljournalismus
(2022)
Die Hochzeit des gedruckten Videospieljournalismus um die Jahrtausendwende ist vorüber. Seit über 15 Jahren sind die verkauften Auflagen der klassischen Videospielzeitschriften wie Gamestar oder PC Games rückläufig. Andere Magazine wurden zwischenzeitlich aus wirtschaftlichen Gründen eingestellt, darunter PC Action oder auch der einstige Marktführer Computer Bild Spiele. Trotzdem entwickelte sich eine journalistische Gegenbewegung, die Kieron Gillen im Jahr 2004 in seinem Manifest "The New Games Journalism" begründete. Es entstanden in Deutschland Videospielzeitschriften wie GAIN oder WASD, deren Berichterstattung Videospiele weniger als Produkt, sondern zunehmend als künstlerisches Objekt wahrnehmen und sie in einen gesellschaftlichen und kulturellen Kontext einordnen.
Ungeachtet dessen erfolgt in den Redaktionen eine technische und inhaltliche Sichtung der Videospiele, die dem Publikum als Testbericht präsentiert wird. Da es sich dabei aus historischer Perspektive um den Kerninhalt von Videospielzeitschriften handelt, soll dieser als Analysegegenstand dieser Arbeit dienen und ein Indiz für die Qualität der Magazine als Ganzes sein. Mit Blick auf die unterschiedlichen Entwicklungen im Videospieljournalismus soll folgende Frage beantwortet werden: Verfügen moderne Videospielzeitschriften über eine höhere Qualität als klassische Magazine? Dazu erfolgt eine qualitative Inhaltsanalyse der Testberichte und ein Vergleich mit etablierten Qualitätsmerkmalen aus dem allgemeinen Journalismus, ebenso wie dem Fach-, Nutzwert- und Videospieljournalismus.
Auswirkungen einer anhaltenden, inflationären Geldpolitik in der Eurozone auf den privaten Sparer
(2022)
Die vorliegende Bachelorarbeit setzt sich kritisch mit den Auswirkungen einer anhaltenden, inflationären Geldpolitik in der Eurozone auf den privaten Sparer auseinander. Im Rahmen dieser Arbeit wird aufgezeigt, wie die starke Erhöhung der Geldmenge Einfluss auf die Möglichkeiten und Entscheidungen des Sparers hat und wie weit eine solche Geldpolitik mit den Interessen des Sparers vereinbar ist.
Verschiedene intelligente Heimautomatisierungsgeräte wie Lampen, Schlösser und Thermostate verbreiten sich rasant im privaten Umfeld. Ein typisches Kommunikationsprotokoll für diese Geräteklasse ist Bluetooth Low Energy (BLE). In dieser Arbeit wird eine strukturierte Sicherheitsanalyse für BLE vorgestellt. Die beschriebene Vorgehensweise kategorisiert bekannte Angriffsvektoren und beschreibt einen möglichen Aufbau für eine Analyse. Im Zuge dieser Arbeit wurden einige sicherheitsrelevante Probleme aufgedeckt, die es Angreifern ermöglichen die Geräte vollständig zu übernehmen. Es zeigte sich, dass im Standard vorgesehene Sicherheitsfunktionen wie Verschlüsselung und Integritätsprüfungen häufig gar nicht oder fehlerhaft implementiert sind.
Die vorliegende Studie untersucht als Erste simultan die Auswirkungen des dreidimensionalen Konstrukts der prozeduralen, distributiven und kommunikativen Lohntransparenz auf Arbeitnehmer, auch unter Berücksichtigung von persönlichen Einstellungen und dem tatsächlichen Gehalt anhand einer deutschen Stichprobe (N = 159). Hierfür wurden Angestellte in einer querschnittlichen Online-Fragebogenstudie zu der wahrgenommenen Lohntransparenz in ihrer Organisation sowie zu weiteren arbeitnehmer- und organisationsrelevanten Variablen befragt. Mittels regressionsanalytischer Untersuchungen konnten hypothesenkonform positive Zusammenhänge der Lohntransparenz mit der Lohnzufriedenheit, der Wahrnehmung prozeduraler und distributiver Gerechtigkeit sowie mit dem Empfinden organisationalen Vertrauens nachgewiesen werden. Von wesentlicher Bedeutung für die Zusammenhänge war allerdings lediglich die prozedurale Lohntransparenz als eine der drei Dimensionen. Weiterhin ergaben Moderatoranalysen, dass ein geringes Bedürfnis nach informationeller Privatheit sowie ein geringes Bruttoentgelt die positiven Zusammenhänge der Lohntransparenz mit den Kriteriumsvariablen partiell verstärken. Abschließend werden Implikationen der Befunde für die Forschung und Praxis vor dem Hintergrund der Einschränkungen, denen diese Studie unterliegt, erläutert.
Due to the COVID-19 pandemic, health education programs and workplace health promotion (WHP) could only be offered under difficult conditions, if at all. In Germany for example, mandatory lockdowns, working from home, and physical distancing have led to a sharp decline in expenditure on prevention and health promotion from 2019 to 2020. At the same time, the pandemic has negatively affected many people’s mental health. Therefore, our goal was to examine audiovisual stimulation as a possible measure in the context of WHP, because its usage is contact-free, time flexible, and offers, additionally, voice-guided health education programs. In an online survey following a cross-sectional single case study design with 393 study participants, we examined the associations between audiovisual stimulation and mental health, work engagement, and burnout. Using multiple regression analyses, we could identify positive associations between audiovisual stimulation and mental health, burnout, and work engagement. However, longitudinal data are needed to further investigate causal mechanisms between mental health and the use of audiovisual stimulation. Nevertheless, especially with regard to the pandemic, audiovisual stimulation may represent a promising measure for improving mental health at the workplace.
Das AD 2000-Regelwerk ist der dominierende Standard für den Druckbehälterbau in Deutschland. Die bereits in anderen europäischen Ländern verbreitete DIN EN 13445 findet kaum Berücksichtigung. Dies allerdings zu Unrecht, denn ein aktueller Vergleich, der im Rahmen einer Bachelorarbeit durchgeführte wurde, zeigt: Die EN 13445 ist zu einer echten Alternative gereift. Gerade das Hauptargument gegen eine Umstellung, die steigenden Kosten, ist längst überholt.
Unsere interdisziplinäre Forschungsarbeit „Die Gestaltung wirksamer Bildsymbole für Verarbeitungszwecke und ihre Folgen für Betroffene“ („Designing Effective Privacy Icons through an Interdisciplinary Research Methodology“) baut auf dem „Data Protection by Design“-Ansatz (Art. 25(1) DSGVO) auf und zielt auf folgende Forschungsfragen ab: Wie müssen das Transparenzprinzip (Art. 5(1)(a) DSGVO) und die Informationspflichten (Art. 12-14 DSGVO) insbesondere im Hinblick auf die Festlegung der Verarbeitungszwecke (Art. 5(1)(b) DSGVO) umgesetzt werden, damit sie die Nutzer:innen effektiv vor Risiken der Datenverarbeitung schützen? Mit welchen Methoden lässt sich die Wirksamkeit der Umsetzung ermitteln und diese auch durchsetzen?1 Im vorliegenden Projekt erweitern wir juristische Methoden um solche aus der HCI-Forschung (Human Computer Interaction) und der Visuellen Gestaltung. In einer ersten Phase haben wir mit empirischen Methoden der HCI-Forschung untersucht, welche Datennutzungstypen Nutzer:innen technologieübergreifend als relevant empfinden. Diese Erkenntnisse können als Ausgangspunkt für eine neue Zweckbestimmung dienen, die bestimmte Datennutzungstypen deutlicher ein- oder ausschließt. Erste Umformulierungen von Zweckbestimmungen haben wir in zwei Praxisworkshops mit Verantwortlichen der Datenverarbeitung getestet. In einer darauffolgenden qualitativen Studie untersuchten wir dann die Einstellungen und Erwartungen von Internetnutzerinnen und -nutzern am Beispiel der Personalisierung von Internetinhalten, um die entsprechenden Zwecke anhand eines konkreten Beispiels, in unserem Fall der personalisierten Werbung, neu zu formulieren. Auf dieser Basis haben wir nun die zweite Forschungsphase begonnen, in der wir Designs für Datenschutzhinweise und Kontrollmöglichkeiten unter besonderer Berücksichtigung des Verarbeitungszwecks entwickeln. Da der Einsatz von Cookies eine wichtige Rolle bei der Personalisierung von Werbung spielt, ist eine zentrale Aufgaben die Neugestaltung des sogenannten „Cookie-Banners“.
Anfang Januar 2007 trat in Nordrhein-Westfalen (NRW) das Hochschulfreiheitsgesetz (HFG) in Kraft. Mit dem HFG hat sich die Landesregierung in NRW weit aus der Detailsteuerung der Hochschulen zurückgezogen und tritt lediglich noch für existenzielle Schadensereignisse ein. So sind die Hochschulen – Universitäten und Fachhochschulen – in NRW keine staatlichen Einrichtungen mehr, sondern Körperschaften des öffentlichen Rechts in staatlicher Trägerschaft. Hiermit folgt das neue Hochschulgesetz dem hochschulpolitischen Paradigmenwechsel von einem staatlich geplanten, weitgehend einheitlich gestalteten System zu einem durch Profilbildung und Wettbewerb geprägten Hochschulsystem. In diesem Artikel werden die damit verbundenen Problemstellungen und Lösungsoptionen aufgezeigt und als Empfehlung die Einführung eines Chancen- und Risikomanagements beschrieben.
An der H-BRS, einer Hochschule für Angewandte Wissenschaften mit ca. 9.000 Studierenden, wurde die OER-Kultur bewusst als Teil der Strategie zur Digitalisierung der Lehre in drei Schritten etabliert: (1) Gemeinsame Strategiebildung als Teil eines partizipativ erarbeiteten Hochschulentwicklungsplans: Verankerung von OER in der Digitalisierungsstrategie. (2) Basierend auf der Vernetzung der Expertinnen und Experten erfolgreiche Einwerbung von OER-Projekten, die exemplarisch vorgestellt werden. (3) Dauerhafte strategische Verankerung, basierend auf kontinuierlicher interner und externer Netzwerkarbeit, Etablierung von digitalen Austauschplattformen für die Lehrenden, Transfer des OER-Gedankens (Kooperation, Austausch, Mehrfachnutzen) auf die Hochschuldidaktik sowie regelmäßige Ausschreibungen von Fördermaßnahmen.
Hinreichende Datensouveränität gestaltet sich für Verbraucher:innen in der Praxis als äußerst schwierig. Die Europäische Datenschutzgrundverordnung garantiert umfassende Betroffenenrechte, die von verwantwortlichen Stellen durch technisch-organisatorische Maßnahmen umzusetzen sind. Traditionelle Vorgehensweisen wie die Bereitstellung länglicher Datenschutzerklärungen oder der ohne weitere Hilfestellungen angebotene Download von personenbezogenen Rohdaten werden dem Anspruch der informationellen Selbstbestimmung nicht gerecht. Die im Folgenden aufgezeigten neuen technischen Ansätze insbesondere KI-basierter Transparenz- und Auskunftsmodalitäten zeigen die Praktikabilität wirksamer und vielseitiger Mechanismen. Hierzu werden die relevanten Transparenzangaben teilautomatisiert extrahiert, maschinenlesbar repräsentiert und anschließend über diverse Kanäle wie virtuelle Assistenten oder die Anreicherung von Suchergebnissen ausgespielt. Ergänzt werden außerdem automatisierte und leicht zugängliche Methoden für Auskunftsersuchen und deren Aufbereitung nach Art. 15 DSGVO. Abschließend werden konkrete Regulierungsimplikationen diskutiert.