Refine
H-BRS Bibliography
- yes (20)
Departments, institutes and facilities
- Fachbereich Informatik (11)
- Fachbereich Ingenieurwissenschaften und Kommunikation (3)
- Institute of Visual Computing (IVC) (3)
- Fachbereich Wirtschaftswissenschaften (2)
- Institut für Technik, Ressourcenschonung und Energieeffizienz (TREE) (2)
- Präsidium (2)
- Fachbereich Sozialpolitik und Soziale Sicherung (1)
- Institut für Medienentwicklung und -analyse (IMEA) (1)
- Internationales Zentrum für Nachhaltige Entwicklung (IZNE) (1)
- Stabsstelle Kommunikation und Marketing (1)
Document Type
- Report (20) (remove)
Year of publication
Language
- German (20) (remove)
Has Fulltext
- yes (20) (remove)
Keywords
- Cutting sticks-Problem (3)
- Teilsummenaufteilung (3)
- Mengenpartitionsproblem (2)
- Verkehrssimulation (2)
- virtuelle Umgebungen (2)
- AOD (1)
- Algorithmische Informationstheorie (1)
- Allgegenwärtige Spiele (1)
- Analyse (1)
- Aufrecht (1)
Anhand detaillierter Netzanalysen für ein reales Mittelspannungsnetzgebiet konnte gezeigt werden, dass sowohl die Einbindung von Prognosedaten auf Basis von Satelliten und Wetterdaten, als auch die Verbesserung von Folgetagsprognosen auf der Basis numerischer Wettermodelle einen deutlichen Mehrwert für ein prognosebasiertes Engpassmanagement bzw. Redispatch und Blindleistungsmanagement im Verteilnetz aufweisen. Auch Kurzfristprognosen auf der Basis von Satellitendaten haben einen positiven Effekt. Ein weiterer wichtiger Mehrwert des Projektes ist auch die Rückmeldung der kritischen Prognosesituationen aus Sicht der Anwendungsfälle, so dass wie bereits im Projekt gezeigt und darüber hinaus, Prognosen zielgerichteter auf die Anwendung im Verteilnetzbetrieb ausgelegt und optimiert werden können.
Weiterhin konnten Prognoseverbesserungen für das Vorhersagemodell des Deutschen Wetterdienstes durch die Assimilation von sichtbaren Satellitenbildern erreicht werden. Darüber hinaus wurden Wolken- und Strahlungsprodukte aus Satelliten verbessert und somit die Datenbasis für die Kurzfristprognose als auch für die Assimilation.
Darüber hinaus wurden verschiedene Methoden entwickelt, die zukünftig zu einer weiteren Prognoseverbesserung, insbesondere für Wettersituationen mit hohen Prognosefehlern, führen könnten. Solche Situationen wurden aus Sicht des Netzbetriebs und mithilfe von satellitenbasierten Analysen der Gesamtwetterlage für die Perioden der MetPVNet Messkampagnen identifiziert. Hierbei handelte es sich insbesondere um Situationen mit starker oder stark wechselhafter Bewölkung.
Für die MetPVNet Messkampagnen wurde auf der Basis eines Trainingsdatensatzes und in Abhängigkeit der Variabilitätsklasse die Abweichung der bodennahen Einstrahlung von Satellitendaten oder von Strahlungsprognosen quantifiziert. Diese Art der Informationen bietet zukünftig die Möglichkeit zur Bewertung der Prognosegüte.
AErOmAt Abschlussbericht
(2020)
Das Projekt AErOmAt hatte zum Ziel, neue Methoden zu entwickeln, um einen erheblichen Teil aerodynamischer Simulationen bei rechenaufwändigen Optimierungsdomänen einzusparen. Die Hochschule Bonn-Rhein-Sieg (H-BRS) hat auf diesem Weg einen gesellschaftlich relevanten und gleichzeitig wirtschaftlich verwertbaren Beitrag zur Energieeffizienzforschung geleistet. Das Projekt führte außerdem zu einer schnelleren Integration der neuberufenen Antragsteller in die vorhandenen Forschungsstrukturen.
Die Wahrnehmung des perzeptionellen Aufrecht (perceptual upright, PU) variiert in Abhängigkeit der Gewichtung verschiedener gravitationsbezogener und körperbasierter Merkmale zwischen Kontexten und aufgrund individueller Unterschiede. Ziel des Vorhabens war es, systematisch zu untersuchen, welche Zusammenhänge zwischen visuellen und gravitationsbedingten Merkmalen bestehen. Das Vorhaben baute auf vorangegangen Untersuchungen auf, deren Ergebnisse indizieren, dass eine Gravitation von ca. 0,15g notwendig ist, um effiziente Selbstorientierungsinformationen bereit zu stellen (Herpers et. al, 2015; Harris et. al, 2014).
In dem hier beschriebenen Vorhaben wurden nun gezielt künstliche Gravitationsbedingungen berücksichtigt, um die Gravitationsschwelle, ab der ein wahrnehmbarer Einfluss beobachtbar ist, genauer zu quantifizieren bzw. die oben genannte Hypothese zu bestätigen. Es konnte gezeigt werden, dass die zentripetale Kraft, die auf einer rotierenden Zentrifuge entlang der Längsachse des Körpers wirkt, genauso efektiv wie Stehen mit normaler Schwerkraft ist, um das Gefühl des perzeptionellen Aufrechts auszulösen. Die erzielten Daten deuten zudem darauf hin, dass ein Gravitationsfeld von mindestens 0,15 g notwendig ist, um eine efektive Orientierungsinformation für die Wahrnehmung von Aufrecht zu liefern. Dies entspricht in etwa der Gravitationskraft von 0,17 g, die auf dem Mond besteht. Für eine lineare Beschleunigung des Körpers liegt der vestibulare Schwellenwert bei etwa 0,1 m/s2 und somit liegt der Wert für die Situation auf dem Mond von 1,6 m/s2 deutlich über diesem Schwellenwert.
Bei der Übertragung und Speicherung von Daten ist es eine wesentliche Frage, inwieweit die Daten komprimiert werden können, ohne dass deren Informationsgehalt verloren geht.
Ein Maß für den Informationsgehalt von Daten ist also von grundlegender Bedeutung. Vor etwa siebzig Jahren hat C. E. Shannon ein solches Maß eingeführt und damit das Lehr- und Forschungsgebiet der Informationstheorie begründet, welches seit dem bis heute hin wesentlich zur Konzeption und Realisierung von Informationsund Kommunikationstechnologien beigetragen hat. Etwa zwanzig Jahre später hat A. N. Kolmogorov ein anderes Maß für den Informationsgehalt von Daten eingeführt. Während die Shannonsche Informationstheorie zum Curriculum von mathematischen, informatischen und elektrotechnischen Studiengängen gehört, ist die Algorithmische Informationstheorie von Kolmogorov weit weniger bekannt und eher Gegenstand von speziellen Lehrveranstaltungen.
Seit einigen Jahren nimmt allerdings die Beschäftigung mit dieser Theorie zu, zumal in der einschlägigen Literatur von erfolgreichen praktischen Anwendungen der Theorie berichtet wird. Die vorliegende Arbeit gibt eine Einführung in grundlegende Ideen dieser Theorie und beschreibt deren Anwendungsmöglichkeiten bei einigen ausgewählten Problemstellungen der Theoretischen Informatik.
Die Ausarbeitung kann als Skript für einführende Lehrveranstaltungen in die Algorithmische Informationstheorie sowie als Lektüre zur Einarbeitung in die Thematik als Ausgangspunkt für Forschungs- und Entwicklungsarbeiten verwendet werden.
Um das digitale Storytelling für Medienunternehmen lukrativ nutzbar zu machen, existiert eine zunehmende Zahl von Tools, Software also, die das deutlich weniger zeitaufwendige Produzieren mithilfe zur Verfügung stehender Seitenvorlagen möglich machen. Drei oftmals verwendete Tools zur Produktion als auch zur Veröffentlichung von Beiträgen im digitalen Storytelling sind Atavist, Pageflow und Shorthand. Statt eigenem Programmieren können verschiedene multimediale Elemente in der Regel mit wenigen Mausklicks integriert werden. Nicolas Kaufmann beschäftigt sich in seiner Abschlussarbeit zum Bachelor of Science mit dem Thema "Digitales Storytelling - Eine Untersuchung zu Darstellungsformen, Nutzen und Tools".
Studienverläufe von Studenten weichen nicht selten vom offiziell geplanten Curriculum ab. Für eine den Studienerfolg verbessernde Planung und Weiterentwicklung von Studiengängen und Curricula fehlen den Verantwortlichen häufig Erkenntnisse über tatsächliche sowie typischerweise erfolgreiche und weniger erfolgreiche Studienverlaufsmuster. Process-Mining-Techniken können helfen, mehr Transparenz bei der Auswertung von Studienverläufen zu schaffen und so die Erkennung typischer Studienverlaufsmuster, die Überprüfung der Übereinstimmung der konkreten Studienverläufe mit dem vorgegebenen Curriculum sowie eine zielgerechte Verbesserung des Curriculums zu unterstützen.
Das Cutting sticks-Problem ist in seiner allgemeinen Formulierung ein NP-vollständiges Problem mit Anwendungspotenzialen im Bereich der Logistik. Unter der Annahme, dass P ungleich NP (P != NP) ist, existieren keine effizienten, d.h. polynomiellen Algorithmen zur Lösung des allgemeinen Problems.
In diesem Papier werden Ansätze aufgezeigt, mit denen bestimmte Instanzen des Problems effizient berechnet werden können. Für die Berechnung wichtige Parameter werden charakterisiert und deren Beziehung untereinander analysiert.