Refine
H-BRS Bibliography
- yes (165)
Departments, institutes and facilities
- Fachbereich Informatik (165) (remove)
Document Type
- Article (44)
- Report (36)
- Conference Object (35)
- Book (monograph, edited volume) (21)
- Part of a Book (19)
- Contribution to a Periodical (3)
- Conference Proceedings (2)
- Doctoral Thesis (2)
- Patent (2)
- Master's Thesis (1)
Year of publication
Language
- German (165) (remove)
Keywords
- Lehrbuch (6)
- Sicherheitslücke (4)
- Usable Privacy (4)
- Usable Security (4)
- Cutting sticks-Problem (3)
- Datenanalyse (3)
- Datenschutz (3)
- Datensicherheit (3)
- Open source software (3)
- Teilsummenaufteilung (3)
Diese Arbeit präsentiert eine Methode zur zuverlässigen Personendetektion für die Absicherung des Arbeitsbereichs von Industrierobotern. Hierzu wird ein im Nahinfrarotbereich (NIR) arbeitendes aktives Kamerasystem eingesetzt, das durch erweiterte und robuste Hauterkennungseigenschaften besonders dazu geeignet ist, zwischen verschiedensten Materialoberflächen und menschlicher Haut zu unterscheiden. So soll zum einen die Erkennungsleistung gegenüber handelsüblichen, im visuellen Bereich arbeitenden RGB-Kamerasystemen gesteigert werden und gleichzeitig eine „intelligente“ Form des Mutings realisiert werden. Die im Rahmen des Projekts „Sichere Personendetektion im Arbeitsbereich von Industrierobotern durch ein aktives NIR-Kamerasystem (SPAI)“ entwickelte und hier vorgestellte Methode erreicht in einer ersten Variante eine pixelweise Personenerkennungsrate von ca. 98,16%.
Mobile Datenkommunikation basiert üblicherweise auf der drahtlosen Anbindung eines Endgerätes an eine Basisstation, die ihrerseits an eine feste Infrastruktur angebunden ist. In vielen Szenarien sind diese Voraussetzungen jedoch nicht gegeben. Beispiele hierfür sind Katastrophen wie Hochwasser, Erdbeben oder Flugzeugabstürze in dünn besiedelten Regionen. Einen Lösungsansatz für sich daraus ergebende Anforderungen bieten dynamisch aufgebaute Ad-Hoc Netze mit einer satellitengestützten Anbindung an eine Festnetz-Infrastruktur. In solchen Netzen stellen die mobilen Terminals die benötigte lokale Infrastruktur selbst dynamisch her. Ziel der hier vorgestellten Arbeiten ist es, die Zuverlässigkeit und Dienstqualität der verwendeten Technologien zu untersuchen und durch geeignete Mechanismen so anzupassen, dass die Anforderungen typischer Applikationen möglichst erfüllt werden. Zur Demonstration wurde ein Prototyp aufgebaut, der unter anderem die Anwendungen "Voice over IP" (VoIP), "Datenbankzugriff im Intranet" und "Internetzugang" (WWW) untersucht.
Zuverlässige Ad-Hoc Kommunikation mobiler Endgeräte mit satellitengestützter Internet-Anbindung
(2005)
Mobile Datenkommunikation basiert üblicherweise auf der drahtlosen Anbindung eines Endgerätes an eine Basisstation, die ihrerseits an eine feste Infrastruktur angebunden ist. In vielen Szenarien sind diese Voraussetzungen jedoch nicht gegeben. Beispiele hierfür sind Hochwasser, Erdbeben oder Flugzeugabstürze in dünn besiedelten Regionen. Einen Lösungsansatz für sich daraus ergebende Anforderungen bieten dynamisch aufgebaute Ad-Hoc Netze mit einer satellitengestützten Anbindung an eine Festnetz-Infrastruktur. In solchen Netzen stellen die mobilen Terminals die benötigte lokale Infrastruktur selbst dynamisch her. Ziel der hier vorgestellten Arbeiten ist es, die Zuverlässigkeit und Dienstqualität der verwendeten Technologien zu untersuchen und durch geeignete Mechanismen so anzupassen, dass die Anforderungen typischer Applikationen möglichst erfüllt werden. Zur Demonstration wurde ein Prototyp aufgebaut, der unter anderem die Anwendungen "Voice over IP" (VoIP), "Datenbankzugriff im Intranet" und Internetzugang (WWW) untersucht.
Studienverläufe von Studenten weichen nicht selten vom offiziell geplanten Curriculum ab. Für eine den Studienerfolg verbessernde Planung und Weiterentwicklung von Studiengängen und Curricula fehlen den Verantwortlichen häufig Erkenntnisse über tatsächliche sowie typischerweise erfolgreiche und weniger erfolgreiche Studienverlaufsmuster. Process-Mining-Techniken können helfen, mehr Transparenz bei der Auswertung von Studienverläufen zu schaffen und so die Erkennung typischer Studienverlaufsmuster, die Überprüfung der Übereinstimmung der konkreten Studienverläufe mit dem vorgegebenen Curriculum sowie eine zielgerechte Verbesserung des Curriculums zu unterstützen.
Gegen unveröffentlichte – nur wenigen Personen bekannte – Sicherheitslücken (Less-than-Zero-Day Vulnerabilities) und diese ausnutzende Angriffsprogramme (Exploits) können IT-Systeme nicht geschützt werden. In der Vergangenheit wurden Sicherheitslücken meist dem Hersteller gemeldet; dieser stellte (allerdings nicht in allen Fällen) eine Fehlerkorrektur zur Verfügung. In jüngerer Zeit werden Sicherheitslücken systematisch (Tool-gestützt) gesucht und an Behörden, Unternehmen und an die organisierte Kriminalität verkauft – und nicht oder nicht sofort dem Hersteller gemeldet. Durch Ausnutzung dieser unveröffentlichten Sicherheitslücken ist Wirtschaftsspionage und Computersabotage (auch der Steuerungsrechner des Internet) unerkannt möglich [GI 2007]. Praktizierte Anwendungen sind – u.a. auch als Titan Rain – dokumentiert [BfDI 2007, Keizer 2006, NSTAC 2007, Pohl 2007, Rath 2007].
Zentrale Archivierung und verteilte Kommunikation digitaler Bilddaten in der Pneumokoniosevorsorge
(2010)
Pneumokoniose-Vorsorgeuntersuchungen erfordern die Befundung einer Röntgenthoraxaufnahme nach ILO-Staublungenklassifikation. Inzwischen werden die benötigten Aufnahmen bereits in großem Umfang digital angefertigt und kommuniziert. Hierdurch entstehen neue Anforderungen an verwendete Technik und Workflow-Mechanismen, um einen effizienten Ablauf von Untersuchung, Befundung und Dokumentation zu gewährleisten.
Vorrichtung zur Authentifikation einer Person anhand mindestens eines biometrischen Parameters
(2008)
Die Vorrichtung zur Authentifikation einer Person anhand mindestens eines biometrischen Parameters, insbesondere anhand eines Fingerabdrucks, ist versehen mit einem Biometrie-Detektor (20) zur Detektion eines biometrischen Parameters, einem Haut-Detektor (24) zur berührungslosen Erkennung lebender menschlicher Haut innerhalb eines Erfassungsbereichs. Der Haut-Detektor (24) weist mindestens eine Gruppe aus mindestens einer Strahlungseinheit (26, 28) und mindestens einer Empfangseinheit (30) auf. Die mindestens eine Strahlungseinheit (26, 28) gibt in Richtung auf den Erfassungsbereich Strahlung bei mindestens zwei unterschiedlichen Wellenlängen im Wellenlängenbereich zwischen 400 nm und 1500 nm ab, wobei mindestens eine der Wellenlängen (26, 28) im Wellenlängenbereich von 900 nm bis 1500 nm liegt und die mindestens eine Empfangseinheit (30) aus dem Erfassungsbereich reflektierte Strahlung empfängt. Ferner ist die Vorrichtung versehen mit einer mit dem Biometer-Detektor (20) und dem Haut-Detektor (24) verbundenen Signalauswerteeinheit (22) zur Auswertung der Intensität der von der Empfangseinheit (30) empfangenen reflektierten Strahlungen der Strahlungseinheit (26, 28). In der Signalauswerteeinheit (22) ist anhand der Intensitäten der von der Empfangseinheit (30) empfangenen reflektierten Strahlungen der Strahlungseinheit (26, 28) bei den zwei unterschiedlichen Wellenlängen ermittelbar, ob der Haut-Detektor lebende menschliche Haut erkennt.
In diesem Beitrag wird der interaktive Volumenrenderer Volt für die NVIDIA CUDA Architektur vorgestellt. Die Beschleunigung wird durch das Ausnutzen der technischen Eigenschaften des CUDA Device, durch die Partitionierung des Algorithmus und durch die asynchrone Ausführung des CUDA Kernels erreicht. Parallelität wird auf dem Host, auf dem Device und zwischen Host und Device genutzt. Es wird dargestellt, wie die Berechnungen durch den gezielten Einsatz der Ressourcen effizient durchgeführt werden. Die Ergebnisse werden zurückkopiert, so dass der Kernel nicht auf dem zur Anzeige bestimmten Device ausgeführt werden muss. Synchronisation der CUDA Threads ist nicht notwendig.
"Visual Computing" (VC) fasst als hochgradig aktuelles Forschungsgebiet verschiedene Bereiche der Informatik zusammen, denen gemeinsam ist, dass sie sich mit der Erzeugung und Auswertung visueller Signale befassen. Im Fachbereich Informatik der FH Bonn-Rhein-Sieg nimmt dieser Aspekt eine zentrale Rolle in Lehre und Forschung innerhalb des Studienschwerpunktes Medieninformatik ein. Drei wesentliche Bereiche des VC werden besonders in diversen Lehreinheiten und verschiedenen Projekten vermittelt: Computergrafik, Bildverarbeitung und Hypermedia-Anwendungen. Die Aktivitäten in diesen drei Bereichen fließen zusammen im Kontext immersiver virtueller Visualisierungsumgebungen.
Dies ist der Tagungsband zum elften aus einer Reihe erfolgreicher Workshops zum Thema Virtuelle und Erweiterte Realität, die von der Fachgruppe VR/AR der Gesellschaft für Informatik e.V. ins Leben gerufen wurde. Als etablierte Plattform für den Informations- und Ideenaustausch der deutschsprachigen VR/AR-Szene bietet der Workshop den idealen Rahmen, aktuelle Ergebnisse und Vorhaben aus Forschung und Entwicklung im Kreise eines fachkundigen Publikums zur Diskussion zu stellen. Insbesondere wollen wir auch jungen Nachwuchswissenschaftlern die Möglichkeit geben, ihre Arbeiten zu präsentieren.
Die Wahrnehmung des perzeptionellen Aufrecht (perceptual upright, PU) variiert in Abhängigkeit der Gewichtung verschiedener gravitationsbezogener und körperbasierter Merkmale zwischen Kontexten und aufgrund individueller Unterschiede. Ziel des Vorhabens war es, systematisch zu untersuchen, welche Zusammenhänge zwischen visuellen und gravitationsbedingten Merkmalen bestehen. Das Vorhaben baute auf vorangegangen Untersuchungen auf, deren Ergebnisse indizieren, dass eine Gravitation von ca. 0,15g notwendig ist, um effiziente Selbstorientierungsinformationen bereit zu stellen (Herpers et. al, 2015; Harris et. al, 2014).
In dem hier beschriebenen Vorhaben wurden nun gezielt künstliche Gravitationsbedingungen berücksichtigt, um die Gravitationsschwelle, ab der ein wahrnehmbarer Einfluss beobachtbar ist, genauer zu quantifizieren bzw. die oben genannte Hypothese zu bestätigen. Es konnte gezeigt werden, dass die zentripetale Kraft, die auf einer rotierenden Zentrifuge entlang der Längsachse des Körpers wirkt, genauso efektiv wie Stehen mit normaler Schwerkraft ist, um das Gefühl des perzeptionellen Aufrechts auszulösen. Die erzielten Daten deuten zudem darauf hin, dass ein Gravitationsfeld von mindestens 0,15 g notwendig ist, um eine efektive Orientierungsinformation für die Wahrnehmung von Aufrecht zu liefern. Dies entspricht in etwa der Gravitationskraft von 0,17 g, die auf dem Mond besteht. Für eine lineare Beschleunigung des Körpers liegt der vestibulare Schwellenwert bei etwa 0,1 m/s2 und somit liegt der Wert für die Situation auf dem Mond von 1,6 m/s2 deutlich über diesem Schwellenwert.
Zur Erreichung des Sachziels Vertraulichkeit werden Daten (Dokumente, Dateien, E-Mails etc.) bei der Speicherung und Übertragung in lokalen Netzen, Intranets und im Internet häufig vom Endanwender verschlüsselt. Die dazu benutzten Schlüssel müssen bei Bedarf für den Endanwender genauso verfügbar sein wie für das Unternehmen bei Nicht-Verfügbarkeit des Endanwenders. Unternehmensinterne Schlüssel-Archive speichern die benutzten Schlüssel oder speichern die Adressen benutzter Schlüssel oder stellen auf andere Weise die benutzten Schlüssel auf Anforderung Berechtigten wieder bereit. Schlüssel-Archive sind aus der auf dem Escrowed Encryption Standard (EES) basierenden Clipper-Initiative der Vereinigten Staaten entstanden und werden dort als Key Recovery Center bezeichnet.
Trusted EPC Administration
(2009)
RFID-Transponder dienen der Identifizierung von Produkten, der Zuordnung von Produkten zu Personen, der Fälschungssicherheit und weiteren Anwendungsgebieten. Durch RFID-Transponder sollen Technologien wie z.B. der Barcode (teilweise) abgelöst werden. Einige Unternehmen sehen eine Koexistenz zwischen den Technologien, da die alte Technologie zur Zeit noch kostengünstiger ist. Einige Branchen, wie z.B. Produktion, Logistik und Handel, können von der Technologie profitieren. Die RFID-Transponder bringen gegenüber alten Technologien viele Vorteile. RFID ermöglicht die Verarbeitung eines größeren Datenvolumens, es ist kein direkter Sichtkontakt zum Lese-/Schreibgerät erforderlich und mehrere Transponder können gleichzeitig ausgewertet werden. Business-to-Business (B2B) Anwender erhoffen sich einen effizienteren und transparenteren Beschaffungsprozess, welcher im Rahmen des Supply-Chain-Managements Vorteile bringen kann. Diese Arbeit legt ihren Schwerpunkt auf die Echtzeitüberwachung während des gesamten Produktlebenszyklus. Zur weltweit eindeutigen Identifikation von Objekten werden dazu in RFID-Transpondern item-level Identifikationsnummern wie der EPC (Electronic Product Code) verwendet.
Die Digitalisierung und der Einsatz von Informations- und Kommunikationstechnologien (ICT) hat im Arbeits- und Privatleben neben einer höheren Produktivität auch zu neuen Formen von psychischem Stress geführt. Das Stresserleben, das mit dem Einsatz von ICT verbunden ist, wird in der Literatur auch als Technostress bezeichnet. Die Forschung zu diesem Thema zeigt, dass die Entstehung von Technostress von individuellen Faktoren abhängt. Die Persönlichkeit von ICT-Anwenderinnen und Anwendern bestimmt nicht nur das Auftreten von Technostress, sondern hat auch Einfluss auf dessen gesundheitliche und leistungsbezogene Folgen. In diesem Literaturreview wird der Forschungsstand zu der Rolle von Persönlichkeitsunterschieden bei der Entstehung von Technostress und dessen Folgen systematisch zusammengefasst. Die Auswertung der relevanten Forschungsartikel erfolgt hinsichtlich verwendeter Variablen, Stichproben und Studiendesigns, statistischer Methoden, Theorien und Frameworks. Abschließend werden der aktuelle Forschungsstand eingeordnet und Forschungslücken aufgezeigt.
In dieser Arbeit wird eine Methode zur Darstellung und Generierung von natürlich wirkendem Bewuchs auf besonders großen Arealen und unter Berücksichtigung ökologischer Faktoren vorgestellt. Die Generierung und Visualisierung von Bewuchs ist aufgrund der Komplexität biologischer Systeme und des Detailreichtums von Pflanzenmodellen ein herausforderndes Gebiet der Computergrafik und ermöglicht es, den Realismus von Landschaftsvisualisierungen erheblich zu steigern. Aufbauend auf [DMS06] wird bei Silva der Bewuchs so generiert, dass die zur Darstellung benötigten Wang-Kacheln und die mit ihnen assoziierten Teilverteilungen wiederverwendet werden können. Dazu wird ein Verfahren vorgestellt, um Poisson Disk Verteilungen mit variablen Radien auf nahtlosen Wang-Kachelmengen ohne rechenintensive globale Optimierung zu erzeugen. Durch die Einbeziehung von Nachbarschaften und frei konfigurierbaren Generierungspipelines können beliebige abiotische und biotische Faktoren bei der Bewuchsgenerierung berücksichtigt werden. Die durch Silva auf Wang-Kacheln erzeugten Pflanzenverteilungen ermöglichen, die darauf aufgebauten beschleunigenden Datenstrukturen bei der Visualisierung wieder zu verwenden. Durch Multi-Level Instancing und eine Schachtelung von Kd-Bäumen ist eine Visualisierung von großen bewachsenen Arealen mit geringen Renderzeiten und geringem Memoryfootprint von Hunderten Quadratkilometern Größe möglich.
Verschiedene intelligente Heimautomatisierungsgeräte wie Lampen, Schlösser und Thermostate verbreiten sich rasant im privaten Umfeld. Ein typisches Kommunikationsprotokoll für diese Geräteklasse ist Bluetooth Low Energy (BLE). In dieser Arbeit wird eine strukturierte Sicherheitsanalyse für BLE vorgestellt. Die beschriebene Vorgehensweise kategorisiert bekannte Angriffsvektoren und beschreibt einen möglichen Aufbau für eine Analyse. Im Zuge dieser Arbeit wurden einige sicherheitsrelevante Probleme aufgedeckt, die es Angreifern ermöglichen die Geräte vollständig zu übernehmen. Es zeigte sich, dass im Standard vorgesehene Sicherheitsfunktionen wie Verschlüsselung und Integritätsprüfungen häufig gar nicht oder fehlerhaft implementiert sind.
Dieser Beitrag betrachtet den Stand der Entwicklung bei der Vernetzung von Fahrzeugen aus Sicht der IT-Sicherheit. Etablierte Kommunikationssysteme und Verkehrstelematikanwendungen im Automobil werden ebenso vorgestellt und diskutiert wie auch zukünftige Kommunikationstechnologien Car-2-Car und Car-2-X. IT-Sicherheit im Automobil ist ein schwieriges Feld, da es hier um eine Integration von neuen innovativen Anwendungen in eine hochkomplexe bestehende Fahrzeugarchitektur geht, die zu keinen neuen Gefährdungen für die Fahrzeuginsassen führen darf. Zudem bleibt die Funktionsweise dieser Anwendungen mit ihren Auswirkungen auf das informationelle Selbstbestimmungsrecht oft intransparent. Die abschließende Diskussion gibt Handlungsempfehlungen aus Sicht der Verbraucher.
Die Entwicklung technischer Produkte strebt nach der Akzeptanz durch den Markt. Das abstrakte Gebilde des Marktes wird aber geprägt durch menschliche Entscheidungen. BenutzerInnen arbeiten gerne mit einem technischen System oder sie lehnen es mehr oder weniger ab. Diese Ablehnung durch die BenutzerInnen führt über kurz oder lang auch zur Ablehnung durch die Entscheidungsträger in Firmen und anderen Institutionen, die gemeinsam mit den privaten BenutzerInnen den Markt ausmachen. Somit steht und fällt der wirtschaftliche Erfolg bei der Entwicklung und Vermarktung technischer Produkte mit dem Maß der erreichten Akzeptanz durch die BenutzerInnen.
Die Normen DIN EN 61508 und DIN EN 62304 beschreiben Sicherheitsanforderungen für die Entwicklung von Software im medizinischen Umfeld. Diese beinhalten u.a. Vorschriften zur Verifikation und Diagnose (Kapitel C5, DIN EN 61508-7), zur Beurteilung der funktionalen Sicherheit (Kapitel C6, DIN EN 61508-7), zur Implementierung und Verifikation von Software-Einheiten (Kapitel 5.5, DIN EN 62304) und zur Prüfung des Softwaresystems (Kapitel 5.7, DIN EN 62304). Durch die kosteneffektiven Verfahren Threat Modeling und Fuzzing wird diesen Forderungen entsprochen und insbesondere die Identifizierung unveröffentlichter Sicherheitslücken ermöglicht. In einem Forschungsprojekt1 werden Tools für beide Verfahren analysiert und bewertet. Im Projekt werden mit beiden Verfahren sehr erfolgreich bislang nicht identifizierte (unveröffentlichte) Sicherheitslücken in Individual- und Standardsoftware identifiziert und auch behoben. Im Rahmen der Gesundheitstelematik können durch beide Verfahren die Anforderungen zur Softwareentwicklung und -Verifizierung erfüllt und darüber hinaus kann ein weit höheres Sicherheitsniveau erreicht werden.
Publikation von Umweltdaten
(2010)
Publikation Umweltdaten
(2009)
Der Programmier-Trainingsplan für alle, die weiter kommen wollen.
In diesem Übungsbuch trainierst du anhand von kurzweiligen und praxisnahen Aufgaben deine Programmierfähigkeiten. Jedes Kapitel beginnt mit einem kurzen Warmup zum behandelten Programmierkonzept; die Umsetzung übst du dann anhand von zahlreichen Workout-Aufgaben. Du startest mit einfachen Aufgaben und steigerst dich hin zu komplexeren Fragestellungen. Damit dir nicht langweilig wird, gibt es über 150 praxisnahe Übungen. So lernst du z. B. einen BMI-Rechner oder einen PIN-Generator zu programmieren oder wie du eine Zeitangabe mit einer analogen Uhr anzeigen kannst. (Verlagsangaben)
Dieses Buch bietet einen leicht verständlichen Einstieg in die Thematik des Data Minings und der Prädiktiven Analyseverfahren. Als Methodensammlung gedacht, bietet es zu jedem Verfahren zunächst eine kurze Darstellung der Theorie und erklärt die zum Verständnis notwendigen Formeln. Es folgt jeweils eine Illustration der Verfahren mit Hilfe von Beispielen, die mit dem Programmpaket R erarbeitet werden.
Zum Abschluss wird eine einfache Möglichkeit präsentiert, mit der die Performancewerte verschiedener Verfahren mit statistischen Mitteln verglichen werden können. Zum Einsatz kommen hierbei geeignete Grafiken und Konfidenzintervalle.
Das Buch verzichtet nicht auf Theorie, es präsentiert jedoch so wenig Theorie wie möglich, aber so viel wie nötig und ist somit optimal für Studium und Selbststudium geeignet.
Im vorliegenden Beitrag wird ein prozess- und serviceorientiertes Rahmenmodell vorgeschlagen, das eine strukturelle und begriffliche Orientierung für das Gebiet der elektronischen Bezahlung bietet. Das Rahmenmodell erlaubt eine ganzheitliche Betrachtung über die Merkmale eines einzelnen Zahlungssystems hinaus. Die systemspezifische Sicht auf die elektronische Zahlung wird zu einem prozessorientierten Phasenmodell verallgemeinert. Mit diesem lassen sich die unterstützenden Services für die elektronische Bezahlung aus Kunden- und Händlersicht systematisch zusammenstellen und beschreiben. Die organisatorische Umsetzung der Serviceprozesse führt zur Rolle des Payment Service Providers, der als Mittler zwischen Anbietern und Anwendern elektronischer Zahlungssysteme agiert.
Open Source ERP-Systeme
(2012)
Mit Free and Open Source Software können die IT-Kosten in erheblichem Umfang gesenkt werden. Wegen ihres hohen Durchdringungsgrades in Unternehmen und des damit verbundenen Kostenblocks gilt dies insbesondere für Free and Open Source (FOS-) ERP-Systeme. Zwar sind die Verbreitung und die Akzeptanz von FOS-ERP-Systemen in den letzten Jahren schon stark angewachsen, durch eine verbesserte Markttransparenz lassen sich aber noch weitere Potenziale erschließen. Bestehende Marktübersichten für FOS-ERP-Systeme sind jedoch wenig umfassend. Vor diesem Hintergrund wurde ein Marktspiegel mit detaillierten Angaben zu den verschiedenen FOS-ERP-Systemen erstellt.
ERP systems are being used throughout the whole enterprise and are therefore responsible for a high percentage of IT expenses. The use of Free and Open Source ERP systems (FOS ERP systems) can help to reduce these IT costs. Though the acceptance of FOS ERP systems has increased enormously in the last years, even more entreprises would use FOS ERP systems to support their order processing, if the FOS ERP market was more transparent. Existing market surveys are less comprehensive. Therefore, a detailed market guide was developed.
Zur Schätzung der Exposition von Oberflächengewässern durch Pflanzenschutzmittel werden PEC-Werte mit Hilfe eines probabilistischen Verfahrens ermittelt. Hierfür werden zunächst verschiedene Regressionsanalysen zur Modellierung der Abdrift durchgeführt. Anschließend wird die ausgewählte Abdriftverteilung mit verschiedenen Verteilungsansätzen für die Aufwandmenge und das Gewässervolumen kombiniert.
Eine Überprüfung der Leistungsentwicklung im Radsport geht bis heute mit der Durchführung einer spezifischen Leistungsdiagnostik unter Verwendung vorgegebener Testprotokolle einher. Durch die zwischenzeitlich stark gestiegene Popularität von »wearable devices« ist es gleichzeitig heutzutage sehr einfach, die Herzfrequenz im Alltag und bei sportlichen Aktivitäten aufzuzeichnen. Doch eine geeignete Modellierung der Herzfrequenz, die es ermöglicht, Rückschlüsse über die Leistungsentwicklung ziehen zu können, fehlt bislang. Die Herzfrequenzaufzeichnungen in Kombination mit einer phänomenologisch interpretierbaren Modellierung zu nutzen, um auf möglichst direkte Weise und ohne spezifische Anforderungen an die Trainingsfahrten Rückschlüsse über die Leistungsentwicklung ziehen zu können, bietet die Chance, sowohl im professionellen Radsport wie auch in der ambitionierten Radsportpraxis den Erkenntnisgewinn über die eigene Leistungsentwicklung maßgeblich zu vereinfachen. In der vorliegenden Arbeit wird ein neuartiges und phänomenologisch interpretierbares Modell zur Simulation und Prädiktion der Herzfrequenz beim Radsport vorgestellt und im Rahmen einer empirischen Studie validiert. Dieses Modell ermöglicht es, die Herzfrequenz (sowie andere Beanspruchungsparameter aus Atemgasanalysen) mit adäquater Genauigkeit zu simulieren und bei vorgegebener Wattbelastung zu prognostizieren. Weiterhin wird eine Methode zur Reduktion der Anzahl der kalibrierbaren freien Modellparameter vorgestellt und in zwei empirischen Studien validiert. Nach einer individualisierten Parameterreduktion kann das Modell mit lediglich einem einzigen freien Parameter verwendet werden. Dieser verbleibende freie Parameter bietet schließlich die Möglichkeit, im zeitlichen Verlauf mit dem Verlauf der Leistungsentwicklung verglichen zu werden. In zwei unterschiedlichen Studien zeigt sich, dass der freie Modellparameter grundsätzlich in der Lage zu sein scheint, den Verlauf der Leistungsentwicklung über die Zeit abzubilden.
Ein SLA (Service Level Agreement) legt alle Punkte einer vertraglichen Zusammenarbeit zwischen Unternehmen und Service Provider verbindlich fest. Ein SLA muss sorgfältig erstellt werden, um ein Vertrauensverhältnis zwischen beiden Seiten herzustellen. Dabei geht es um inhaltliche, organisatorische und technische Anforderungen sowie um eine exakte Festlegung auf verwendete Fachbegriffe und Leistungskriterien. Der vorliegende Beitrag beschreibt Punkt für Punkt den Inhalt eines SLA. Das sind u.a. die Benennung der Vetragspartner, die Leistungskriterien, die die Qualität des Dienstes sicherstellen sowie die Überwachung der Erbringung der vereinbarten Leistung und die Dauer des Vertrages.
Aufgrund eines nahezu gleichlautenden Beschlusses des Kreistages im Rhein-Sieg-Kreis (RSK) und des Hauptausschusses der Stadt Bonn im Jahr 2011 wurden die jeweiligen Verwaltungen beauftragt, gemeinsam mit den Energieversorgern der Region ein Starthilfekonzept Elektromobilität zu entwickeln. In Folge dieses Beschlusses konstituierte sich Ende 2011 ein Arbeitskreis, der aus den Verwaltungen des Rhein-Sieg-Kreises und der Stadt Bonn, den Energieversorgern SWB Energie und Wasser, der Rhenag, den Stadtwerken Troisdorf, der Rheinenergie und den RWE besteht. Die inhaltlichen Schwerpunkte, die inzwischen in drei Arbeitskreisen behandelt werden, umfassen den Ausbau der Ladeinfrastruktur, die Öffentlichkeitsarbeit und die Bereitstellung von Strom aus regenerativen Quellen durch den Zubau entsprechender Anlagen in der Region. Während Maßnahmen zur Öffentlichkeitsarbeit und die Bereitstellung Grünen Stroms aus den Arbeitskreisen direkt bearbeitet und bewegt werden, ist dies aufgrund der Komplexität des Themas und der zahlreichen Einflussgrößen beim Ausbau der Ladeinfrastruktur nicht möglich. Daraus entstand die Überlegung einer Kooperation mit der Hochschule Bonn-Rhein-Sieg.
Studierende unserer Informatik-Studiengänge sehen nach unserer Erfahrung mehrheitlich die Relevanz von Usability und User Experience für eine erfolgreiche Produktentwicklung. Gleichzeitig sind die Studierenden durch ihr Informatik-Studium von der Auseinandersetzung mit Techniken geprägt. Sie zeigen dadurch teils große Schwierigkeiten sich in einem MCI-Kurs mit von der technischen Ebene abstrahierenden Methoden zu befassen. Diese Barriere erschwert es, die Studierenden in der Breite zur Mitarbeit in MCI-Kursen oder anderen auf Methoden ausgerichteten Kursen wie bspw. Requirements Engineering zu motivieren, und stellt Dozenten damit vor Herausforderungen bei der Gestaltung von Informatik-Curricula, die über MCI-Kurse hinausgehen.
Maßgefertigte Abläufe
(2017)
Logiken, Mengen, Relationen, Funktionen, Induktion und Rekursion sind grundlegende mathematische Konzepte und Methoden, die in allen Bereichen der Informatik für die Beschreibung von Problemen und deren Lösung benötigt werden. Das Beherrschen dieser Konzepte und Methoden ist Voraussetzung für das Studium fast aller weiteren Informatik-Module, nicht nur in Bereichen der Mathematik und der Theoretischen Informatik, sondern auch in Bereichen der Praktischen Informatik, wie z.B. Programmierung, Datenstrukturen, Algorithmen und Datenbanken. Das Buch stellt die grundlegenden Begriffe, ihre Eigenschaften und Anwendungsmöglichkeiten schrittweise vor. Das Verständnis der Begriffe und deren Zusammenhang und Zusammenwirken wird u.a. durch Lernziele, integrierte Übungsaufgaben mit Musterlösungen und Marginalien unterstützt; das Buch ist zum Selbststudium geeignet.
Internet, Soziale Netzwerke, Spiele, Smartphones, DVDs, digitaler Rundfunk und digitales Fernsehen funktionieren nur deshalb, weil zu ihrer Entwicklung und Anwendung mathematisch abgesicherte Verfahren zur Verfügung stehen. Dieses Buch vermittelt Einsichten in grundlegende Konzepte und Methoden der Linearen Algebra, auf denen diese Verfahren beruhen. Am Beispiel fehlertoleranter Codierung wird einführend gezeigt, wie diese Konzepte und Methoden in der Praxis eingesetzt werden, und am Beispiel von Quantenalgorithmen, die möglicherweise in Zukunft eine Rolle spielen, wird deutlich, dass die Lineare Algebra zeitinvariante Konzepte, Methoden und Verfahren bereitstellt, mit denen IT-Technologien konzipiert, implementiert, angewendet und weiterentwickelt werden können. Wegen seiner didaktischen Elemente wie Vorgabe von Lernzielen, Zusammenfassungen, Marginalien und einer Vielzahl von Übungen mit Musterlösungen eignet sich das Buch nicht nur als Begleitlektüre zu entsprechenden Informatik- und Mathematik-Lehrveranstaltungen, sondern insbesondere auch zum Selbststudium.
Künstliche Intelligenz (KI) ist aus der heutigen Gesellschaft kaum noch wegzudenken. Auch im Sport haben Methoden der KI in den letzten Jahren mehr und mehr Einzug gehalten. Ob und inwieweit dabei allerdings die derzeitigen Potenziale der KI tatsächlich ausgeschöpft werden, ist bislang nicht untersucht worden. Der Nutzen von Methoden der KI im Sport ist unbestritten, jedoch treten bei der Umsetzung in die Praxis gravierende Probleme auf, was den Zugang zu Ressourcen, die Verfügbarkeit von Experten und den Umgang mit den Methoden und Daten betrifft. Die Ursache für die, verglichen mit anderen Anwendungsgebieten, langsame An- bzw. Übernahme von Methoden der KI in den Spitzensport ist nach Hypothese des Autorenteams auf mehrere Mismatches zwischen dem Anwendungsfeld und den KI-Methoden zurückzuführen. Diese Mismatches sind methodischer, struktureller und auch kommunikativer Art. In der vorliegenden Expertise werden Vorschläge abgeleitet, die zur Auflösung der Mismatches führen können und zugleich neue Transfer- und Synergiemöglichkeiten aufzeigen. Außerdem wurden drei Use Cases zu Trainingssteuerung, Leistungsdiagnostik und Wettkampfdiagnostik exemplarisch umgesetzt. Dies erfolgte in Form entsprechender Projektbeschreibungen. Dabei zeigt die Ausarbeitung, auf welche Art und Weise Probleme, die heute noch bei der Verbindung zwischen KI und Sport bestehen, möglichst ausgeräumt werden können. Eine empirische Umsetzung des Use Case Trainingssteuerung erfolgte im Radsport, weshalb dieser ausführlicher dargestellt wird.
Wo Laborexperimente zu aufwendig, zu teuer, zu langsam oder zu gefährlich oder Stoffeigenschaften gar nicht erst experimentell zugänglich sind, können Computersimulationen von Atomen und Molekülen diese ersetzen oder ergänzen. Sie ermöglichen dadurch Reduktion von Kosten, Entwicklungszeit und Materialeinsatz. Die für diese Simulationen benötigten Molekülmodelle beinhalten zahlreiche Parameter, die der Simulant einstellen oder auswählen muss. Eine passende Parametrierung ist nur bei entsprechenden Kenntnissen über die Auswirkungen der Parameter auf die zu berechnenden Größen und Eigenschaften möglich. Eine Gruppe von Standardparametern in molekularen Simulationen sind die Partialladungen der einzelnen Atome innerhalb eines Moleküls. Die räumliche Ladungsverteilung innerhalb des Moleküls wird durch Punktladungen auf den Atomzentren angenähert. Für diese Annäherung existieren diverse Ansätze für verschiedene Molekülklassen und Anwendungen. In diesem Teilprojekt des Promotionsvorhabens wurde systematisch der Einfluss der Wahl des Partialladungssatzes auf potentielle Energien und ausgewählte makroskopische Eigenschaften aus Molekulardynamik-Simulationen evaluiert. Es konnte gezeigt werden, dass insbesondere bei stark polaren Molekülen die Auswahl des geeigneten Partialladungssatzes entscheidenden Einfluss auf die Simulationsergebnisse hat und daher nicht naiv, sondern nur ganz gezielt getroffen werden darf.
Das Interesse an Virtual Reality (VR) für die Hochschullehre steigt aktuell vermehrt durch die Möglichkeit, logistisch schwierige Aufgaben abzubilden sowie aufgrund positiver Ergebnisse aus Wirksamkeitsstudien. Gleichzeitig fehlt es jedoch an Studien, die immersive VR-Umgebungen, nicht-immersive Desktop-Umgebungen und konventionelle Lernmaterialien gegenüberstellen und lehr-lernmethodische Aspekte evaluieren. Aus diesem Grund beschäftigt sich dieser Beitrag mit der Konzeption und Realisierung einer Lernumgebung für die Hochschullehre, die sowohl mit einem Head Mounted Display (HMD) als auch mittels Desktops genutzt werden kann, sowie deren Evaluation anhand eines experimentellen Gruppendesigns. Die Lernumgebung wurde auf Basis einer eigens entwickelten Softwareplattform erstellt und die Wirksamkeit mithilfe von zwei Experimentalgruppen – VR vs. Desktop-Umgebung – und einer Kontrollgruppe evaluiert und verglichen. In einer Pilotstudie konnten sowohl qualitativ als auch quantitativ positive Einschätzungen der Usability der Lernumgebung in beiden Experimentalgruppen herausgestellt werden. Darüber hinaus zeigten sich positive Effekte auf die kognitive und affektive Wirkung der Lernumgebung im Vergleich zu konventionellen Lernmaterialien. Unterschiede zwischen der Nutzung als VR- oder Desktop-Umgebung zeigen sich auf kognitiver und affektiver Ebene jedoch kaum. Die Analyse von Log-Daten deutet allerdings auf Unterschiede im Lern- und Explorationsverhalten hin.
Als Basis für Simulationen innerhalb virtueller Umgebungen werden meist unterliegende Semantiken benötigt. Im Fall von Verkehrssimulationen werden in der Regel definierte Verkehrsnetzwerke genutzt. Die Erstellung dieser Netzwerke wird meist per Hand durchgeführt, wodurch sie fehleranfällig ist und viel Zeit erfordert. Dieses Projekt wurde im Rahmen des AVeSi Projektes durchgeführt, in dem an der Entwicklung einer realistischen Verkehrssimulation für virtuelle Umgebung geforscht wird. Der im Projekt angestrebte Simulationsansatz basiert auf der Nutzung von zwei Komplexitätsebenen – einer mikroskopischen und einer mesoskopischen. Um einen Übergang zwischen den Simulationsebenen zu realisieren ist eine Verknüpfung der Verkehrsnetzwerke notwendig, was ebenfalls mit einem hohen Zeitaufwand verbunden ist. In diesem Bericht werden Modelle für Verkehrsnetzwerke beider Ebenen vorgestellt. Anschließend wird ein Ansatz beschrieben, der eine automatische Generierung und Verknüpfung von Verkehrsnetzwerken beider Modelle ermöglicht. Als Grundlage für die Generierung der Netzwerke dienen Daten im OpenDRIVE®-Format. Zur Evaluierung wurden wirklichkeitsgetreue OpenStreetMap-Daten, durch Verwendung einer Drittanbietersoftware, in OpenDRIVE®-Datensätze überführt. Es konnte nachgewiesen werden, dass es durch den Ansatz möglich ist, innerhalb weniger Minuten, große Verkehrsnetzwerke zu erzeugen, auf denen unmittelbar Simulationen ausgeführt werden können. Die Qualität der zur Evaluierung generierten Netzwerke reicht jedoch für Umgebungen, in denen ein hoher Realitätsgrad gefordert wird, nicht aus, was einen zusätzlichen Bearbeitungsschritt notwendig macht. Die Qualitätsprobleme konnten darauf zurückgeführt werden, dass der Detailgrad, der den Evaluierungsdaten zu Grunde liegenden OpenStreetMap-Daten, nicht hoch genug und der Überführungsprozess nicht ausreichend transparent ist.
Für die prototypische Erstellung von Virtual Reality (VR) Szenen auf Grundlage realer Umgebungen bieten sich Daten aus aktuellen Panorama-Kameras an. Diese Daten eignen sich jedoch nicht unmittelbar für die Integration in eine Game Engine. Wir stellen daher ein projektionsbasiertes Verfahren vor, mit dem Bilder und Videos im Fischaugenformat, wie sie z.B. die 360 Kamera Ricoh Theta erstellt, ohne Konvertierung in Echtzeit mit Hilfe der Unity Game Engine visualisiert werden können. Es wird weiterhin gezeigt, dass ein Panoramabild mit diesem Verfahren leicht manuell um grobe Tiefeninformation erweitert werden kann, sodass bei einer Darstellung in VR ein grober räumlicher Eindruck der Szene für einfach prototypische Umsetzungen ermöglicht wird.
In den letzten Jahren haben sich elektronische Zahlungssysteme als populäre Alternative zur klassischen Bargeldzahlung etabliert. Diese Zahlungssysteme bestehen in der Regel aus zwei elementaren Komponenten: einem Terminal und einer Kasse. Damit ist der Käufer eines Produktes in der Lage, seine Schuld gegenüber dem Verkäufer bargeldlos und elektronisch zu begleichen. Die dabei am Häufigsten anfallenden Geschäftsprozesse, das Buchen und das Stornieren von Zahlungsbelegen, werden hierbei als Transaktionen bezeichnet, da diese entweder vollständig gelingen oder im Fehlerfall ohne Auswirkungen bleiben müssen. In diesem Buch wird daher die Implementierung eines zuverlässigen Zahlungssystems mit einem TeleCash-Terminal dargestellt. Dabei werden in den geforderten Geschäftsprozessen die wichtigen Transaktionseigenschaften sichergestellt. Es werden dazu zunächst die Grundlagen von Transaktionen erarbeitet und ein geeignetes Transaktionskonzept entwickelt. Anschließend wird die konkrete Realisierung des Systems mit Hilfe der Java Transaction Services durchgeführt. Abschließend wird das entstandene System hinsichtlich seiner Transaktionseigenschaften untersucht.
Honeypots und Honeynets
(2004)
Diese Theorie-Einführung hat konsequent praktische Anwendungen im Blick. Seien es Workflow-Systeme, Web Services, Verschlüsselung von Informationen, Authentifizierungsprotokolle oder selbstfahrende Autos - all diese Technologien haben enge Bezüge zu den theoretischen Grundlagen der Informatik. So trägt das Buch dazu bei, dass Studierende die Grundlagen der Theoretischen Informatik nicht nur verstehen, sondern auch anwenden können, um effektiv und produktiv an informationstechnischen Problemlösungen mitwirken zu können. Wegen seiner speziellen inhaltlichen und didaktischen Qualität ist das Buch neben dem Einsatz in der Lehre auch für das Selbststudium geeignet.
Die Fachhochschulen haben sich als Hochschulen für angewandte Wissenschaften seit ihrer Gründung Anfang der 70er Jahre deutlich gewandelt. Das Fächerportfolio vieler Fachhochschulen ist inzwischen mit jenem der Universitäten vergleichbar. In einigen Fächern bilden die Fachhochschulen sogar den überwiegenden Anteil von Absolventen aus. Die anwendungsorientierte Spitzenforschung gehört zum Selbstverständnis vieler Fachhochschulen. Vor diesem Hintergrund ist es unverständlich und für die wirtschaftliche Zukunftsfähigkeit schädlich, dass Fachhochschulen immer noch deutliche Wettbewerbsnachteile in der Weiterqualifizierung des wissenschaftlichen Nachwuchses haben. Dies gilt umso mehr, wenn mit Fachhochschulen vergleichbaren privaten Hochschulen das Promotionsrecht zugestanden wird.