Refine
H-BRS Bibliography
- yes (165)
Departments, institutes and facilities
- Fachbereich Informatik (165) (remove)
Document Type
- Article (44)
- Report (36)
- Conference Object (35)
- Book (monograph, edited volume) (21)
- Part of a Book (19)
- Contribution to a Periodical (3)
- Conference Proceedings (2)
- Doctoral Thesis (2)
- Patent (2)
- Master's Thesis (1)
Year of publication
Language
- German (165) (remove)
Keywords
- Lehrbuch (6)
- Sicherheitslücke (4)
- Usable Privacy (4)
- Usable Security (4)
- Cutting sticks-Problem (3)
- Datenanalyse (3)
- Datenschutz (3)
- Datensicherheit (3)
- Open source software (3)
- Teilsummenaufteilung (3)
Die Forschung zur kontrovers diskutierten Robotik in der Pflege und Begleitung von Personen mit Demenz steht noch am Anfang, wenngleich bereits erste Systeme auf dem Markt sind. Der Beitrag gibt entlang beispielhafter, fallbezogener Auszüge Einblicke in das laufende multidisziplinäre Projekt EmoRobot, das sich explorativ und interpretativ mit der Erkundung des Einsatzes von Robotik in der emotionsorientierten Pflege und Versorgung von Personen mit Demenz befasst. Fokussiert werden dabei die je eigenen Relevanzen der Personen mit Demenz.
In diesem Artikel wird darüber berichtet, ob die Glaubwürdigkeit von Avataren als mögliches Modulationskriterium für die virtuelle Expositionstherapie von Agoraphobie in Frage kommt. Dafür werden mehrere Glaubwürdigkeitsstufen für Avatare, die hypothetisch einen Einfluss auf die virtuelle Expositionstherapie von Agoraphobie haben könnten sowie ein potentielles Expositionsszenario entwickelt. Die Arbeit kann innerhalb einer Studie einen signifikanten Einfluss der Glaubwürdigkeitsstufen auf Präsenz, Kopräsenz und Realismus aufzeigen.
Bei der Übertragung und Speicherung von Daten ist es eine wesentliche Frage, inwieweit die Daten komprimiert werden können, ohne dass deren Informationsgehalt verloren geht.
Ein Maß für den Informationsgehalt von Daten ist also von grundlegender Bedeutung. Vor etwa siebzig Jahren hat C. E. Shannon ein solches Maß eingeführt und damit das Lehr- und Forschungsgebiet der Informationstheorie begründet, welches seit dem bis heute hin wesentlich zur Konzeption und Realisierung von Informationsund Kommunikationstechnologien beigetragen hat. Etwa zwanzig Jahre später hat A. N. Kolmogorov ein anderes Maß für den Informationsgehalt von Daten eingeführt. Während die Shannonsche Informationstheorie zum Curriculum von mathematischen, informatischen und elektrotechnischen Studiengängen gehört, ist die Algorithmische Informationstheorie von Kolmogorov weit weniger bekannt und eher Gegenstand von speziellen Lehrveranstaltungen.
Seit einigen Jahren nimmt allerdings die Beschäftigung mit dieser Theorie zu, zumal in der einschlägigen Literatur von erfolgreichen praktischen Anwendungen der Theorie berichtet wird. Die vorliegende Arbeit gibt eine Einführung in grundlegende Ideen dieser Theorie und beschreibt deren Anwendungsmöglichkeiten bei einigen ausgewählten Problemstellungen der Theoretischen Informatik.
Die Ausarbeitung kann als Skript für einführende Lehrveranstaltungen in die Algorithmische Informationstheorie sowie als Lektüre zur Einarbeitung in die Thematik als Ausgangspunkt für Forschungs- und Entwicklungsarbeiten verwendet werden.
Warum beeinträchtigen bestimmte Kratzer auf einer CD nicht die Wiedergabequalität? Wie können Datenübertragungen gegen Informationsverlust gesichert werden? Warum und wie funktionieren öffentliche Verschlüsselungssysteme? Worin ist deren Sicherheit begründet? Auf welcher Grundlage werden Routing-Tabellen in Netzwerkknoten erstellt? Wie wird eine optimale Kompression von Daten erreicht?
Diese und viele andere Fragen müssen zufriedenstellend beantwortet werden können, um bestimmte Qualitäten von Informations- und Kommunikationstechnologien zu erreichen. Informatikerinnen und Informatiker aller Studienrichtungen müssen in der Lage sein, diese Technologien erfolgreich einzusetzen und weiterzuentwickeln. Dazu müssen sie die Grundlagen kennen, auf denen diese Technologien basieren.
Internet, Soziale Netzwerke, Spiele, Smartphones, DVDs, digitaler Rundfunk und digitales Fernsehen funktionieren nur deshalb, weil zu ihrer Entwicklung und Anwendung mathematisch abgesicherte Verfahren zur Verfügung stehen. Dieses Buch vermittelt Einsichten in grundlegende Konzepte und Methoden der Linearen Algebra, auf denen diese Verfahren beruhen. Am Beispiel fehlertoleranter Codierung wird einführend gezeigt, wie diese Konzepte und Methoden in der Praxis eingesetzt werden, und am Beispiel von Quantenalgorithmen, die möglicherweise in Zukunft eine Rolle spielen, wird deutlich, dass die Lineare Algebra zeitinvariante Konzepte, Methoden und Verfahren bereitstellt, mit denen IT-Technologien konzipiert, implementiert, angewendet und weiterentwickelt werden können. Wegen seiner didaktischen Elemente wie Vorgabe von Lernzielen, Zusammenfassungen, Marginalien und einer Vielzahl von Übungen mit Musterlösungen eignet sich das Buch nicht nur als Begleitlektüre zu entsprechenden Informatik- und Mathematik-Lehrveranstaltungen, sondern insbesondere auch zum Selbststudium.
Logiken, Mengen, Relationen, Funktionen, Induktion und Rekursion sind grundlegende mathematische Konzepte und Methoden, die in allen Bereichen der Informatik für die Beschreibung von Problemen und deren Lösung benötigt werden. Das Beherrschen dieser Konzepte und Methoden ist Voraussetzung für das Studium fast aller weiteren Informatik-Module, nicht nur in Bereichen der Mathematik und der Theoretischen Informatik, sondern auch in Bereichen der Praktischen Informatik, wie z.B. Programmierung, Datenstrukturen, Algorithmen und Datenbanken. Das Buch stellt die grundlegenden Begriffe, ihre Eigenschaften und Anwendungsmöglichkeiten schrittweise vor. Das Verständnis der Begriffe und deren Zusammenhang und Zusammenwirken wird u.a. durch Lernziele, integrierte Übungsaufgaben mit Musterlösungen und Marginalien unterstützt; das Buch ist zum Selbststudium geeignet.
Informatikerinnen und Informatiker aller Fachrichtungen müssen die grundlegenden Konzepte, Methoden und Verfahren, die der Entwicklung und dem Einsatz von Informations- und Kommunikationstechnologien zugrunde liegen, verstehen und bei der Lösung von Problemen anwenden können. Das Buch stellt die algebraischen und zahlentheoretischen Grundlagen dafür vor und wendet diese bei der Lösung praktischer Problemstellungen, wie modulare Arithmetik, Primzahltests und Verschlüsselung an. Das Verständnis der Begriffe und deren Zusammenhänge und Zusammenwirken wird u.a. durch Lernziele, integrierte Übungsaufgaben mit Musterlösungen und Marginalien unterstützt. Das Buch ist zum Selbststudium gut geeignet.
In dieser Arbeit wird eine Methode zur Darstellung und Generierung von natürlich wirkendem Bewuchs auf besonders großen Arealen und unter Berücksichtigung ökologischer Faktoren vorgestellt. Die Generierung und Visualisierung von Bewuchs ist aufgrund der Komplexität biologischer Systeme und des Detailreichtums von Pflanzenmodellen ein herausforderndes Gebiet der Computergrafik und ermöglicht es, den Realismus von Landschaftsvisualisierungen erheblich zu steigern. Aufbauend auf [DMS06] wird bei Silva der Bewuchs so generiert, dass die zur Darstellung benötigten Wang-Kacheln und die mit ihnen assoziierten Teilverteilungen wiederverwendet werden können. Dazu wird ein Verfahren vorgestellt, um Poisson Disk Verteilungen mit variablen Radien auf nahtlosen Wang-Kachelmengen ohne rechenintensive globale Optimierung zu erzeugen. Durch die Einbeziehung von Nachbarschaften und frei konfigurierbaren Generierungspipelines können beliebige abiotische und biotische Faktoren bei der Bewuchsgenerierung berücksichtigt werden. Die durch Silva auf Wang-Kacheln erzeugten Pflanzenverteilungen ermöglichen, die darauf aufgebauten beschleunigenden Datenstrukturen bei der Visualisierung wieder zu verwenden. Durch Multi-Level Instancing und eine Schachtelung von Kd-Bäumen ist eine Visualisierung von großen bewachsenen Arealen mit geringen Renderzeiten und geringem Memoryfootprint von Hunderten Quadratkilometern Größe möglich.
Diese Theorie-Einführung hat konsequent praktische Anwendungen im Blick. Seien es Workflow-Systeme, Web Services, Verschlüsselung von Informationen, Authentifizierungsprotokolle oder selbstfahrende Autos - all diese Technologien haben enge Bezüge zu den theoretischen Grundlagen der Informatik. So trägt das Buch dazu bei, dass Studierende die Grundlagen der Theoretischen Informatik nicht nur verstehen, sondern auch anwenden können, um effektiv und produktiv an informationstechnischen Problemlösungen mitwirken zu können. Wegen seiner speziellen inhaltlichen und didaktischen Qualität ist das Buch neben dem Einsatz in der Lehre auch für das Selbststudium geeignet.
Zur Schätzung der Exposition von Oberflächengewässern durch Pflanzenschutzmittel werden PEC-Werte mit Hilfe eines probabilistischen Verfahrens ermittelt. Hierfür werden zunächst verschiedene Regressionsanalysen zur Modellierung der Abdrift durchgeführt. Anschließend wird die ausgewählte Abdriftverteilung mit verschiedenen Verteilungsansätzen für die Aufwandmenge und das Gewässervolumen kombiniert.
Dieses Buch bietet einen leicht verständlichen Einstieg in die Thematik des Data Minings und der Prädiktiven Analyseverfahren. Als Methodensammlung gedacht, bietet es zu jedem Verfahren zunächst eine kurze Darstellung der Theorie und erklärt die zum Verständnis notwendigen Formeln. Es folgt jeweils eine Illustration der Verfahren mit Hilfe von Beispielen, die mit dem Programmpaket R erarbeitet werden.
Zum Abschluss wird eine einfache Möglichkeit präsentiert, mit der die Performancewerte verschiedener Verfahren mit statistischen Mitteln verglichen werden können. Zum Einsatz kommen hierbei geeignete Grafiken und Konfidenzintervalle.
Das Buch verzichtet nicht auf Theorie, es präsentiert jedoch so wenig Theorie wie möglich, aber so viel wie nötig und ist somit optimal für Studium und Selbststudium geeignet.
Honeypots und Honeynets
(2004)
Diese Arbeit präsentiert eine Methode zur zuverlässigen Personendetektion für die Absicherung des Arbeitsbereichs von Industrierobotern. Hierzu wird ein im Nahinfrarotbereich (NIR) arbeitendes aktives Kamerasystem eingesetzt, das durch erweiterte und robuste Hauterkennungseigenschaften besonders dazu geeignet ist, zwischen verschiedensten Materialoberflächen und menschlicher Haut zu unterscheiden. So soll zum einen die Erkennungsleistung gegenüber handelsüblichen, im visuellen Bereich arbeitenden RGB-Kamerasystemen gesteigert werden und gleichzeitig eine „intelligente“ Form des Mutings realisiert werden. Die im Rahmen des Projekts „Sichere Personendetektion im Arbeitsbereich von Industrierobotern durch ein aktives NIR-Kamerasystem (SPAI)“ entwickelte und hier vorgestellte Methode erreicht in einer ersten Variante eine pixelweise Personenerkennungsrate von ca. 98,16%.
Vorrichtung zur Authentifikation einer Person anhand mindestens eines biometrischen Parameters
(2008)
Die Vorrichtung zur Authentifikation einer Person anhand mindestens eines biometrischen Parameters, insbesondere anhand eines Fingerabdrucks, ist versehen mit einem Biometrie-Detektor (20) zur Detektion eines biometrischen Parameters, einem Haut-Detektor (24) zur berührungslosen Erkennung lebender menschlicher Haut innerhalb eines Erfassungsbereichs. Der Haut-Detektor (24) weist mindestens eine Gruppe aus mindestens einer Strahlungseinheit (26, 28) und mindestens einer Empfangseinheit (30) auf. Die mindestens eine Strahlungseinheit (26, 28) gibt in Richtung auf den Erfassungsbereich Strahlung bei mindestens zwei unterschiedlichen Wellenlängen im Wellenlängenbereich zwischen 400 nm und 1500 nm ab, wobei mindestens eine der Wellenlängen (26, 28) im Wellenlängenbereich von 900 nm bis 1500 nm liegt und die mindestens eine Empfangseinheit (30) aus dem Erfassungsbereich reflektierte Strahlung empfängt. Ferner ist die Vorrichtung versehen mit einer mit dem Biometer-Detektor (20) und dem Haut-Detektor (24) verbundenen Signalauswerteeinheit (22) zur Auswertung der Intensität der von der Empfangseinheit (30) empfangenen reflektierten Strahlungen der Strahlungseinheit (26, 28). In der Signalauswerteeinheit (22) ist anhand der Intensitäten der von der Empfangseinheit (30) empfangenen reflektierten Strahlungen der Strahlungseinheit (26, 28) bei den zwei unterschiedlichen Wellenlängen ermittelbar, ob der Haut-Detektor lebende menschliche Haut erkennt.
Die Normen DIN EN 61508 und DIN EN 62304 beschreiben Sicherheitsanforderungen für die Entwicklung von Software im medizinischen Umfeld. Diese beinhalten u.a. Vorschriften zur Verifikation und Diagnose (Kapitel C5, DIN EN 61508-7), zur Beurteilung der funktionalen Sicherheit (Kapitel C6, DIN EN 61508-7), zur Implementierung und Verifikation von Software-Einheiten (Kapitel 5.5, DIN EN 62304) und zur Prüfung des Softwaresystems (Kapitel 5.7, DIN EN 62304). Durch die kosteneffektiven Verfahren Threat Modeling und Fuzzing wird diesen Forderungen entsprochen und insbesondere die Identifizierung unveröffentlichter Sicherheitslücken ermöglicht. In einem Forschungsprojekt1 werden Tools für beide Verfahren analysiert und bewertet. Im Projekt werden mit beiden Verfahren sehr erfolgreich bislang nicht identifizierte (unveröffentlichte) Sicherheitslücken in Individual- und Standardsoftware identifiziert und auch behoben. Im Rahmen der Gesundheitstelematik können durch beide Verfahren die Anforderungen zur Softwareentwicklung und -Verifizierung erfüllt und darüber hinaus kann ein weit höheres Sicherheitsniveau erreicht werden.
Threat Modeling ermöglicht als heuristisches Verfahren die methodische Überprüfung eines Systementwurfs oder einer Softwarearchitektur, um Sicherheitslücken kostengünstig und frühzeitig - idealerweise in der Design Phase - im Software-Entwicklungsprozess zu identifizieren, einzugrenzen und zu beheben. Threat Modeling lässt sich aber auch noch erfolgreich in der Verifikationsphase oder noch später - nach dem Release - zur Auditierung der Software einsetzen. Durch die Früherkennung von Sicherheitslücken können die Kosten zur Behebung bis auf ein Hundertstel reduziert werden. Die auf dem Markt verfügbaren Threat Modeling Tools werden identifiziert, analysiert und hinsichtlich Ihrer Eignung zur Erstellung komplexer, vollständiger Threat Models mit entwickelten Bewertungsparametern einem einfachen Bewertungsverfahren unterworfen.
Wo Laborexperimente zu aufwendig, zu teuer, zu langsam oder zu gefährlich oder Stoffeigenschaften gar nicht erst experimentell zugänglich sind, können Computersimulationen von Atomen und Molekülen diese ersetzen oder ergänzen. Sie ermöglichen dadurch Reduktion von Kosten, Entwicklungszeit und Materialeinsatz. Die für diese Simulationen benötigten Molekülmodelle beinhalten zahlreiche Parameter, die der Simulant einstellen oder auswählen muss. Eine passende Parametrierung ist nur bei entsprechenden Kenntnissen über die Auswirkungen der Parameter auf die zu berechnenden Größen und Eigenschaften möglich. Eine Gruppe von Standardparametern in molekularen Simulationen sind die Partialladungen der einzelnen Atome innerhalb eines Moleküls. Die räumliche Ladungsverteilung innerhalb des Moleküls wird durch Punktladungen auf den Atomzentren angenähert. Für diese Annäherung existieren diverse Ansätze für verschiedene Molekülklassen und Anwendungen. In diesem Teilprojekt des Promotionsvorhabens wurde systematisch der Einfluss der Wahl des Partialladungssatzes auf potentielle Energien und ausgewählte makroskopische Eigenschaften aus Molekulardynamik-Simulationen evaluiert. Es konnte gezeigt werden, dass insbesondere bei stark polaren Molekülen die Auswahl des geeigneten Partialladungssatzes entscheidenden Einfluss auf die Simulationsergebnisse hat und daher nicht naiv, sondern nur ganz gezielt getroffen werden darf.
Die Tool-gestützte Identifizierung von Sicherheitslücken kann in verschiedenen Stadien des Software-Entwicklungsprozesses und -Lebenszyklus durchgeführt werden. Mit Fuzzing und Threat-Modeling stehen beispielsweise zwei Methoden zur Verfügung, welche zum Finden von Sicherheitsproblemen auch in produktiv betriebenen Anwendungen eingesetzt werden können. Beim Threat-Modeling handelt es sich um ein heuristisches Verfahren, das die methodische Entwicklung eines vertrauenswürdigen Systementwurfs unterstützt. Mit der Fuzzing-Methode lässt sich die Robustheit der untersuchten Software sowohl mit willkürlichen als auch mit zielgerichteten Daten überprüfen. Im Beitrag werden die Vorgehensweisen beim Einsatz der beiden Methoden skizziert sowie Hinweise auf entsprechende Tools gegeben.
Trusted EPC Administration
(2009)
RFID-Transponder dienen der Identifizierung von Produkten, der Zuordnung von Produkten zu Personen, der Fälschungssicherheit und weiteren Anwendungsgebieten. Durch RFID-Transponder sollen Technologien wie z.B. der Barcode (teilweise) abgelöst werden. Einige Unternehmen sehen eine Koexistenz zwischen den Technologien, da die alte Technologie zur Zeit noch kostengünstiger ist. Einige Branchen, wie z.B. Produktion, Logistik und Handel, können von der Technologie profitieren. Die RFID-Transponder bringen gegenüber alten Technologien viele Vorteile. RFID ermöglicht die Verarbeitung eines größeren Datenvolumens, es ist kein direkter Sichtkontakt zum Lese-/Schreibgerät erforderlich und mehrere Transponder können gleichzeitig ausgewertet werden. Business-to-Business (B2B) Anwender erhoffen sich einen effizienteren und transparenteren Beschaffungsprozess, welcher im Rahmen des Supply-Chain-Managements Vorteile bringen kann. Diese Arbeit legt ihren Schwerpunkt auf die Echtzeitüberwachung während des gesamten Produktlebenszyklus. Zur weltweit eindeutigen Identifikation von Objekten werden dazu in RFID-Transpondern item-level Identifikationsnummern wie der EPC (Electronic Product Code) verwendet.
Kompetenzen auf dem Gebiet der Datenbanken gehören zum Pflichtbereich der Informatik. Das Angebot an Lehrbüchern, Vorlesungsformaten und Tools lässt sich jedoch für Lehrende oft nur eingeschränkt in die eigene Lehre integrieren. In diesem Aufsatz schildern wir unsere Erfahrungen in der Nutzung (frei) verfügbarer und der Entwicklung eigener digitaler Inhalte für grundlegende Datenbankveranstaltungen. Die Präferenzen der Studierenden werden mittels Nutzungsanalysen und Befragungen ermittelt. Wir stellen die Anforderungen auf, wie die nicht selten aufwendig herzustellenden digitalen Materialien von Lehrenden in ihre Lehr- und Lernumgebungen integriert werden können. Als konstruktive Antwort auf diese Herausforderung wird das Konzept EILD zur Entwicklung von Inhalten für die Lehre im Fach Datenbanken vorgestellt. Die Inhalte sollen in vielfältigen Lernszenarien eingesetzt werden können und mit einer Creative Commons (CC) Lizenzierung als OER (open educational resources) frei zur Verfügung stehen.
Was ist dran am Hype um die Cloud? Während Gartner Research bereits von einem Abwärts trend spricht, sehen Prof. Alda und Prof. Bonne von der Hochschule Bonn-Rhein-Sieg viele gewinnbringende Anwendungsszenarien in der Praxis. Insbesondere auf den Finance- und Accounting-Bereich lassen sich die positiven Vorteile einer Cloud- Lösung übertragen.
Zur Erreichung des Sachziels Vertraulichkeit werden Daten (Dokumente, Dateien, E-Mails etc.) bei der Speicherung und Übertragung in lokalen Netzen, Intranets und im Internet häufig vom Endanwender verschlüsselt. Die dazu benutzten Schlüssel müssen bei Bedarf für den Endanwender genauso verfügbar sein wie für das Unternehmen bei Nicht-Verfügbarkeit des Endanwenders. Unternehmensinterne Schlüssel-Archive speichern die benutzten Schlüssel oder speichern die Adressen benutzter Schlüssel oder stellen auf andere Weise die benutzten Schlüssel auf Anforderung Berechtigten wieder bereit. Schlüssel-Archive sind aus der auf dem Escrowed Encryption Standard (EES) basierenden Clipper-Initiative der Vereinigten Staaten entstanden und werden dort als Key Recovery Center bezeichnet.
Fuzzelarbeit: Identifizierung unbekannter Sicherheitslücken und Software-Fehler durch Fuzzing
(2011)
Fuzzing als toolgestützte Identifizierung von Sicherheitslücken wird in der Regel im letzten Stadium der Softwareentwicklung zum Einsatz kommen. Es eignet sich zur Suche nach Sicherheitslücken in jeder Art Software. Die Robustheit der untersuchten Zielsoftware wird beim Fuzzing mit zielgerichteten, unvorhergesehenen Eingabedaten überprüft. Der Fuzzing-Prozess wird im Artikel beschrieben, ebenso die Taxometrie von Fuzzern, die in "dumme" und "intelligente" Fuzzer eingeteilt werden. Die Identifizierung von Sicherheitslücken oder Fehlern in der Zielsoftware erfolgt durch ein umfassendes Monitoring (Debugger, Profiler, Tracker). Die meist große Zahl identifizierter Schwachstellen und Verwundbarkeiten macht eine Bewertung jeder einzelnen erforderlich, weil in der Regel aus Wirtschaftlichkeitsgründen nicht alle behoben werden können. Als wichtige Bewertungsparameter werden genannt: Erkennbarkeit für Dritte, Reproduzierbarkeit, Ausnutzbarkeit, benötigte Zugriffsrechte und generierbarer Schaden. Im Internet werden etwa 300 Tools angeboten. Die Qualität eines Fuzzers lässt sich jedoch nicht pauschal angeben. Die Wirksamkeit und Eignung eines Fuzzers hängen von der Zielsoftware und den individuellen Anforderungen des Testers ab.
In verteilten und offenen Systemen wollen Kommunikationspartner beim Electronic Commerce Dokumente vertraulich, integer und rechtsverbindlich sowie zuordnungsbar authentisch und nachweisbar senden und empfangen. Für die an der Kommunikation beteiligten Kommunikationspartner muß dazu nachvollziehbar sein, wer wann mit wem welche Dokumente ausgetauscht hat. Zur Erreichung des Sachziels 'Vertraulichkeit' werden Dokumente bei der Speicherung auf einem Server und bei der Übertragung (über lokale Netzte, Intranets, Extranets und im Internet) vom Endanwender verschlüsselt. Dazu müssen die benutzten Schlüssel gegen unberechtigte Kenntnisnahme geschützt werden. Gleichzeitig muß auch die Verfügbarkeit der Schlüssel sichergestellt werden: Verschlüsselte Dokumente können nämlich nur dann wieder benutzbar gemacht werden, wenn sie bei berechtigtem Bedarf wieder entschlüsselt werden können. Im Unternehmen ist es deshalb erforderlich, Verfahren einzuführen, die die Verfügbarkeit gespeicherter Dokumente sicherstellen - auch wenn der originäre Inhaber dieser Dokumente nicht verfügbar ist (Reise, Urlaub, Krankheit, Ausscheiden). Schlüssel-Archive - sog. Enterprise Key Recovery Server - bieten die Möglichkeit, verschlüsselt gespeicherte Konzelationsschlüssel Berechtigten wieder zu Verfügung zu stellen. Damit können verschlüsselt gespeicherte Dokumente gespeichert werden. Enterprise Key Recovery Server werden im Rahmen des Projekts SECFORS - Secure Electronic Commerce an der Fachhochschule Rhein-Sieg zusammen mit Studierenden installiert und unter einer Reihe von Aspekten im Rahmen des vom Bundeswirtschaftsministerium geförderten Kompetenzzentrums Electronic Commerce Bonn Rhein-Sieg (KompEC) evaluiert; dazu werden Anforderungen an vertrauenswürdige Enterprise Key Recovery Server formuliert. Der Einsatz von Enterprise Key Recovery Servern ist in den USA Stand der Technik; in deutschen Unternehmen wird der Bedarf insbesondere deswegen differenziert gesehen, weil eine Verschlüsselung gespeicherter und übertragener Daten noch nicht flächendeckend durchgeführt wird.
In der Informationsgesellschaft nehmen auch in Deutschland aggressive und kriminelle Handlungen (Computermißbrauch) ausweislich der jährlichen Kriminalstatistik [BMI02] zu. Weniger Bedeutung wird in Deutschland bisher politisch-motivierten Aktionen beigemessen. Weltweit werden klassische Verfahren wie ziviler Ungehorsam, innere Unruhen und Bürgerkrieg zunehmend durch IT-gestützte Verfahren ergänzt und ersetzt (Transformation). Durch die weltweite Verfügbarkeit der IT-gestützten Verfahren und des Internet muß der - auf einen Staat begrenzte - Begriff des zivilen Ungehorsams genauso wie der der inneren Unruhen und der des klassischen Bürgerkriegs transformiert werden in den ubiquitären Cyberspace. Angesichts zunehmender gewalttätiger Aktivitäten unterhalb der Kriegsschwelle im Cyberspace muß die Sensibilität für die Auswirkungen dieser Aktivitäten dringend geschaffen werden und angemessene Reaktionen müssen auf allen Ebenen (Private, Unternehmen und Behörden) erarbeitet werden.
Gegen unveröffentlichte – nur wenigen Personen bekannte – Sicherheitslücken (Less-than-Zero-Day Vulnerabilities) und diese ausnutzende Angriffsprogramme (Exploits) können IT-Systeme nicht geschützt werden. In der Vergangenheit wurden Sicherheitslücken meist dem Hersteller gemeldet; dieser stellte (allerdings nicht in allen Fällen) eine Fehlerkorrektur zur Verfügung. In jüngerer Zeit werden Sicherheitslücken systematisch (Tool-gestützt) gesucht und an Behörden, Unternehmen und an die organisierte Kriminalität verkauft – und nicht oder nicht sofort dem Hersteller gemeldet. Durch Ausnutzung dieser unveröffentlichten Sicherheitslücken ist Wirtschaftsspionage und Computersabotage (auch der Steuerungsrechner des Internet) unerkannt möglich [GI 2007]. Praktizierte Anwendungen sind – u.a. auch als Titan Rain – dokumentiert [BfDI 2007, Keizer 2006, NSTAC 2007, Pohl 2007, Rath 2007].
Ein SLA (Service Level Agreement) legt alle Punkte einer vertraglichen Zusammenarbeit zwischen Unternehmen und Service Provider verbindlich fest. Ein SLA muss sorgfältig erstellt werden, um ein Vertrauensverhältnis zwischen beiden Seiten herzustellen. Dabei geht es um inhaltliche, organisatorische und technische Anforderungen sowie um eine exakte Festlegung auf verwendete Fachbegriffe und Leistungskriterien. Der vorliegende Beitrag beschreibt Punkt für Punkt den Inhalt eines SLA. Das sind u.a. die Benennung der Vetragspartner, die Leistungskriterien, die die Qualität des Dienstes sicherstellen sowie die Überwachung der Erbringung der vereinbarten Leistung und die Dauer des Vertrages.
Der Mutterpass wurde als wichtiges Vorsorgeinstrument für Schwangere Anfang der sechziger Jahre in Papierform eingeführt. Er wird bei 90% aller Schwangerschaften genutzt. Seit seiner Einführung im Jahre 1968 hat jedoch die Komplexität der Vorsorgeuntersuchungen zugenommen, wie auch die Begleitumstände einer Schwangerschaft häufig komplexer geworden sind. Dies war Anlass dafür, die elektronische Abbildung des Papier basierten Mutterpasses zu entwickeln, um den gewachsenen Anforderungen der medizinischen Dokumentation und Evaluation gerecht zu werden. Eine große Herausforderung bei der Konzeption und Entwicklung des elektronischen Mutterpasses war dabei die Definition eines strukturierten und maschinenlesbaren Austauschformates. Darüber hinaus mussten weltweit neue eindeutige Identifier entwickelt werden, um den Mutterpass elektronisch abzubilden. Nach der prototypischen Realisierung einer vollständigen Version wurde im Frühjahr 2008 die Pilotierung in der Metropolregion Rhein-Neckar begonnen.
Die Entwicklung technischer Produkte strebt nach der Akzeptanz durch den Markt. Das abstrakte Gebilde des Marktes wird aber geprägt durch menschliche Entscheidungen. BenutzerInnen arbeiten gerne mit einem technischen System oder sie lehnen es mehr oder weniger ab. Diese Ablehnung durch die BenutzerInnen führt über kurz oder lang auch zur Ablehnung durch die Entscheidungsträger in Firmen und anderen Institutionen, die gemeinsam mit den privaten BenutzerInnen den Markt ausmachen. Somit steht und fällt der wirtschaftliche Erfolg bei der Entwicklung und Vermarktung technischer Produkte mit dem Maß der erreichten Akzeptanz durch die BenutzerInnen.
Das Interesse an Virtual Reality (VR) für die Hochschullehre steigt aktuell vermehrt durch die Möglichkeit, logistisch schwierige Aufgaben abzubilden sowie aufgrund positiver Ergebnisse aus Wirksamkeitsstudien. Gleichzeitig fehlt es jedoch an Studien, die immersive VR-Umgebungen, nicht-immersive Desktop-Umgebungen und konventionelle Lernmaterialien gegenüberstellen und lehr-lernmethodische Aspekte evaluieren. Aus diesem Grund beschäftigt sich dieser Beitrag mit der Konzeption und Realisierung einer Lernumgebung für die Hochschullehre, die sowohl mit einem Head Mounted Display (HMD) als auch mittels Desktops genutzt werden kann, sowie deren Evaluation anhand eines experimentellen Gruppendesigns. Die Lernumgebung wurde auf Basis einer eigens entwickelten Softwareplattform erstellt und die Wirksamkeit mithilfe von zwei Experimentalgruppen – VR vs. Desktop-Umgebung – und einer Kontrollgruppe evaluiert und verglichen. In einer Pilotstudie konnten sowohl qualitativ als auch quantitativ positive Einschätzungen der Usability der Lernumgebung in beiden Experimentalgruppen herausgestellt werden. Darüber hinaus zeigten sich positive Effekte auf die kognitive und affektive Wirkung der Lernumgebung im Vergleich zu konventionellen Lernmaterialien. Unterschiede zwischen der Nutzung als VR- oder Desktop-Umgebung zeigen sich auf kognitiver und affektiver Ebene jedoch kaum. Die Analyse von Log-Daten deutet allerdings auf Unterschiede im Lern- und Explorationsverhalten hin.
Eine Überprüfung der Leistungsentwicklung im Radsport geht bis heute mit der Durchführung einer spezifischen Leistungsdiagnostik unter Verwendung vorgegebener Testprotokolle einher. Durch die zwischenzeitlich stark gestiegene Popularität von »wearable devices« ist es gleichzeitig heutzutage sehr einfach, die Herzfrequenz im Alltag und bei sportlichen Aktivitäten aufzuzeichnen. Doch eine geeignete Modellierung der Herzfrequenz, die es ermöglicht, Rückschlüsse über die Leistungsentwicklung ziehen zu können, fehlt bislang. Die Herzfrequenzaufzeichnungen in Kombination mit einer phänomenologisch interpretierbaren Modellierung zu nutzen, um auf möglichst direkte Weise und ohne spezifische Anforderungen an die Trainingsfahrten Rückschlüsse über die Leistungsentwicklung ziehen zu können, bietet die Chance, sowohl im professionellen Radsport wie auch in der ambitionierten Radsportpraxis den Erkenntnisgewinn über die eigene Leistungsentwicklung maßgeblich zu vereinfachen. In der vorliegenden Arbeit wird ein neuartiges und phänomenologisch interpretierbares Modell zur Simulation und Prädiktion der Herzfrequenz beim Radsport vorgestellt und im Rahmen einer empirischen Studie validiert. Dieses Modell ermöglicht es, die Herzfrequenz (sowie andere Beanspruchungsparameter aus Atemgasanalysen) mit adäquater Genauigkeit zu simulieren und bei vorgegebener Wattbelastung zu prognostizieren. Weiterhin wird eine Methode zur Reduktion der Anzahl der kalibrierbaren freien Modellparameter vorgestellt und in zwei empirischen Studien validiert. Nach einer individualisierten Parameterreduktion kann das Modell mit lediglich einem einzigen freien Parameter verwendet werden. Dieser verbleibende freie Parameter bietet schließlich die Möglichkeit, im zeitlichen Verlauf mit dem Verlauf der Leistungsentwicklung verglichen zu werden. In zwei unterschiedlichen Studien zeigt sich, dass der freie Modellparameter grundsätzlich in der Lage zu sein scheint, den Verlauf der Leistungsentwicklung über die Zeit abzubilden.
Der Programmier-Trainingsplan für alle, die weiter kommen wollen.
In diesem Übungsbuch trainierst du anhand von kurzweiligen und praxisnahen Aufgaben deine Programmierfähigkeiten. Jedes Kapitel beginnt mit einem kurzen Warmup zum behandelten Programmierkonzept; die Umsetzung übst du dann anhand von zahlreichen Workout-Aufgaben. Du startest mit einfachen Aufgaben und steigerst dich hin zu komplexeren Fragestellungen. Damit dir nicht langweilig wird, gibt es über 150 praxisnahe Übungen. So lernst du z. B. einen BMI-Rechner oder einen PIN-Generator zu programmieren oder wie du eine Zeitangabe mit einer analogen Uhr anzeigen kannst. (Verlagsangaben)
Ziel der achten Auflage des wissenschaftlichen Workshops “Usable Security and Privacy” auf der Mensch und Computer 2022 ist es, aktuelle Forschungs- und Praxisbeiträge zu präsentieren und anschließend mit den Teilnehmenden zu diskutieren. Der Workshop soll ein etabliertes Forum fortführen und weiterentwickeln, in dem sich Experten aus verschiedenen Bereichen, z. B. Usability und Security Engineering, transdisziplinär austauschen können.
Auch die mittlerweile siebte Ausgabe des wissenschaftlichen Workshops “Usable Security und Privacy” auf der Mensch und Computer 2021 wird aktuelle Forschungs- und Praxisbeiträge präsentiert und anschließend mit allen Teilnehmer:innen diskutiert. Zwei Beiträge befassen sich dieses Jahr mit dem Thema Privatsphäre, zwei mit dem Thema Sicherheit. Mit dem Workshop wird ein etabliertes Forum fortgeführt und weiterentwickelt, in dem sich Expert:innen aus unterschiedlichen Domänen, z. B. dem Usability- und Security- Engineering, transdisziplinär austauschen können.
Bei der sechsten Ausgabe des wissenschaftlichen Workshops ”Usable Security und Privacy” auf der Mensch und Computer 2020 werden wie in den vergangenen Jahren aktuelle Forschungs- und Praxisbeiträge präsentiert und anschließend mit allen Teilnehmenden diskutiert. Drei Beiträge befassen sich dieses Jahr mit dem Thema Privatsphäre, einer mit dem Thema Sicherheit. Mit dem Workshop wird ein etabliertes Forum fortgeführt und weiterentwickelt, in dem sich Expert*innen aus unterschiedlichen Domänen, z. B. dem Usability- und Security-Engineering, transdisziplinär austauschen können.
Ziel der neunten Ausgabe des wissenschaftlichen Workshops "Usable Security und Privacy" auf der Mensch und Computer 2023 ist es, aktuelle Forschungs- und Praxisbeiträge auf diesem Gebiet zu präsentieren und mit den Teilnehmer:innen zu diskutieren. Getreu dem Konferenzmotto "Building Bridges" soll mit dem Workshop ein etabliertes Forum fortgeführt und weiterentwickelt werden, in dem sich Expert:innen, Forscher:innen und Praktiker:innen aus unterschiedlichen Domänen transdisziplinär zum Thema Usable Security und Privacy austauschen können. Das Thema betrifft neben dem Usability- und Security-Engineering unterschiedliche Forschungsgebiete und Berufsfelder, z. B. Informatik, Ingenieurwissenschaften, Mediengestaltung und Psychologie. Der Workshop richtet sich an interessierte Wissenschaftler:innen aus all diesen Bereichen, aber auch ausdrücklich an Vertreter:innen der Wirtschaft, Industrie und öffentlichen Verwaltung.
Dieser Beitrag betrachtet den Stand der Entwicklung bei der Vernetzung von Fahrzeugen aus Sicht der IT-Sicherheit. Etablierte Kommunikationssysteme und Verkehrstelematikanwendungen im Automobil werden ebenso vorgestellt und diskutiert wie auch zukünftige Kommunikationstechnologien Car-2-Car und Car-2-X. IT-Sicherheit im Automobil ist ein schwieriges Feld, da es hier um eine Integration von neuen innovativen Anwendungen in eine hochkomplexe bestehende Fahrzeugarchitektur geht, die zu keinen neuen Gefährdungen für die Fahrzeuginsassen führen darf. Zudem bleibt die Funktionsweise dieser Anwendungen mit ihren Auswirkungen auf das informationelle Selbstbestimmungsrecht oft intransparent. Die abschließende Diskussion gibt Handlungsempfehlungen aus Sicht der Verbraucher.
Digitalisierung eines Pen-&-Paper-Rollenspiels mit Übertragung von Interaktionen in die reale Welt
(2015)
Das hier vorliegende Werk ist eine Zusammenführung des Masterprojekts und der darauf aufbauenden Masterarbeit von Antony Konstantinidis und Nicolas Kopp. Diese Arbeiten sind in den Jahren 2013 und 2014 entstanden und ergeben zusammen ein umfassendes Bild der Software- und Spielenentwicklung, der Konzeption von Echtzeitanwendungen und vermitteln Hintergründe aus den verschiedensten Bereichen der Mixed Reality, des Storytelling, der Netzwerkkonzeption und der künstlichen Intelligenz.
Die Digitalisierung und der Einsatz von Informations- und Kommunikationstechnologien (ICT) hat im Arbeits- und Privatleben neben einer höheren Produktivität auch zu neuen Formen von psychischem Stress geführt. Das Stresserleben, das mit dem Einsatz von ICT verbunden ist, wird in der Literatur auch als Technostress bezeichnet. Die Forschung zu diesem Thema zeigt, dass die Entstehung von Technostress von individuellen Faktoren abhängt. Die Persönlichkeit von ICT-Anwenderinnen und Anwendern bestimmt nicht nur das Auftreten von Technostress, sondern hat auch Einfluss auf dessen gesundheitliche und leistungsbezogene Folgen. In diesem Literaturreview wird der Forschungsstand zu der Rolle von Persönlichkeitsunterschieden bei der Entstehung von Technostress und dessen Folgen systematisch zusammengefasst. Die Auswertung der relevanten Forschungsartikel erfolgt hinsichtlich verwendeter Variablen, Stichproben und Studiendesigns, statistischer Methoden, Theorien und Frameworks. Abschließend werden der aktuelle Forschungsstand eingeordnet und Forschungslücken aufgezeigt.
Open Source ERP-Systeme
(2012)
Mit Free and Open Source Software können die IT-Kosten in erheblichem Umfang gesenkt werden. Wegen ihres hohen Durchdringungsgrades in Unternehmen und des damit verbundenen Kostenblocks gilt dies insbesondere für Free and Open Source (FOS-) ERP-Systeme. Zwar sind die Verbreitung und die Akzeptanz von FOS-ERP-Systemen in den letzten Jahren schon stark angewachsen, durch eine verbesserte Markttransparenz lassen sich aber noch weitere Potenziale erschließen. Bestehende Marktübersichten für FOS-ERP-Systeme sind jedoch wenig umfassend. Vor diesem Hintergrund wurde ein Marktspiegel mit detaillierten Angaben zu den verschiedenen FOS-ERP-Systemen erstellt.
ERP systems are being used throughout the whole enterprise and are therefore responsible for a high percentage of IT expenses. The use of Free and Open Source ERP systems (FOS ERP systems) can help to reduce these IT costs. Though the acceptance of FOS ERP systems has increased enormously in the last years, even more entreprises would use FOS ERP systems to support their order processing, if the FOS ERP market was more transparent. Existing market surveys are less comprehensive. Therefore, a detailed market guide was developed.
Im vorliegenden Beitrag wird ein prozess- und serviceorientiertes Rahmenmodell vorgeschlagen, das eine strukturelle und begriffliche Orientierung für das Gebiet der elektronischen Bezahlung bietet. Das Rahmenmodell erlaubt eine ganzheitliche Betrachtung über die Merkmale eines einzelnen Zahlungssystems hinaus. Die systemspezifische Sicht auf die elektronische Zahlung wird zu einem prozessorientierten Phasenmodell verallgemeinert. Mit diesem lassen sich die unterstützenden Services für die elektronische Bezahlung aus Kunden- und Händlersicht systematisch zusammenstellen und beschreiben. Die organisatorische Umsetzung der Serviceprozesse führt zur Rolle des Payment Service Providers, der als Mittler zwischen Anbietern und Anwendern elektronischer Zahlungssysteme agiert.
Im Rahmen eines Softwareentwicklungsprojekts wurde im Berufsgenossenschaftlichen Institut für Arbeitsschutz (BGIA) in enger Zusammenarbeit mit dem Fachbereich Informatik der Fachhochschule Bonn- Rhein-Sieg eine Anwendung zur Unterstützung von Softwareprüfungen implementiert. Basierend auf Softwaremetriken dient die Anwendung dem BGIA zur statischen Quellcodeanalyse sicherheitsrelevanter Software und unterstützt auf diese Weise Maschinenprüfer bei ihrer Arbeit. In diesem Projekt konnten bekannte Metriken, wie Halstead und McCabe, sowie neu entwickelte Kennzahlen und Qualitätskriterien an die Softwareanforderungen von Industriemaschinen angepasst und in einem Prototypen integriert werden.
Zuverlässige Ad-Hoc Kommunikation mobiler Endgeräte mit satellitengestützter Internet-Anbindung
(2005)
Mobile Datenkommunikation basiert üblicherweise auf der drahtlosen Anbindung eines Endgerätes an eine Basisstation, die ihrerseits an eine feste Infrastruktur angebunden ist. In vielen Szenarien sind diese Voraussetzungen jedoch nicht gegeben. Beispiele hierfür sind Hochwasser, Erdbeben oder Flugzeugabstürze in dünn besiedelten Regionen. Einen Lösungsansatz für sich daraus ergebende Anforderungen bieten dynamisch aufgebaute Ad-Hoc Netze mit einer satellitengestützten Anbindung an eine Festnetz-Infrastruktur. In solchen Netzen stellen die mobilen Terminals die benötigte lokale Infrastruktur selbst dynamisch her. Ziel der hier vorgestellten Arbeiten ist es, die Zuverlässigkeit und Dienstqualität der verwendeten Technologien zu untersuchen und durch geeignete Mechanismen so anzupassen, dass die Anforderungen typischer Applikationen möglichst erfüllt werden. Zur Demonstration wurde ein Prototyp aufgebaut, der unter anderem die Anwendungen "Voice over IP" (VoIP), "Datenbankzugriff im Intranet" und Internetzugang (WWW) untersucht.
Mobile Datenkommunikation basiert üblicherweise auf der drahtlosen Anbindung eines Endgerätes an eine Basisstation, die ihrerseits an eine feste Infrastruktur angebunden ist. In vielen Szenarien sind diese Voraussetzungen jedoch nicht gegeben. Beispiele hierfür sind Katastrophen wie Hochwasser, Erdbeben oder Flugzeugabstürze in dünn besiedelten Regionen. Einen Lösungsansatz für sich daraus ergebende Anforderungen bieten dynamisch aufgebaute Ad-Hoc Netze mit einer satellitengestützten Anbindung an eine Festnetz-Infrastruktur. In solchen Netzen stellen die mobilen Terminals die benötigte lokale Infrastruktur selbst dynamisch her. Ziel der hier vorgestellten Arbeiten ist es, die Zuverlässigkeit und Dienstqualität der verwendeten Technologien zu untersuchen und durch geeignete Mechanismen so anzupassen, dass die Anforderungen typischer Applikationen möglichst erfüllt werden. Zur Demonstration wurde ein Prototyp aufgebaut, der unter anderem die Anwendungen "Voice over IP" (VoIP), "Datenbankzugriff im Intranet" und "Internetzugang" (WWW) untersucht.