005 Computerprogrammierung, Programme, Daten
Refine
H-BRS Bibliography
- no (53) (remove)
Departments, institutes and facilities
Document Type
- Conference Object (25)
- Article (11)
- Contribution to a Periodical (7)
- Book (monograph, edited volume) (5)
- Part of a Book (3)
- Lecture (2)
Year of publication
Language
- German (53) (remove)
Keywords
- Java <Programmiersprache> (2)
- Python <Programmiersprache> (2)
- Ad Hoc Kommunikation (1)
- Alternde Gesellschaft (1)
- Bewegungsmotivation (1)
- Datenschutz (1)
- Datenschutzerklärungen (1)
- Digitaler Konsum (1)
- Gesundheit (1)
- Hauswirtschaft (1)
Das Kernanliegen des Datenschutzes ist es, natürliche Personen vor nachteiligen Effekten der Speicherung und Verarbeitung der sie betreffenden Daten zu schützen. Aber viele Personen scheinen gar nicht geschützt werden zu wollen. Im Gegenteil, viele Endanwender willigen “freiwillig“ – bewusst oder unbewusst – in eine umfassende Verarbeitung ihrer personenbezogenen Daten ein. Warum tun Menschen dies? Es werden verschiedene Ursachen diskutiert (beispielsweise in [79]), hierzu gehören Uninformiertheit, mangelnde Sensibilität, das Gefühl der Hilflosigkeit, mangelnde Zahlungsbereitschaft und mangelnde Alternativen. Auch wenn dies in Einzelfällen zutrifft, so gibt es oft sehr wohl datenschutzfreundliche Alternativen. Beispielsweise existiert zu WhatsApp (als Instant Messaging App) die Alternative Threema. Threema gilt als EU-DS-GVO-konform und funktional durchaus mit WhatsApp vergleichbar [62]. Allerdings ist inzwischen die aktuelle Netzwerkgröße ein entscheidendes Auswahlkriterium: Im Januar 2018 hatte Threema 4,5 Millionen Nutzer [172], WhatsApp dagegen 1,5 Milliarden [171]. Dies ist ein Indiz dafür, dass WhatsApp sich quasi zum De-facto-Standard entwickelt hat und es für die einzelne Person nur schwer möglich ist, viele andere “zum Wechsel auf ein anderes Produkt zu bewegen. [. . . ] Bei Diensten mit Nutzerzahlen im Milliardenbereich kann von ’Freiwilligkeit’ nur noch bedingt gesprochen werden.“ [9]
Open-Source Software spielt sowohl zur Ausgestaltung von Lehr- und Lernszenarien (bspw. Organisation mit Editoren und Groupware, Kollaboration und Kommunikation via Chats und Webblogs), als auch für die Umsetzung von Forschunsprojekten (zum Beispiel Auswertung großer Datenbestände, Erprobung realer Situationen in vituellen Laboren, Evaluation neuer Oberflächenentwicklungen) eine wichtige Rolle. Um eine bestmögliche Passung der Software herzustellen, erfolgt Softwareentwicklung im Hochschulbereich entweder forschungsprojektbezogen oder Disziplin- und Einrichtungsübergreifend.
Das Auslesen von Messdaten in elektronischer Form ermöglicht es, diese vom Ursprung bis zur Rechnungsstellung effizient und ohne Medienbruch zu erheben und zu verarbeiten. Gerade im liberalisierten Energiemarkt ist dies von Bedeutung, da eine Vielzahl von Marktteilnehmern miteinander kommunizieren muss. Das im VERNET-Programm geförderte SELMA-Projekt verfolgt das Ziel, einen Standard für den sicheren elektronischen Austausch von Messdaten zu entwickeln und zu etablieren. Eine der zentralen Anforderungen ist die Gewährleistung der Authentizität und Integrität der über offene Netze ausgelesenen Messdaten, die über die gesamte Lebensdauer der Messdaten nachprüfbar sein sollen. Die technische Umsetzung dieser Anforderungen resultiert in einer Sicherheitsarchitektur, die durch den durchgängigen Einsatz elektronischer Signaturen gekennzeichnet ist. Mit den signierten Datensätzen können die Rechnungen von den Marktteilnehmern auf ihre Authentizität und Integrität hin überprüft werden. Dieser Beitrag zeigt die gesetzgeberischen Hindernisse auf, die bei der Umsetzung der Anforderungen an qualifizierte Signaturen im elektronischen Messdatenaustausch auftreten und wie dennoch eine größtmögliche Beweiskraft für fortgeschrittene Signaturen erreicht werden kann.
Die soziale Netzwerkanalyse versucht menschliche Interaktion in einen analytischen und auswertbaren Zusammenhang zu bringen. Sie hat sich als Methode in den letzten Jahrzehnten über die Sozialwissenschaften hinaus in die Geschichtswissenschaften, Archäologie und Religionswissenschaften verbreitet. Dabei fanden verschiedene Paradigmenwechsel statt, zum Beispiel vom statischen Netzwerken mit dem Schwerpunkt auf quantitativ-struktureller Analyse hin zu heterogenen Handlungsnetzwerken wie zum Beispiel in der der Actor Network Theory (ANT) gewandelt. Der Fokus liegt aktuell eher auf der Frage des Informationsaustauschs und der Dynamik nicht statischer Netzwerke.
Usable Security und Privacy
(2010)
Kontemporäre Service-orientierte Systeme sind hochgradig vernetzt und haben zudem die Eigenschaft massiv-skalierbar zu sein. Diese Charakteristiken stellen im besonderen Maße Anforderungen an die Datensicherheit der Anwender solcher Systeme und damit primär an alle Stakeholder der Softwareentwicklung, die in der Verantwortung sind, passgenaue Sicherheitsmechanismen effektiv in die Softwareprodukte zu bringen. Die Effektivität von Sicherheitsarchitekturen in service-orientierten Systemen hängt maßgeblich von der richtigen Nutzung und Integration von Security-APIs durch eine heterogene Gruppe von Softwareentwicklern ab, bei der nicht per se ein fundiertes Hintergrundwissen über komplexe digitale Sicherheitsmechanismen vorausgesetzt werden kann. Die Diskrepanz zwischen komplexen und in der Anwendung fehleranfälligen APIs und einem fehlenden Verständnis für die zugrundeliegenden Sicherheitskonzepte auf Seiten der Nutzer begünstigt in der Praxis unsichere Softwaresysteme. Aus diesem Grund ist die Gebrauchstauglichkeit von Security-APIs besonders relevant, damit Programmierer den benötigten Funktionsumfang effektiv, effizient und zufriedenstellend verwenden können. Abgeleitet von dieser Problemstellung, konzentriert sich das Dissertationsvorhaben auf die gebrauchstaugliche Ausgestaltung von Security-APIs und den Herausforderungen die sich aus den Methoden zur Evaluation der Usability in typischen Umgebungen der Softwareentwicklung ergeben.
Computer-Sicherheitswarnungen – Benutzerzentrierte Entwurfsansätze der Usable Security-Forschung
(2017)
Der dritte und letzte Teil der Artikel-Serie in dieser Ausgabe zum Thema Usable Security zeigt exemplarisch, wie Softwareentwickler mit den im Rahmen des USecureD-Projekts entwickelten Werkzeugen arbeiten können. Der Beitrag konzentriert sich dabei auf Prinzipien, Richtlinien und Patterns, die bei der Ausgestaltung gebrauchstauglicher Computer-Sicherheitswarnungen berücksichtigt werden sollten. Anhand dieser sehr ubiquitären Bestandteile eines jeden digitalen Produkts kann anschaulich gezeigt werden, wie aktuelle wissenschaftliche Erkenntnisse auf dem Gebiet der Usable Security praxisnah für Softwarearchitekturen und Programmierer verfügbar und anwendbar gemacht werden können.
Dieses Buch führt Sie umfassend in die WebSocket-Technik und die damit einhergehenden neuen Entwicklungsmöglichkeiten ein. Unter den zahlreichen exemplarischen Anwendungen finden sich Beispiele auf Basis von Node.js, Vert.x, und JSR 356, als Programmiersprachen werden Java und JavaScript eingesetzt.
Web of Services Security
(2015)
Damit IT-gestützte Produkte und Systeme vor unbefugter oder missbräuchlicher Nutzung wirksam geschützt sind, müssen sie mit Sicherheitsfunktionen ausgestattet sein, die benutzerfreundlich sind. Hierfür sind seitens der Entwickler sowohl Security- als auch Usability-Kenntnisse erforderlich. Da insbesondere Entwickler in kleinen und mittleren Unternehmen (KMU) oft nicht über tiefer gehende Kenntnisse in beiden Bereichen verfügen, bedürfen sie einer Unterstützung, z. B. in Form geeigneter Methoden und Werkzeuge. In diesem Beitrag werden ein Lösungsweg und eine Werkzeugsammlung vorgestellt, die Entwicklern in KMU dabei helfen, auf systematische Weise digitale Produkte und Systeme mit dem Qualitätsmerkmal Usable Security herzustellen.
Unsere interdisziplinäre Forschungsarbeit „Die Gestaltung wirksamer Bildsymbole für Verarbeitungszwecke und ihre Folgen für Betroffene“ („Designing Effective Privacy Icons through an Interdisciplinary Research Methodology“) baut auf dem „Data Protection by Design“-Ansatz (Art. 25(1) DSGVO) auf und zielt auf folgende Forschungsfragen ab: Wie müssen das Transparenzprinzip (Art. 5(1)(a) DSGVO) und die Informationspflichten (Art. 12-14 DSGVO) insbesondere im Hinblick auf die Festlegung der Verarbeitungszwecke (Art. 5(1)(b) DSGVO) umgesetzt werden, damit sie die Nutzer:innen effektiv vor Risiken der Datenverarbeitung schützen? Mit welchen Methoden lässt sich die Wirksamkeit der Umsetzung ermitteln und diese auch durchsetzen?1 Im vorliegenden Projekt erweitern wir juristische Methoden um solche aus der HCI-Forschung (Human Computer Interaction) und der Visuellen Gestaltung. In einer ersten Phase haben wir mit empirischen Methoden der HCI-Forschung untersucht, welche Datennutzungstypen Nutzer:innen technologieübergreifend als relevant empfinden. Diese Erkenntnisse können als Ausgangspunkt für eine neue Zweckbestimmung dienen, die bestimmte Datennutzungstypen deutlicher ein- oder ausschließt. Erste Umformulierungen von Zweckbestimmungen haben wir in zwei Praxisworkshops mit Verantwortlichen der Datenverarbeitung getestet. In einer darauffolgenden qualitativen Studie untersuchten wir dann die Einstellungen und Erwartungen von Internetnutzerinnen und -nutzern am Beispiel der Personalisierung von Internetinhalten, um die entsprechenden Zwecke anhand eines konkreten Beispiels, in unserem Fall der personalisierten Werbung, neu zu formulieren. Auf dieser Basis haben wir nun die zweite Forschungsphase begonnen, in der wir Designs für Datenschutzhinweise und Kontrollmöglichkeiten unter besonderer Berücksichtigung des Verarbeitungszwecks entwickeln. Da der Einsatz von Cookies eine wichtige Rolle bei der Personalisierung von Werbung spielt, ist eine zentrale Aufgaben die Neugestaltung des sogenannten „Cookie-Banners“.
Hinreichende Datensouveränität gestaltet sich für Verbraucher:innen in der Praxis als äußerst schwierig. Die Europäische Datenschutzgrundverordnung garantiert umfassende Betroffenenrechte, die von verwantwortlichen Stellen durch technisch-organisatorische Maßnahmen umzusetzen sind. Traditionelle Vorgehensweisen wie die Bereitstellung länglicher Datenschutzerklärungen oder der ohne weitere Hilfestellungen angebotene Download von personenbezogenen Rohdaten werden dem Anspruch der informationellen Selbstbestimmung nicht gerecht. Die im Folgenden aufgezeigten neuen technischen Ansätze insbesondere KI-basierter Transparenz- und Auskunftsmodalitäten zeigen die Praktikabilität wirksamer und vielseitiger Mechanismen. Hierzu werden die relevanten Transparenzangaben teilautomatisiert extrahiert, maschinenlesbar repräsentiert und anschließend über diverse Kanäle wie virtuelle Assistenten oder die Anreicherung von Suchergebnissen ausgespielt. Ergänzt werden außerdem automatisierte und leicht zugängliche Methoden für Auskunftsersuchen und deren Aufbereitung nach Art. 15 DSGVO. Abschließend werden konkrete Regulierungsimplikationen diskutiert.
Die nutzerInnenfreundliche Formulierung von Zwecken der Datenverarbeitung von Sprachassistenten
(2020)
2019 wurde bekannt, dass mehrere Anbieter von Sprachassistenten Sprachaufnahmen ihrer NutzerInnen systematisch ausgewertet haben. Da in den Datenschutzhinweisen angegeben war, dass Daten auch zur Verbesserung des Dienstes genutzt würden, war diese Nutzung legal. Für die NutzerInnen stellte diese Auswertung jedoch einen deutlichen Bruch mit ihren Privatheitsvorstellungen dar. Das Zweckbindungsprinzip der DSGVO mit seiner Komponente der Zweckspezifizierung fordert neben Flexibilität für den Verarbeiter auch Transparenz für den Verbraucher. Vor dem Hintergrund dieses Interessenkonflikts stellt sich für die HCI die Frage, wie Verarbeitungszwecke von Sprachassistenten gestaltet sein sollten, um beide Anforderungen zu erfüllen. Für die Erhebung einer Nutzerperspektive analysiert diese Studie zunächst Zweckangaben in den Datenschutzhinweisen der dominierenden Sprachassistenten. Darauf aufbauend präsentieren wir Ergebnisse von Fokusgruppen, die sich mit der wahrgenommenen Verarbeitung von Daten von Sprachassistenten aus Nutzersicht befassen. Es zeigt sich, dass bestehende Zweckformulierungen für VerbraucherInnen kaum Transparenz über Folgen der Datenverarbeitung bieten und keine einschränkende Wirkung im Hinblick auf legale Datennutzung erzielen. Unsere Ergebnisse über von Nutzern wahrgenommene Risiken erlauben dabei Rückschlüsse auf die anwenderfreundliche Gestaltung von Verarbeitungszwecken im Sinne einer Design-Ressource.