Refine
Departments, institutes and facilities
- Fachbereich Wirtschaftswissenschaften (1243)
- Fachbereich Informatik (1148)
- Fachbereich Angewandte Naturwissenschaften (766)
- Fachbereich Ingenieurwissenschaften und Kommunikation (636)
- Institut für funktionale Gen-Analytik (IFGA) (584)
- Institut für Technik, Ressourcenschonung und Energieeffizienz (TREE) (485)
- Präsidium (403)
- Fachbereich Sozialpolitik und Soziale Sicherung (402)
- Institute of Visual Computing (IVC) (313)
- Institut für Cyber Security & Privacy (ICSP) (307)
Document Type
- Article (2431)
- Conference Object (1806)
- Part of a Book (942)
- Book (monograph, edited volume) (452)
- Part of Periodical (411)
- Report (201)
- Contribution to a Periodical (118)
- Doctoral Thesis (106)
- Working Paper (94)
- Preprint (90)
Year of publication
Keywords
- Lehrbuch (88)
- Deutschland (34)
- Nachhaltigkeit (30)
- Controlling (25)
- Unternehmen (25)
- Management (20)
- Corporate Social Responsibility (18)
- Betriebswirtschaftslehre (17)
- Digitalisierung (17)
- Machine Learning (17)
Several publications suggest a potential association between the administration of Gadolinium-based contrast agents (GBCAs) and the onset of a rare but serious disease, Nephrogenic Systemic Fibrosis (NSF). The aim of this study was to determine the elimination time-course of Gadolinium (Gd) from skin tissue after application of GBCAs in rats. Seven different marketed GBCAs were injected on five consecutive days at a dose of 2.5 mmol/kg bodyweight into the tail vein of Han-Wistar rats and the Gd concentrations were determined by Inductively Coupled Plasma Mass Spectrometry (ICP-MS) in skin biopsies taken at various time-points up to a year after the last injection. Most of the administered Gd was eliminated from the skin within a time-period of about 2 months. However, the repeated administration of linear GBCAs resulted in long-term retention of a small portion of the administered Gd in the skin tissue of rats, with substantially higher values observed in animals treated with non-ionic linear agents than in those that received ionic linear GBCAs. Following treatment with macrocyclic GBCAs, Gd values in the skin were in the same range as observed in the controls from day 24 post-injection onwards. In summary, we observed a correlation between the complex stability of GBCAs and the amount of residual Gd in the skin up to a year after application of GBCAs.
Aufgrund der zunehmenden Behandlung von sozialen Netzwerken in den Medien war es das Ziel der Arbeit das Geschäftsmodell von sozialen Netzwerken näher zu analysieren. Die Arbeit zeigt, dass soziale Online-Netzwerke zu den Diensten im Internet gehören, die zwar schon länger existieren, ihren eigentlichen Durchbruch aber erst in den letzten Jahren erlebten. Zu Beginn als reine Kommunikationsplattform genutzt, werden sie heute zur allgemeinen Freizeitgestaltung verwendet und integrieren sich zunehmend in das alltägliche Leben. Die Arbeit beschäftigt sich mit den ökonomischen Besonderheiten von sozialen Online-Netzwerken. Analysiert werden Netzwerkeffekte, Angebots- und Nachfrageverhalten, kritische Masse-Phänomene, Tippy markets, Netzwerkgesetze, Lock-In-Effekte und Wechselkosten. Es wird untersucht, ob und inwieweit sich hinter den sozialen Online-Netzwerken auch klar erkennbare Geschäftsmodelle verbergen. Aufbauend auf einer kritischen Auseinandersetzung mit der Vielfalt existierender Geschäftsmodelle erfolgt die Entwicklung eines eigenen tragfähigen Ansatzes. Auf dieser Basis wird eine Analyse existierender Online-Netzwerke und eine Beurteilung ihres Innovationsgrades vorgenommen.
Ende des Elends in Afrika?
(2010)
Nach 50 Jahren Entwicklungspolitik ist Subsahara-Afrika immer noch im Elend, auch wegen der Entwicklungshilfe. Diese hat oft mehr geschadet als genützt. Mit hunderttausenden Projekten und Milliarden von Hilfsgeldern ist es nicht gelungen, Afrika zu einer selbsttragenden wirtschaftlichen und sozialen Entwicklung zu verhelfen.
Sprachassistenten wie Alexa oder Google Assistant sind aus dem Alltag vieler VerbraucherInnen nicht mehr wegzudenken. Sie überzeugen insbesondere durch die sprachbasierte und somit freihändige Steuerung und mitunter auch den unterhaltsamen Charakter. Als häuslicher Lebensmittelpunkt sind die häufigsten Aufstellungsorte das Wohnzimmer und die Küche, da sich Haushaltsmitglieder dort die meiste Zeit aufhalten und das alltägliche Leben abspielt. Dies bedeutet allerdings ebenso, dass an diesen Orten potenziell viele Daten erfasst und gesammelt werden können, die nicht für den Sprachassistenten bestimmt sind. Demzufolge ist nicht auszuschließen, dass der Sprachassistent – wenn auch versehentlich – durch Gespräche oder Geräusche aktiviert wird und Aufnahmen speichert, selbst wenn eine Aktivierung unbewusst von Anwesenden bzw. von anderen Geräten (z. B. Fernseher) erfolgt oder aus anderen Räumen kommt. Im Rahmen eines Forschungsprojekts haben wir dazu NutzerInnen über Ihre Nutzungs- und Aufstellungspraktiken der Sprachassistenten befragt und zudem einen Prototyp getestet, der die gespeicherten Interaktionen mit dem Sprachassistenten sichtbar macht. Dieser Beitrag präsentiert basierend auf den Erkenntnissen aus den Interviews und abgeleiteten Leitfäden aus den darauffolgenden Nutzungstests des Prototyps eine Anwendung zur Beantragung und Visualisierung der Interaktionsdaten mit dem Sprachassistenten. Diese ermöglicht es, Interaktionen und die damit zusammenhängende Situation darzustellen, indem sie zu jeder Interaktion die Zeit, das verwendete Gerät sowie den Befehl wiedergibt und unerwartete Verhaltensweisen wie die versehentliche oder falsche Aktivierung sichtbar macht. Dadurch möchten wir VerbraucherInnen für die Fehleranfälligkeit dieser Geräte sensibilisieren und einen selbstbestimmteren und sichereren Umgang ermöglichen.
Diese Studie untersucht die Aneignung und Nutzung von Sprachassistenten wie Google Assistant oder Amazon Alexa in Privathaushalten. Unsere Forschung basiert auf zehn Tiefeninterviews mit Nutzern von Sprachassistenten sowie der Evaluation bestimmter Interaktionen in der Interaktionshistorie. Unsere Ergebnisse illustrieren, zu welchen Anlässen Sprachassistenten im heimischen Umfeld genutzt werden, welche Strategien sich die Nutzer in der Interaktion mit Sprachassistenten angeeignet haben, wie die Interaktion abläuft und welche Schwierigkeiten sich bei der Einrichtung und Nutzung des Sprachassistenten ergeben haben. Ein besonderer Fokus der Studie liegt auf Fehlinteraktionen, also Situationen, in denen die Interaktion scheitert oder zu scheitern droht. Unsere Studie zeigt, dass das Nutzungspotenzial der Assistenten häufig nicht ausgeschöpft wird, da die Interaktion in komplexeren Anwendungsfällen häufig misslingt. Die Nutzer verwenden daher den Sprachassistenten eher in einfachen Anwendungsfällen und neue Apps und Anwendungsfälle werden gar nicht erst ausprobiert. Eine Analyse der Aneignungsstrategien, beispielsweise durch eine selbst erstellte Liste mit Befehlen, liefert Erkenntnisse für die Gestaltung von Unterstützungswerkzeugen sowie die Weiterentwicklung und Optimierung von sprachbasierten Mensch-Maschine-Interfaces.
Voice assistants (VA) collect data about users’ daily life including interactions with other connected devices, musical preferences, and unintended interactions. While users appreciate the convenience of VAs, their understanding and expectations of data collection by vendors are often vague and incomplete. By making the collected data explorable for consumers, our research-through-design approach seeks to unveil design resources for fostering data literacy and help users in making better informed decisions regarding their use of VAs. In this paper, we present the design of an interactive prototype that visualizes the conversations with VAs on a timeline and provides end users with basic means to engage with data, for instance allowing for filtering and categorization. Based on an evaluation with eleven households, our paper provides insights on how users reflect upon their data trails and presents design guidelines for supporting data literacy of consumers in the context of VAs.
Despite the opportunities and benefits of OER, research and practice has shown how the OER repositories have a hard time in reaching an active user-base. The opportunities of experience exchange and simple feedback mechanisms of social software have been realized for improving the situation and many are basing or transforming their OER offerings towards socially powered environments. Research on social software has shown how knowledge-sharing barriers in online environments are highly culture and context-specific and require proper investigation. It is crucial to study what challenges might arise in such environments and how to overcome them, ensuring a successful uptake. A large-scale (N = 855) cross-European investigation was initiated in the school context to determine which barriers teachers and learners perceive as critical. The study highlights barriers on cultural distance, showing how those are predicted by nationality and age of the respondents. The paper concludes with recommendations for overcoming those barriers.
Open educational resources (OERs) provide opportunities as enablers of societal development, but they also create new challenges. From the perspective of content providers and educational institutions, particularly, cultural and context-related challenges emerge. Even though barriers regarding large-scale adoption of OERs are widely discussed, empirical evidence for determining challenges in relation to particular contexts is still rare. Such context-specific barriers generally can jeopardize the acceptance of OERs and, in particular, social OER environments. We conducted a large-scale (N = 855) cross-European investigation in the school context to determine how teachers and learners perceive cultural distance as a barrier against the use of social OER environments. The findings indicate how nationality and age of the respondents are strong predictors of cultural distance barrier. The study concludes with identification of context-sensitive interventions for overcoming the related bar riers. These consequences are vital for OER initiatives and educational institutions for aligning their efforts on OER.
Malware is responsible for massive economic damage. Being the preferred tool for digital crime, botnets are becoming increasingly sophisticated, using more and more resilient, distributed infrastructures based on peer-to-peer (P2P) protocols. On the other side, current investigation techniques for malware and botnets on a technical level are time-consuming and highly complex. Fraunhofer FKIE is addressing this problem, researching new ways of intelligent process automation and information management for malware analysis in order to minimize the time needed to investigate these threats.
Recent years have seen extensive adoption of domain generation algorithms (DGA) by modern botnets. The main goal is to generate a large number of domain names and then use a small subset for actual C&C communication. This makes DGAs very compelling for botmasters to harden the infrastructure of their botnets and make it resilient to blacklisting and attacks such as takedown efforts. While early DGAs were used as a backup communication mechanism, several new botnets use them as their primary communication method, making it extremely important to study DGAs in detail.
In this paper, we perform a comprehensive measurement study of the DGA landscape by analyzing 43 DGAbased malware families and variants. We also present a taxonomy for DGAs and use it to characterize and compare the properties of the studied families. By reimplementing the algorithms, we pre-compute all possible domains they generate, covering the majority of known and active DGAs. Then, we study the registration status of over 18 million DGA domains and show that corresponding malware families and related campaigns can be reliably identified by pre-computing future DGA domains. We also give insights into botmasters’ strategies regarding domain registration and identify several pitfalls in previous takedown efforts of DGA-based botnets. We will share the dataset for future research and will also provide a web service to check domains for potential DGA identity.
This paper describes a codesign environment based on the WWW (World Wide Web) and its implementation. Tool invocations and their respective results are linked using hypertext documents. We show how to configure a WWW browser for spawning design tools and how frequent tasks like documentation generation and retrieval are facilitated. The design flow can be adopted to the given application very easily. In addition we introduce the concept of a work flow called ‘design by documentation’. A WWW link to the results is given and experience using it in a codesign project is described.
With regard to performance well established SW-only design methodologies proceed by making the initial specification run first, then by enhancing its functionality and finally by optimizing it. When designing Embedded Systems (EbS) this approach is not viable since decisive design decisions like e.g. the estimation of required processing power or the identification of those parts of the specification which need to be delegated to dedicated HW depend on the fastness and fairness of the initial specification. We here propose a sequence of optimization steps embedded into the design flow, which enables a structured way to accelerate a given working EbS specification at different layers. This sequence of accelerations comprises algorithm selection, algorithm transformation, data transformation, implementation optimization and finally HW acceleration. It is analyzed how all acceleration steps are influenced by the specific attributes of the underlying EbS. The overall acceleration procedure is explained and quantified at hand of a real-life industrial example.
Co-design is concerned with the joint design of hardware and software making up an embedded computer system [Wol94]. A top down design flow for an embedded system begins with a system specification. If it is executable, it may be used for simulation, system verification or to identify algorithmical bottlenecks. In contrast to other chapters of this book, the specification is not developed in this case study, rather it is given from the beginning. Furthermore we are not concerned with partitioning or synthesis of dedicated HW. Instead we focus on the problem how to find an off-the-shelf micro-controller which implements the desired functionality and meets all specification constraints. If feasible, this is usually much cheaper then using dedicated hardware. This chapter will answer the question of feasibility for a real life problem from automobile industry.
Ein gebräuchliche Methodik beim Entwurf eingebetteter Systeme, in Anwendung besonders bei kleinen- und mittleren Unternehmen, geht folgendermaßen vor: Man nehme das bereits existierende Mikrokontroller Entwicklungspaket und bereits vorhandene Funktionen aus einer alten Systemrealisierung, variiere bzw. passe sie an die neue Aufgabe an und teste dann durch Emulation, ob die Spezifikation erfüllt ist.
CASTLE is a co-design platform developed at GMD SET institute. It provides a number of design tools for configuring application specific design flows. This paper presents a walk through the CASTLE co-design environment, following the design flow of a video processing system. The design methodology and the tool usage for this real life example are described, as seen from a designers point of view. The design flow starts with a C/C++ program and gradually derives a register-transfer level description of a processor hardware, as well as the corresponding compiler for generating the processor opcode. The main results of each design step are presented and the usage of the CASTLE tools at each step is explained.
SISAL: User manual
(1990)
Forensic DNA profiles are established by multiplex PCR amplification of a set of highly variable short tandem repeat (STR) loci followed by capillary electrophoresis (CE) as a means to assign alleles to PCR products of differential length. Recently, CE analysis of STR amplicons has been supplemented by high-throughput next generation sequencing (NGS) techniques that are able to detect isoalleles bearing sequence polymorphisms and allow for an improved analysis of degraded DNA. Several such assays have been commercialised and validated for forensic applications. However, these systems are cost-effective only when applied to high numbers of samples. We report here an alternative, cost-efficient shallow-sequence output NGS assay called maSTR assay that, in conjunction with a dedicated bioinformatics pipeline called SNiPSTR, can be implemented with standard NGS instrumentation. In a back-to-back comparison with a CE-based, commercial forensic STR kit, we find that for samples with low DNA content, with mixed DNA from different individuals, or containing PCR inhibitors, the maSTR assay performs equally well, and with degraded DNA is superior to CE-based analysis. Thus, the maSTR assay is a simple, robust and cost-efficient NGS-based STR typing method applicable for human identification in forensic and biomedical contexts.
Open Innovation
(2018)
Open Innovation
(2021)
Der Begriff Open Innovation steht für die Öffnung von unternehmensinternen Innovationsprozessen für sogenannte „externe Quellen“. Zu diesen externen Quellen zählen beispielsweise Lieferanten, Partner, Experten aus Forschungseinrichtungen und insbeson-dere auch Kunden. Diese werden gezielt in die Innovationsentwicklung integriert, sei es als Informations- und Ideenquelle bzw. als Impulsgeber für die Innovationsentwicklung. Daneben existieren auch tiefere Integrationsmöglichkeiten, die eine direkte Partizipation an der Innovationsentwicklung ermöglichen.
Open Innovation
(2020)
Die Freiheit in Forschung und Lehre ist zusammen mit der Wissenschaftsfreiheit eines der bürgerlichen Grundrechte in Deutschland. Aber die Forschungsfreiheit kann nicht grenzenlos sein. Industrie wie akademische Institute müssen ihre Entwicklungen dokumentieren. Nur so ist ein Stoff später für die Vermarktung zulassungsfähig und nur so lässt sich belegen, wer die Urheberrechte daran hat.
Fuzzelarbeit: Identifizierung unbekannter Sicherheitslücken und Software-Fehler durch Fuzzing
(2011)
Fuzzing als toolgestützte Identifizierung von Sicherheitslücken wird in der Regel im letzten Stadium der Softwareentwicklung zum Einsatz kommen. Es eignet sich zur Suche nach Sicherheitslücken in jeder Art Software. Die Robustheit der untersuchten Zielsoftware wird beim Fuzzing mit zielgerichteten, unvorhergesehenen Eingabedaten überprüft. Der Fuzzing-Prozess wird im Artikel beschrieben, ebenso die Taxometrie von Fuzzern, die in "dumme" und "intelligente" Fuzzer eingeteilt werden. Die Identifizierung von Sicherheitslücken oder Fehlern in der Zielsoftware erfolgt durch ein umfassendes Monitoring (Debugger, Profiler, Tracker). Die meist große Zahl identifizierter Schwachstellen und Verwundbarkeiten macht eine Bewertung jeder einzelnen erforderlich, weil in der Regel aus Wirtschaftlichkeitsgründen nicht alle behoben werden können. Als wichtige Bewertungsparameter werden genannt: Erkennbarkeit für Dritte, Reproduzierbarkeit, Ausnutzbarkeit, benötigte Zugriffsrechte und generierbarer Schaden. Im Internet werden etwa 300 Tools angeboten. Die Qualität eines Fuzzers lässt sich jedoch nicht pauschal angeben. Die Wirksamkeit und Eignung eines Fuzzers hängen von der Zielsoftware und den individuellen Anforderungen des Testers ab.
In verteilten und offenen Systemen wollen Kommunikationspartner beim Electronic Commerce Dokumente vertraulich, integer und rechtsverbindlich sowie zuordnungsbar authentisch und nachweisbar senden und empfangen. Für die an der Kommunikation beteiligten Kommunikationspartner muß dazu nachvollziehbar sein, wer wann mit wem welche Dokumente ausgetauscht hat. Zur Erreichung des Sachziels 'Vertraulichkeit' werden Dokumente bei der Speicherung auf einem Server und bei der Übertragung (über lokale Netzte, Intranets, Extranets und im Internet) vom Endanwender verschlüsselt. Dazu müssen die benutzten Schlüssel gegen unberechtigte Kenntnisnahme geschützt werden. Gleichzeitig muß auch die Verfügbarkeit der Schlüssel sichergestellt werden: Verschlüsselte Dokumente können nämlich nur dann wieder benutzbar gemacht werden, wenn sie bei berechtigtem Bedarf wieder entschlüsselt werden können. Im Unternehmen ist es deshalb erforderlich, Verfahren einzuführen, die die Verfügbarkeit gespeicherter Dokumente sicherstellen - auch wenn der originäre Inhaber dieser Dokumente nicht verfügbar ist (Reise, Urlaub, Krankheit, Ausscheiden). Schlüssel-Archive - sog. Enterprise Key Recovery Server - bieten die Möglichkeit, verschlüsselt gespeicherte Konzelationsschlüssel Berechtigten wieder zu Verfügung zu stellen. Damit können verschlüsselt gespeicherte Dokumente gespeichert werden. Enterprise Key Recovery Server werden im Rahmen des Projekts SECFORS - Secure Electronic Commerce an der Fachhochschule Rhein-Sieg zusammen mit Studierenden installiert und unter einer Reihe von Aspekten im Rahmen des vom Bundeswirtschaftsministerium geförderten Kompetenzzentrums Electronic Commerce Bonn Rhein-Sieg (KompEC) evaluiert; dazu werden Anforderungen an vertrauenswürdige Enterprise Key Recovery Server formuliert. Der Einsatz von Enterprise Key Recovery Servern ist in den USA Stand der Technik; in deutschen Unternehmen wird der Bedarf insbesondere deswegen differenziert gesehen, weil eine Verschlüsselung gespeicherter und übertragener Daten noch nicht flächendeckend durchgeführt wird.