Refine
Departments, institutes and facilities
- Fachbereich Wirtschaftswissenschaften (1243)
- Fachbereich Informatik (1148)
- Fachbereich Angewandte Naturwissenschaften (766)
- Fachbereich Ingenieurwissenschaften und Kommunikation (636)
- Institut für funktionale Gen-Analytik (IFGA) (584)
- Institut für Technik, Ressourcenschonung und Energieeffizienz (TREE) (485)
- Präsidium (403)
- Fachbereich Sozialpolitik und Soziale Sicherung (402)
- Institute of Visual Computing (IVC) (313)
- Institut für Cyber Security & Privacy (ICSP) (307)
Document Type
- Article (2431)
- Conference Object (1806)
- Part of a Book (942)
- Book (monograph, edited volume) (452)
- Part of Periodical (411)
- Report (201)
- Contribution to a Periodical (118)
- Doctoral Thesis (106)
- Working Paper (94)
- Preprint (90)
Year of publication
Keywords
- Lehrbuch (88)
- Deutschland (34)
- Nachhaltigkeit (30)
- Controlling (25)
- Unternehmen (25)
- Management (20)
- Corporate Social Responsibility (18)
- Betriebswirtschaftslehre (17)
- Digitalisierung (17)
- Machine Learning (17)
An apple a day keeps the doctor away’. While it may be true that a balanced diet is a prerequisite for good health, how good is what we eat and drink every day? And is it actually possible to fulfil every customer desire with the vast array of foodstuffs on offer? BSE, dioxin in eggs, EHEC sprouts: in the light of repeated food safety crises, the issue of quality assurance as well as customer-oriented quality management has become of prime importance for the agri-food industry.
Case Management
(2014)
Beim Entwurf eines effizienten und sicheren Luftfahrzeugs müssen viele fachliche Aspekte berücksichtigt werden. Die Bereiche Aerodynamik, Strukturmechanik als auch Flugmechanik spielen eine wichtige Rolle und hängen voneinander ab. Daher ist ein iterativer Entwurfsprozess erforderlich, um einen an die Anforderungen bestmöglich angepassten Kompromiss zu finden. In der Forschung am Deutschen Zentrum für Luft- und Raumfahrt e.V. (DLR) werden dafür automatisierte Prozessketten entwickelt, die zur Bewertung und Entwicklung von neuen Flugzeugkonzepten dienen.
Fasting Intact Proinsulin Is a Highly Specific Predictor of Insulin Resistance in Type 2 Diabetes
(2004)
OBJECTIVE—In later stages of type 2 diabetes, proinsulin and proinsulin-like molecules are secreted in increasing amounts with insulin. A recently introduced chemiluminescence assay is able to detect the uncleaved “intact” proinsulin and differentiate it from proinsulin-like molecules. This investigation explored the predictive value of intact proinsulin as an insulin resistance marker.
High-sensitivity C-reactive protein as cardiovascular risk marker in patients with diabetes mellitus
(2006)
Improvement of Cardiovascular Risk Markers by Pioglitazone Is Independent From Glycemic Control
(2005)
Background and Objectives: In advanced β-cell dysfunction, proinsulin is increasingly replacing insulin as major component of the secretion product. It has been speculated that proinsulin has at least the same adipogenic potency than insulin, leading to an increased tendency of lipid tissue formation in patients with late stage β-cell dysfunction. Methods and Results: Mesenchymal stem cells obtained from liposuction material were grown in differentiation media containing insulin (0.01 μmol), proinsulin (0.01 μmol) or insulin+proinsulin (each 0.005 μmol). Cell culture supernatants were taken from these experiments and an untreated control at weeks 1, 2, and 3, and were stored at -80°C until analysis. Cell differentiation was microscopically supervised and adiponectin concentrations were measured as marker for differentiation into mature lipid cells. This experiment was repeated three times. No growth of lipid cells and no change in adiponectin values was observed in the negative control group (after 7/14/12 days: 3.2±0.5/3.3±0.1/4.4±0.5 ng/ml/12 h). A continuous differentiation into mature adipocytes (also confirmed by Red-Oil-staining) and a corresponding increase in adiponectin values was observed in the experiments with insulin (3.6±1.9/5.1±1.4/13.3±1.5 ng/ml/12 h; p<0.05 week 1 vs. week 3) and proinsulin (3.3±1.2/3.5±0.3/12.2±1.2 ng/ml/12 h; p<0.05). Comparable effects were seen with the insulin/proinsulin combination. Conclusions: Proinsulin has the same adipogenic potential than insulin in vitro. Proinsulin has only 10∼20% of the glucose-lowering effect of insulin. It can be speculated that the adipogenic potential of proinsulin may be a large contributor to the increased body weight problems in patients with type 2 diabetes and advanced β-cell dysfunction.
Background: Type 2 diabetes mellitus is associated with increased cardiovascular risk. One laboratory marker for cardiovascular risk assessment is high-sensitivity C-reactive protein (hsCRP).
Methods: This cross-sectional study attempted to analyze the association of hsCRP levels with insulin resistance, β-cell dysfunction and macrovascular disease in 4270 non-insulin-treated patients with type 2 diabetes [2146 male, 2124 female; mean age ±SD, 63.9±11.1years; body mass index (BMI) 30.1±5.5kg/m2; disease duration 5.4±5.6years; hemoglobin A1c (HbA1c) 6.8±1.3%]. It consisted of a single morning visit with collection of a fasting blood sample. Observational parameters included several clinical scores and laboratory biomarkers.
Results: Stratification into cardiovascular risk groups according to hsCRP levels revealed that 934 patients had low risk (hsCRP <1mg/L), 1369 patients had intermediate risk (hsCRP 1–3mg/L), 1352 patients had high risk (hsCRP >3–10mg/L), and 610 patients had unspecific hsCRP elevation (>10mg/L). Increased hsCRP levels were associated with other indicators of diabetes-related cardiovascular risk (homeostatic model assessment, intact proinsulin, insulin, BMI, β-cell dysfunction, all p<0.001), but showed no correlation with disease duration or glucose control. The majority of the patients were treated with diet (34.1%; hsCRP levels 2.85±2.39mg/L) or metformin monotherapy (21.1%; 2.95±2.50mg/L hsCRP). The highest hsCRP levels were observed in patients treated with sulfonylurea (17.0%; 3.00±2.43mg/L).
Conclusions: Our results indicate that hsCRP may be used as a cardiovascular risk marker in patients with type 2 diabetes mellitus and should be evaluated in further prospective studies.
Rosiglitazone and glimeperide: review of clinical results supporting a fixed dose combination
(2007)
TSEM: Temporally-Weighted Spatiotemporal Explainable Neural Network for Multivariate Time Series
(2023)
TSEM: Temporally Weighted Spatiotemporal Explainable Neural Network for Multivariate Time Series
(2022)
Deep learning has become a one-size-fits-all solution for technical and business domains thanks to its flexibility and adaptability. It is implemented using opaque models, which unfortunately undermines the outcome trustworthiness. In order to have a better understanding of the behavior of a system, particularly one driven by time series, a look inside a deep learning model so-called posthoc eXplainable Artificial Intelligence (XAI) approaches, is important. There are two major types of XAI for time series data, namely model-agnostic and model-specific. Model-specific approach is considered in this work. While other approaches employ either Class Activation Mapping (CAM) or Attention Mechanism, we merge the two strategies into a single system, simply called the Temporally Weighted Spatiotemporal Explainable Neural Network for Multivariate Time Series (TSEM). TSEM combines the capabilities of RNN and CNN models in such a way that RNN hidden units are employed as attention weights for the CNN feature maps temporal axis. The result shows that TSEM outperforms XCM. It is similar to STAM in terms of accuracy, while also satisfying a number of interpretability criteria, including causality, fidelity, and spatiotemporality.
Several publications suggest a potential association between the administration of Gadolinium-based contrast agents (GBCAs) and the onset of a rare but serious disease, Nephrogenic Systemic Fibrosis (NSF). The aim of this study was to determine the elimination time-course of Gadolinium (Gd) from skin tissue after application of GBCAs in rats. Seven different marketed GBCAs were injected on five consecutive days at a dose of 2.5 mmol/kg bodyweight into the tail vein of Han-Wistar rats and the Gd concentrations were determined by Inductively Coupled Plasma Mass Spectrometry (ICP-MS) in skin biopsies taken at various time-points up to a year after the last injection. Most of the administered Gd was eliminated from the skin within a time-period of about 2 months. However, the repeated administration of linear GBCAs resulted in long-term retention of a small portion of the administered Gd in the skin tissue of rats, with substantially higher values observed in animals treated with non-ionic linear agents than in those that received ionic linear GBCAs. Following treatment with macrocyclic GBCAs, Gd values in the skin were in the same range as observed in the controls from day 24 post-injection onwards. In summary, we observed a correlation between the complex stability of GBCAs and the amount of residual Gd in the skin up to a year after application of GBCAs.
Aufgrund der zunehmenden Behandlung von sozialen Netzwerken in den Medien war es das Ziel der Arbeit das Geschäftsmodell von sozialen Netzwerken näher zu analysieren. Die Arbeit zeigt, dass soziale Online-Netzwerke zu den Diensten im Internet gehören, die zwar schon länger existieren, ihren eigentlichen Durchbruch aber erst in den letzten Jahren erlebten. Zu Beginn als reine Kommunikationsplattform genutzt, werden sie heute zur allgemeinen Freizeitgestaltung verwendet und integrieren sich zunehmend in das alltägliche Leben. Die Arbeit beschäftigt sich mit den ökonomischen Besonderheiten von sozialen Online-Netzwerken. Analysiert werden Netzwerkeffekte, Angebots- und Nachfrageverhalten, kritische Masse-Phänomene, Tippy markets, Netzwerkgesetze, Lock-In-Effekte und Wechselkosten. Es wird untersucht, ob und inwieweit sich hinter den sozialen Online-Netzwerken auch klar erkennbare Geschäftsmodelle verbergen. Aufbauend auf einer kritischen Auseinandersetzung mit der Vielfalt existierender Geschäftsmodelle erfolgt die Entwicklung eines eigenen tragfähigen Ansatzes. Auf dieser Basis wird eine Analyse existierender Online-Netzwerke und eine Beurteilung ihres Innovationsgrades vorgenommen.
Ende des Elends in Afrika?
(2010)
Nach 50 Jahren Entwicklungspolitik ist Subsahara-Afrika immer noch im Elend, auch wegen der Entwicklungshilfe. Diese hat oft mehr geschadet als genützt. Mit hunderttausenden Projekten und Milliarden von Hilfsgeldern ist es nicht gelungen, Afrika zu einer selbsttragenden wirtschaftlichen und sozialen Entwicklung zu verhelfen.
Sprachassistenten wie Alexa oder Google Assistant sind aus dem Alltag vieler VerbraucherInnen nicht mehr wegzudenken. Sie überzeugen insbesondere durch die sprachbasierte und somit freihändige Steuerung und mitunter auch den unterhaltsamen Charakter. Als häuslicher Lebensmittelpunkt sind die häufigsten Aufstellungsorte das Wohnzimmer und die Küche, da sich Haushaltsmitglieder dort die meiste Zeit aufhalten und das alltägliche Leben abspielt. Dies bedeutet allerdings ebenso, dass an diesen Orten potenziell viele Daten erfasst und gesammelt werden können, die nicht für den Sprachassistenten bestimmt sind. Demzufolge ist nicht auszuschließen, dass der Sprachassistent – wenn auch versehentlich – durch Gespräche oder Geräusche aktiviert wird und Aufnahmen speichert, selbst wenn eine Aktivierung unbewusst von Anwesenden bzw. von anderen Geräten (z. B. Fernseher) erfolgt oder aus anderen Räumen kommt. Im Rahmen eines Forschungsprojekts haben wir dazu NutzerInnen über Ihre Nutzungs- und Aufstellungspraktiken der Sprachassistenten befragt und zudem einen Prototyp getestet, der die gespeicherten Interaktionen mit dem Sprachassistenten sichtbar macht. Dieser Beitrag präsentiert basierend auf den Erkenntnissen aus den Interviews und abgeleiteten Leitfäden aus den darauffolgenden Nutzungstests des Prototyps eine Anwendung zur Beantragung und Visualisierung der Interaktionsdaten mit dem Sprachassistenten. Diese ermöglicht es, Interaktionen und die damit zusammenhängende Situation darzustellen, indem sie zu jeder Interaktion die Zeit, das verwendete Gerät sowie den Befehl wiedergibt und unerwartete Verhaltensweisen wie die versehentliche oder falsche Aktivierung sichtbar macht. Dadurch möchten wir VerbraucherInnen für die Fehleranfälligkeit dieser Geräte sensibilisieren und einen selbstbestimmteren und sichereren Umgang ermöglichen.
Diese Studie untersucht die Aneignung und Nutzung von Sprachassistenten wie Google Assistant oder Amazon Alexa in Privathaushalten. Unsere Forschung basiert auf zehn Tiefeninterviews mit Nutzern von Sprachassistenten sowie der Evaluation bestimmter Interaktionen in der Interaktionshistorie. Unsere Ergebnisse illustrieren, zu welchen Anlässen Sprachassistenten im heimischen Umfeld genutzt werden, welche Strategien sich die Nutzer in der Interaktion mit Sprachassistenten angeeignet haben, wie die Interaktion abläuft und welche Schwierigkeiten sich bei der Einrichtung und Nutzung des Sprachassistenten ergeben haben. Ein besonderer Fokus der Studie liegt auf Fehlinteraktionen, also Situationen, in denen die Interaktion scheitert oder zu scheitern droht. Unsere Studie zeigt, dass das Nutzungspotenzial der Assistenten häufig nicht ausgeschöpft wird, da die Interaktion in komplexeren Anwendungsfällen häufig misslingt. Die Nutzer verwenden daher den Sprachassistenten eher in einfachen Anwendungsfällen und neue Apps und Anwendungsfälle werden gar nicht erst ausprobiert. Eine Analyse der Aneignungsstrategien, beispielsweise durch eine selbst erstellte Liste mit Befehlen, liefert Erkenntnisse für die Gestaltung von Unterstützungswerkzeugen sowie die Weiterentwicklung und Optimierung von sprachbasierten Mensch-Maschine-Interfaces.
Voice assistants (VA) collect data about users’ daily life including interactions with other connected devices, musical preferences, and unintended interactions. While users appreciate the convenience of VAs, their understanding and expectations of data collection by vendors are often vague and incomplete. By making the collected data explorable for consumers, our research-through-design approach seeks to unveil design resources for fostering data literacy and help users in making better informed decisions regarding their use of VAs. In this paper, we present the design of an interactive prototype that visualizes the conversations with VAs on a timeline and provides end users with basic means to engage with data, for instance allowing for filtering and categorization. Based on an evaluation with eleven households, our paper provides insights on how users reflect upon their data trails and presents design guidelines for supporting data literacy of consumers in the context of VAs.
Despite the opportunities and benefits of OER, research and practice has shown how the OER repositories have a hard time in reaching an active user-base. The opportunities of experience exchange and simple feedback mechanisms of social software have been realized for improving the situation and many are basing or transforming their OER offerings towards socially powered environments. Research on social software has shown how knowledge-sharing barriers in online environments are highly culture and context-specific and require proper investigation. It is crucial to study what challenges might arise in such environments and how to overcome them, ensuring a successful uptake. A large-scale (N = 855) cross-European investigation was initiated in the school context to determine which barriers teachers and learners perceive as critical. The study highlights barriers on cultural distance, showing how those are predicted by nationality and age of the respondents. The paper concludes with recommendations for overcoming those barriers.
Open educational resources (OERs) provide opportunities as enablers of societal development, but they also create new challenges. From the perspective of content providers and educational institutions, particularly, cultural and context-related challenges emerge. Even though barriers regarding large-scale adoption of OERs are widely discussed, empirical evidence for determining challenges in relation to particular contexts is still rare. Such context-specific barriers generally can jeopardize the acceptance of OERs and, in particular, social OER environments. We conducted a large-scale (N = 855) cross-European investigation in the school context to determine how teachers and learners perceive cultural distance as a barrier against the use of social OER environments. The findings indicate how nationality and age of the respondents are strong predictors of cultural distance barrier. The study concludes with identification of context-sensitive interventions for overcoming the related bar riers. These consequences are vital for OER initiatives and educational institutions for aligning their efforts on OER.
Malware is responsible for massive economic damage. Being the preferred tool for digital crime, botnets are becoming increasingly sophisticated, using more and more resilient, distributed infrastructures based on peer-to-peer (P2P) protocols. On the other side, current investigation techniques for malware and botnets on a technical level are time-consuming and highly complex. Fraunhofer FKIE is addressing this problem, researching new ways of intelligent process automation and information management for malware analysis in order to minimize the time needed to investigate these threats.
Recent years have seen extensive adoption of domain generation algorithms (DGA) by modern botnets. The main goal is to generate a large number of domain names and then use a small subset for actual C&C communication. This makes DGAs very compelling for botmasters to harden the infrastructure of their botnets and make it resilient to blacklisting and attacks such as takedown efforts. While early DGAs were used as a backup communication mechanism, several new botnets use them as their primary communication method, making it extremely important to study DGAs in detail.
In this paper, we perform a comprehensive measurement study of the DGA landscape by analyzing 43 DGAbased malware families and variants. We also present a taxonomy for DGAs and use it to characterize and compare the properties of the studied families. By reimplementing the algorithms, we pre-compute all possible domains they generate, covering the majority of known and active DGAs. Then, we study the registration status of over 18 million DGA domains and show that corresponding malware families and related campaigns can be reliably identified by pre-computing future DGA domains. We also give insights into botmasters’ strategies regarding domain registration and identify several pitfalls in previous takedown efforts of DGA-based botnets. We will share the dataset for future research and will also provide a web service to check domains for potential DGA identity.
This paper describes a codesign environment based on the WWW (World Wide Web) and its implementation. Tool invocations and their respective results are linked using hypertext documents. We show how to configure a WWW browser for spawning design tools and how frequent tasks like documentation generation and retrieval are facilitated. The design flow can be adopted to the given application very easily. In addition we introduce the concept of a work flow called ‘design by documentation’. A WWW link to the results is given and experience using it in a codesign project is described.
With regard to performance well established SW-only design methodologies proceed by making the initial specification run first, then by enhancing its functionality and finally by optimizing it. When designing Embedded Systems (EbS) this approach is not viable since decisive design decisions like e.g. the estimation of required processing power or the identification of those parts of the specification which need to be delegated to dedicated HW depend on the fastness and fairness of the initial specification. We here propose a sequence of optimization steps embedded into the design flow, which enables a structured way to accelerate a given working EbS specification at different layers. This sequence of accelerations comprises algorithm selection, algorithm transformation, data transformation, implementation optimization and finally HW acceleration. It is analyzed how all acceleration steps are influenced by the specific attributes of the underlying EbS. The overall acceleration procedure is explained and quantified at hand of a real-life industrial example.
Co-design is concerned with the joint design of hardware and software making up an embedded computer system [Wol94]. A top down design flow for an embedded system begins with a system specification. If it is executable, it may be used for simulation, system verification or to identify algorithmical bottlenecks. In contrast to other chapters of this book, the specification is not developed in this case study, rather it is given from the beginning. Furthermore we are not concerned with partitioning or synthesis of dedicated HW. Instead we focus on the problem how to find an off-the-shelf micro-controller which implements the desired functionality and meets all specification constraints. If feasible, this is usually much cheaper then using dedicated hardware. This chapter will answer the question of feasibility for a real life problem from automobile industry.
Ein gebräuchliche Methodik beim Entwurf eingebetteter Systeme, in Anwendung besonders bei kleinen- und mittleren Unternehmen, geht folgendermaßen vor: Man nehme das bereits existierende Mikrokontroller Entwicklungspaket und bereits vorhandene Funktionen aus einer alten Systemrealisierung, variiere bzw. passe sie an die neue Aufgabe an und teste dann durch Emulation, ob die Spezifikation erfüllt ist.
CASTLE is a co-design platform developed at GMD SET institute. It provides a number of design tools for configuring application specific design flows. This paper presents a walk through the CASTLE co-design environment, following the design flow of a video processing system. The design methodology and the tool usage for this real life example are described, as seen from a designers point of view. The design flow starts with a C/C++ program and gradually derives a register-transfer level description of a processor hardware, as well as the corresponding compiler for generating the processor opcode. The main results of each design step are presented and the usage of the CASTLE tools at each step is explained.
SISAL: User manual
(1990)
Forensic DNA profiles are established by multiplex PCR amplification of a set of highly variable short tandem repeat (STR) loci followed by capillary electrophoresis (CE) as a means to assign alleles to PCR products of differential length. Recently, CE analysis of STR amplicons has been supplemented by high-throughput next generation sequencing (NGS) techniques that are able to detect isoalleles bearing sequence polymorphisms and allow for an improved analysis of degraded DNA. Several such assays have been commercialised and validated for forensic applications. However, these systems are cost-effective only when applied to high numbers of samples. We report here an alternative, cost-efficient shallow-sequence output NGS assay called maSTR assay that, in conjunction with a dedicated bioinformatics pipeline called SNiPSTR, can be implemented with standard NGS instrumentation. In a back-to-back comparison with a CE-based, commercial forensic STR kit, we find that for samples with low DNA content, with mixed DNA from different individuals, or containing PCR inhibitors, the maSTR assay performs equally well, and with degraded DNA is superior to CE-based analysis. Thus, the maSTR assay is a simple, robust and cost-efficient NGS-based STR typing method applicable for human identification in forensic and biomedical contexts.
Open Innovation
(2018)
Open Innovation
(2021)
Der Begriff Open Innovation steht für die Öffnung von unternehmensinternen Innovationsprozessen für sogenannte „externe Quellen“. Zu diesen externen Quellen zählen beispielsweise Lieferanten, Partner, Experten aus Forschungseinrichtungen und insbeson-dere auch Kunden. Diese werden gezielt in die Innovationsentwicklung integriert, sei es als Informations- und Ideenquelle bzw. als Impulsgeber für die Innovationsentwicklung. Daneben existieren auch tiefere Integrationsmöglichkeiten, die eine direkte Partizipation an der Innovationsentwicklung ermöglichen.
Open Innovation
(2020)
Die Freiheit in Forschung und Lehre ist zusammen mit der Wissenschaftsfreiheit eines der bürgerlichen Grundrechte in Deutschland. Aber die Forschungsfreiheit kann nicht grenzenlos sein. Industrie wie akademische Institute müssen ihre Entwicklungen dokumentieren. Nur so ist ein Stoff später für die Vermarktung zulassungsfähig und nur so lässt sich belegen, wer die Urheberrechte daran hat.
Fuzzelarbeit: Identifizierung unbekannter Sicherheitslücken und Software-Fehler durch Fuzzing
(2011)
Fuzzing als toolgestützte Identifizierung von Sicherheitslücken wird in der Regel im letzten Stadium der Softwareentwicklung zum Einsatz kommen. Es eignet sich zur Suche nach Sicherheitslücken in jeder Art Software. Die Robustheit der untersuchten Zielsoftware wird beim Fuzzing mit zielgerichteten, unvorhergesehenen Eingabedaten überprüft. Der Fuzzing-Prozess wird im Artikel beschrieben, ebenso die Taxometrie von Fuzzern, die in "dumme" und "intelligente" Fuzzer eingeteilt werden. Die Identifizierung von Sicherheitslücken oder Fehlern in der Zielsoftware erfolgt durch ein umfassendes Monitoring (Debugger, Profiler, Tracker). Die meist große Zahl identifizierter Schwachstellen und Verwundbarkeiten macht eine Bewertung jeder einzelnen erforderlich, weil in der Regel aus Wirtschaftlichkeitsgründen nicht alle behoben werden können. Als wichtige Bewertungsparameter werden genannt: Erkennbarkeit für Dritte, Reproduzierbarkeit, Ausnutzbarkeit, benötigte Zugriffsrechte und generierbarer Schaden. Im Internet werden etwa 300 Tools angeboten. Die Qualität eines Fuzzers lässt sich jedoch nicht pauschal angeben. Die Wirksamkeit und Eignung eines Fuzzers hängen von der Zielsoftware und den individuellen Anforderungen des Testers ab.
In verteilten und offenen Systemen wollen Kommunikationspartner beim Electronic Commerce Dokumente vertraulich, integer und rechtsverbindlich sowie zuordnungsbar authentisch und nachweisbar senden und empfangen. Für die an der Kommunikation beteiligten Kommunikationspartner muß dazu nachvollziehbar sein, wer wann mit wem welche Dokumente ausgetauscht hat. Zur Erreichung des Sachziels 'Vertraulichkeit' werden Dokumente bei der Speicherung auf einem Server und bei der Übertragung (über lokale Netzte, Intranets, Extranets und im Internet) vom Endanwender verschlüsselt. Dazu müssen die benutzten Schlüssel gegen unberechtigte Kenntnisnahme geschützt werden. Gleichzeitig muß auch die Verfügbarkeit der Schlüssel sichergestellt werden: Verschlüsselte Dokumente können nämlich nur dann wieder benutzbar gemacht werden, wenn sie bei berechtigtem Bedarf wieder entschlüsselt werden können. Im Unternehmen ist es deshalb erforderlich, Verfahren einzuführen, die die Verfügbarkeit gespeicherter Dokumente sicherstellen - auch wenn der originäre Inhaber dieser Dokumente nicht verfügbar ist (Reise, Urlaub, Krankheit, Ausscheiden). Schlüssel-Archive - sog. Enterprise Key Recovery Server - bieten die Möglichkeit, verschlüsselt gespeicherte Konzelationsschlüssel Berechtigten wieder zu Verfügung zu stellen. Damit können verschlüsselt gespeicherte Dokumente gespeichert werden. Enterprise Key Recovery Server werden im Rahmen des Projekts SECFORS - Secure Electronic Commerce an der Fachhochschule Rhein-Sieg zusammen mit Studierenden installiert und unter einer Reihe von Aspekten im Rahmen des vom Bundeswirtschaftsministerium geförderten Kompetenzzentrums Electronic Commerce Bonn Rhein-Sieg (KompEC) evaluiert; dazu werden Anforderungen an vertrauenswürdige Enterprise Key Recovery Server formuliert. Der Einsatz von Enterprise Key Recovery Servern ist in den USA Stand der Technik; in deutschen Unternehmen wird der Bedarf insbesondere deswegen differenziert gesehen, weil eine Verschlüsselung gespeicherter und übertragener Daten noch nicht flächendeckend durchgeführt wird.