Refine
Departments, institutes and facilities
- Fachbereich Wirtschaftswissenschaften (1243)
- Fachbereich Informatik (1148)
- Fachbereich Angewandte Naturwissenschaften (766)
- Fachbereich Ingenieurwissenschaften und Kommunikation (636)
- Institut für funktionale Gen-Analytik (IFGA) (584)
- Institut für Technik, Ressourcenschonung und Energieeffizienz (TREE) (485)
- Präsidium (403)
- Fachbereich Sozialpolitik und Soziale Sicherung (402)
- Institute of Visual Computing (IVC) (313)
- Institut für Cyber Security & Privacy (ICSP) (307)
Document Type
- Article (2431)
- Conference Object (1806)
- Part of a Book (942)
- Book (monograph, edited volume) (452)
- Part of Periodical (411)
- Report (201)
- Contribution to a Periodical (118)
- Doctoral Thesis (106)
- Working Paper (94)
- Preprint (90)
Year of publication
Keywords
- Lehrbuch (88)
- Deutschland (34)
- Nachhaltigkeit (30)
- Controlling (25)
- Unternehmen (25)
- Management (20)
- Corporate Social Responsibility (18)
- Betriebswirtschaftslehre (17)
- Digitalisierung (17)
- Machine Learning (17)
This paper describes a codesign environment based on the WWW (World Wide Web) and its implementation. Tool invocations and their respective results are linked using hypertext documents. We show how to configure a WWW browser for spawning design tools and how frequent tasks like documentation generation and retrieval are facilitated. The design flow can be adopted to the given application very easily. In addition we introduce the concept of a work flow called ‘design by documentation’. A WWW link to the results is given and experience using it in a codesign project is described.
With regard to performance well established SW-only design methodologies proceed by making the initial specification run first, then by enhancing its functionality and finally by optimizing it. When designing Embedded Systems (EbS) this approach is not viable since decisive design decisions like e.g. the estimation of required processing power or the identification of those parts of the specification which need to be delegated to dedicated HW depend on the fastness and fairness of the initial specification. We here propose a sequence of optimization steps embedded into the design flow, which enables a structured way to accelerate a given working EbS specification at different layers. This sequence of accelerations comprises algorithm selection, algorithm transformation, data transformation, implementation optimization and finally HW acceleration. It is analyzed how all acceleration steps are influenced by the specific attributes of the underlying EbS. The overall acceleration procedure is explained and quantified at hand of a real-life industrial example.
Co-design is concerned with the joint design of hardware and software making up an embedded computer system [Wol94]. A top down design flow for an embedded system begins with a system specification. If it is executable, it may be used for simulation, system verification or to identify algorithmical bottlenecks. In contrast to other chapters of this book, the specification is not developed in this case study, rather it is given from the beginning. Furthermore we are not concerned with partitioning or synthesis of dedicated HW. Instead we focus on the problem how to find an off-the-shelf micro-controller which implements the desired functionality and meets all specification constraints. If feasible, this is usually much cheaper then using dedicated hardware. This chapter will answer the question of feasibility for a real life problem from automobile industry.
Ein gebräuchliche Methodik beim Entwurf eingebetteter Systeme, in Anwendung besonders bei kleinen- und mittleren Unternehmen, geht folgendermaßen vor: Man nehme das bereits existierende Mikrokontroller Entwicklungspaket und bereits vorhandene Funktionen aus einer alten Systemrealisierung, variiere bzw. passe sie an die neue Aufgabe an und teste dann durch Emulation, ob die Spezifikation erfüllt ist.
CASTLE is a co-design platform developed at GMD SET institute. It provides a number of design tools for configuring application specific design flows. This paper presents a walk through the CASTLE co-design environment, following the design flow of a video processing system. The design methodology and the tool usage for this real life example are described, as seen from a designers point of view. The design flow starts with a C/C++ program and gradually derives a register-transfer level description of a processor hardware, as well as the corresponding compiler for generating the processor opcode. The main results of each design step are presented and the usage of the CASTLE tools at each step is explained.
SISAL: User manual
(1990)
Forensic DNA profiles are established by multiplex PCR amplification of a set of highly variable short tandem repeat (STR) loci followed by capillary electrophoresis (CE) as a means to assign alleles to PCR products of differential length. Recently, CE analysis of STR amplicons has been supplemented by high-throughput next generation sequencing (NGS) techniques that are able to detect isoalleles bearing sequence polymorphisms and allow for an improved analysis of degraded DNA. Several such assays have been commercialised and validated for forensic applications. However, these systems are cost-effective only when applied to high numbers of samples. We report here an alternative, cost-efficient shallow-sequence output NGS assay called maSTR assay that, in conjunction with a dedicated bioinformatics pipeline called SNiPSTR, can be implemented with standard NGS instrumentation. In a back-to-back comparison with a CE-based, commercial forensic STR kit, we find that for samples with low DNA content, with mixed DNA from different individuals, or containing PCR inhibitors, the maSTR assay performs equally well, and with degraded DNA is superior to CE-based analysis. Thus, the maSTR assay is a simple, robust and cost-efficient NGS-based STR typing method applicable for human identification in forensic and biomedical contexts.
Open Innovation
(2018)
Open Innovation
(2021)
Der Begriff Open Innovation steht für die Öffnung von unternehmensinternen Innovationsprozessen für sogenannte „externe Quellen“. Zu diesen externen Quellen zählen beispielsweise Lieferanten, Partner, Experten aus Forschungseinrichtungen und insbeson-dere auch Kunden. Diese werden gezielt in die Innovationsentwicklung integriert, sei es als Informations- und Ideenquelle bzw. als Impulsgeber für die Innovationsentwicklung. Daneben existieren auch tiefere Integrationsmöglichkeiten, die eine direkte Partizipation an der Innovationsentwicklung ermöglichen.
Open Innovation
(2020)
Die Freiheit in Forschung und Lehre ist zusammen mit der Wissenschaftsfreiheit eines der bürgerlichen Grundrechte in Deutschland. Aber die Forschungsfreiheit kann nicht grenzenlos sein. Industrie wie akademische Institute müssen ihre Entwicklungen dokumentieren. Nur so ist ein Stoff später für die Vermarktung zulassungsfähig und nur so lässt sich belegen, wer die Urheberrechte daran hat.
Fuzzelarbeit: Identifizierung unbekannter Sicherheitslücken und Software-Fehler durch Fuzzing
(2011)
Fuzzing als toolgestützte Identifizierung von Sicherheitslücken wird in der Regel im letzten Stadium der Softwareentwicklung zum Einsatz kommen. Es eignet sich zur Suche nach Sicherheitslücken in jeder Art Software. Die Robustheit der untersuchten Zielsoftware wird beim Fuzzing mit zielgerichteten, unvorhergesehenen Eingabedaten überprüft. Der Fuzzing-Prozess wird im Artikel beschrieben, ebenso die Taxometrie von Fuzzern, die in "dumme" und "intelligente" Fuzzer eingeteilt werden. Die Identifizierung von Sicherheitslücken oder Fehlern in der Zielsoftware erfolgt durch ein umfassendes Monitoring (Debugger, Profiler, Tracker). Die meist große Zahl identifizierter Schwachstellen und Verwundbarkeiten macht eine Bewertung jeder einzelnen erforderlich, weil in der Regel aus Wirtschaftlichkeitsgründen nicht alle behoben werden können. Als wichtige Bewertungsparameter werden genannt: Erkennbarkeit für Dritte, Reproduzierbarkeit, Ausnutzbarkeit, benötigte Zugriffsrechte und generierbarer Schaden. Im Internet werden etwa 300 Tools angeboten. Die Qualität eines Fuzzers lässt sich jedoch nicht pauschal angeben. Die Wirksamkeit und Eignung eines Fuzzers hängen von der Zielsoftware und den individuellen Anforderungen des Testers ab.
In verteilten und offenen Systemen wollen Kommunikationspartner beim Electronic Commerce Dokumente vertraulich, integer und rechtsverbindlich sowie zuordnungsbar authentisch und nachweisbar senden und empfangen. Für die an der Kommunikation beteiligten Kommunikationspartner muß dazu nachvollziehbar sein, wer wann mit wem welche Dokumente ausgetauscht hat. Zur Erreichung des Sachziels 'Vertraulichkeit' werden Dokumente bei der Speicherung auf einem Server und bei der Übertragung (über lokale Netzte, Intranets, Extranets und im Internet) vom Endanwender verschlüsselt. Dazu müssen die benutzten Schlüssel gegen unberechtigte Kenntnisnahme geschützt werden. Gleichzeitig muß auch die Verfügbarkeit der Schlüssel sichergestellt werden: Verschlüsselte Dokumente können nämlich nur dann wieder benutzbar gemacht werden, wenn sie bei berechtigtem Bedarf wieder entschlüsselt werden können. Im Unternehmen ist es deshalb erforderlich, Verfahren einzuführen, die die Verfügbarkeit gespeicherter Dokumente sicherstellen - auch wenn der originäre Inhaber dieser Dokumente nicht verfügbar ist (Reise, Urlaub, Krankheit, Ausscheiden). Schlüssel-Archive - sog. Enterprise Key Recovery Server - bieten die Möglichkeit, verschlüsselt gespeicherte Konzelationsschlüssel Berechtigten wieder zu Verfügung zu stellen. Damit können verschlüsselt gespeicherte Dokumente gespeichert werden. Enterprise Key Recovery Server werden im Rahmen des Projekts SECFORS - Secure Electronic Commerce an der Fachhochschule Rhein-Sieg zusammen mit Studierenden installiert und unter einer Reihe von Aspekten im Rahmen des vom Bundeswirtschaftsministerium geförderten Kompetenzzentrums Electronic Commerce Bonn Rhein-Sieg (KompEC) evaluiert; dazu werden Anforderungen an vertrauenswürdige Enterprise Key Recovery Server formuliert. Der Einsatz von Enterprise Key Recovery Servern ist in den USA Stand der Technik; in deutschen Unternehmen wird der Bedarf insbesondere deswegen differenziert gesehen, weil eine Verschlüsselung gespeicherter und übertragener Daten noch nicht flächendeckend durchgeführt wird.