Refine
H-BRS Bibliography
- yes (1148) (remove)
Departments, institutes and facilities
- Fachbereich Informatik (1148) (remove)
Document Type
- Conference Object (606)
- Article (265)
- Report (77)
- Part of a Book (50)
- Preprint (50)
- Book (monograph, edited volume) (32)
- Doctoral Thesis (22)
- Conference Proceedings (18)
- Research Data (11)
- Master's Thesis (7)
Year of publication
Keywords
- Virtual Reality (13)
- Robotics (12)
- Machine Learning (10)
- Usable Security (10)
- virtual reality (10)
- 3D user interface (7)
- Quality diversity (7)
- Augmented Reality (6)
- Lehrbuch (6)
- Navigation (6)
The automated annotation of data from high throughput sequencing and genomics experiments is a significant challenge for bioinformatics. Most current approaches rely on sequential pipelines of gene finding and gene function prediction methods that annotate a gene with information from different reference data sources. Each function prediction method contributes evidence supporting a functional assignment. Such approaches generally ignore the links between the information in the reference datasets. These links, however, are valuable for assessing the plausibility of a function assignment and can be used to evaluate the confidence in a prediction. We are working towards a novel annotation system that uses the network of information supporting the function assignment to enrich the annotation process for use by expert curators and predicting the function of previously unannotated genes. In this paper we describe our success in the first stages of this development. We present the data integration steps that are needed to create the core database of integrated reference databases (UniProt, PFAM, PDB, GO and the pathway database Ara-Cyc) which has been established in the ONDEX data integration system. We also present a comparison between different methods for integration of GO terms as part of the function assignment pipeline and discuss the consequences of this analysis for improving the accuracy of gene function annotation. The methods and algorithms presented in this publication are an integral part of the ONDEX system which is freely available from http://ondex.sf.net/.
TSEM: Temporally-Weighted Spatiotemporal Explainable Neural Network for Multivariate Time Series
(2023)
TSEM: Temporally Weighted Spatiotemporal Explainable Neural Network for Multivariate Time Series
(2022)
Deep learning has become a one-size-fits-all solution for technical and business domains thanks to its flexibility and adaptability. It is implemented using opaque models, which unfortunately undermines the outcome trustworthiness. In order to have a better understanding of the behavior of a system, particularly one driven by time series, a look inside a deep learning model so-called posthoc eXplainable Artificial Intelligence (XAI) approaches, is important. There are two major types of XAI for time series data, namely model-agnostic and model-specific. Model-specific approach is considered in this work. While other approaches employ either Class Activation Mapping (CAM) or Attention Mechanism, we merge the two strategies into a single system, simply called the Temporally Weighted Spatiotemporal Explainable Neural Network for Multivariate Time Series (TSEM). TSEM combines the capabilities of RNN and CNN models in such a way that RNN hidden units are employed as attention weights for the CNN feature maps temporal axis. The result shows that TSEM outperforms XCM. It is similar to STAM in terms of accuracy, while also satisfying a number of interpretability criteria, including causality, fidelity, and spatiotemporality.
With regard to performance well established SW-only design methodologies proceed by making the initial specification run first, then by enhancing its functionality and finally by optimizing it. When designing Embedded Systems (EbS) this approach is not viable since decisive design decisions like e.g. the estimation of required processing power or the identification of those parts of the specification which need to be delegated to dedicated HW depend on the fastness and fairness of the initial specification. We here propose a sequence of optimization steps embedded into the design flow, which enables a structured way to accelerate a given working EbS specification at different layers. This sequence of accelerations comprises algorithm selection, algorithm transformation, data transformation, implementation optimization and finally HW acceleration. It is analyzed how all acceleration steps are influenced by the specific attributes of the underlying EbS. The overall acceleration procedure is explained and quantified at hand of a real-life industrial example.
Forensic DNA profiles are established by multiplex PCR amplification of a set of highly variable short tandem repeat (STR) loci followed by capillary electrophoresis (CE) as a means to assign alleles to PCR products of differential length. Recently, CE analysis of STR amplicons has been supplemented by high-throughput next generation sequencing (NGS) techniques that are able to detect isoalleles bearing sequence polymorphisms and allow for an improved analysis of degraded DNA. Several such assays have been commercialised and validated for forensic applications. However, these systems are cost-effective only when applied to high numbers of samples. We report here an alternative, cost-efficient shallow-sequence output NGS assay called maSTR assay that, in conjunction with a dedicated bioinformatics pipeline called SNiPSTR, can be implemented with standard NGS instrumentation. In a back-to-back comparison with a CE-based, commercial forensic STR kit, we find that for samples with low DNA content, with mixed DNA from different individuals, or containing PCR inhibitors, the maSTR assay performs equally well, and with degraded DNA is superior to CE-based analysis. Thus, the maSTR assay is a simple, robust and cost-efficient NGS-based STR typing method applicable for human identification in forensic and biomedical contexts.
Fuzzelarbeit: Identifizierung unbekannter Sicherheitslücken und Software-Fehler durch Fuzzing
(2011)
Fuzzing als toolgestützte Identifizierung von Sicherheitslücken wird in der Regel im letzten Stadium der Softwareentwicklung zum Einsatz kommen. Es eignet sich zur Suche nach Sicherheitslücken in jeder Art Software. Die Robustheit der untersuchten Zielsoftware wird beim Fuzzing mit zielgerichteten, unvorhergesehenen Eingabedaten überprüft. Der Fuzzing-Prozess wird im Artikel beschrieben, ebenso die Taxometrie von Fuzzern, die in "dumme" und "intelligente" Fuzzer eingeteilt werden. Die Identifizierung von Sicherheitslücken oder Fehlern in der Zielsoftware erfolgt durch ein umfassendes Monitoring (Debugger, Profiler, Tracker). Die meist große Zahl identifizierter Schwachstellen und Verwundbarkeiten macht eine Bewertung jeder einzelnen erforderlich, weil in der Regel aus Wirtschaftlichkeitsgründen nicht alle behoben werden können. Als wichtige Bewertungsparameter werden genannt: Erkennbarkeit für Dritte, Reproduzierbarkeit, Ausnutzbarkeit, benötigte Zugriffsrechte und generierbarer Schaden. Im Internet werden etwa 300 Tools angeboten. Die Qualität eines Fuzzers lässt sich jedoch nicht pauschal angeben. Die Wirksamkeit und Eignung eines Fuzzers hängen von der Zielsoftware und den individuellen Anforderungen des Testers ab.
In verteilten und offenen Systemen wollen Kommunikationspartner beim Electronic Commerce Dokumente vertraulich, integer und rechtsverbindlich sowie zuordnungsbar authentisch und nachweisbar senden und empfangen. Für die an der Kommunikation beteiligten Kommunikationspartner muß dazu nachvollziehbar sein, wer wann mit wem welche Dokumente ausgetauscht hat. Zur Erreichung des Sachziels 'Vertraulichkeit' werden Dokumente bei der Speicherung auf einem Server und bei der Übertragung (über lokale Netzte, Intranets, Extranets und im Internet) vom Endanwender verschlüsselt. Dazu müssen die benutzten Schlüssel gegen unberechtigte Kenntnisnahme geschützt werden. Gleichzeitig muß auch die Verfügbarkeit der Schlüssel sichergestellt werden: Verschlüsselte Dokumente können nämlich nur dann wieder benutzbar gemacht werden, wenn sie bei berechtigtem Bedarf wieder entschlüsselt werden können. Im Unternehmen ist es deshalb erforderlich, Verfahren einzuführen, die die Verfügbarkeit gespeicherter Dokumente sicherstellen - auch wenn der originäre Inhaber dieser Dokumente nicht verfügbar ist (Reise, Urlaub, Krankheit, Ausscheiden). Schlüssel-Archive - sog. Enterprise Key Recovery Server - bieten die Möglichkeit, verschlüsselt gespeicherte Konzelationsschlüssel Berechtigten wieder zu Verfügung zu stellen. Damit können verschlüsselt gespeicherte Dokumente gespeichert werden. Enterprise Key Recovery Server werden im Rahmen des Projekts SECFORS - Secure Electronic Commerce an der Fachhochschule Rhein-Sieg zusammen mit Studierenden installiert und unter einer Reihe von Aspekten im Rahmen des vom Bundeswirtschaftsministerium geförderten Kompetenzzentrums Electronic Commerce Bonn Rhein-Sieg (KompEC) evaluiert; dazu werden Anforderungen an vertrauenswürdige Enterprise Key Recovery Server formuliert. Der Einsatz von Enterprise Key Recovery Servern ist in den USA Stand der Technik; in deutschen Unternehmen wird der Bedarf insbesondere deswegen differenziert gesehen, weil eine Verschlüsselung gespeicherter und übertragener Daten noch nicht flächendeckend durchgeführt wird.
In der Informationsgesellschaft nehmen auch in Deutschland aggressive und kriminelle Handlungen (Computermißbrauch) ausweislich der jährlichen Kriminalstatistik [BMI02] zu. Weniger Bedeutung wird in Deutschland bisher politisch-motivierten Aktionen beigemessen. Weltweit werden klassische Verfahren wie ziviler Ungehorsam, innere Unruhen und Bürgerkrieg zunehmend durch IT-gestützte Verfahren ergänzt und ersetzt (Transformation). Durch die weltweite Verfügbarkeit der IT-gestützten Verfahren und des Internet muß der - auf einen Staat begrenzte - Begriff des zivilen Ungehorsams genauso wie der der inneren Unruhen und der des klassischen Bürgerkriegs transformiert werden in den ubiquitären Cyberspace. Angesichts zunehmender gewalttätiger Aktivitäten unterhalb der Kriegsschwelle im Cyberspace muß die Sensibilität für die Auswirkungen dieser Aktivitäten dringend geschaffen werden und angemessene Reaktionen müssen auf allen Ebenen (Private, Unternehmen und Behörden) erarbeitet werden.
Gegen unveröffentlichte – nur wenigen Personen bekannte – Sicherheitslücken (Less-than-Zero-Day Vulnerabilities) und diese ausnutzende Angriffsprogramme (Exploits) können IT-Systeme nicht geschützt werden. In der Vergangenheit wurden Sicherheitslücken meist dem Hersteller gemeldet; dieser stellte (allerdings nicht in allen Fällen) eine Fehlerkorrektur zur Verfügung. In jüngerer Zeit werden Sicherheitslücken systematisch (Tool-gestützt) gesucht und an Behörden, Unternehmen und an die organisierte Kriminalität verkauft – und nicht oder nicht sofort dem Hersteller gemeldet. Durch Ausnutzung dieser unveröffentlichten Sicherheitslücken ist Wirtschaftsspionage und Computersabotage (auch der Steuerungsrechner des Internet) unerkannt möglich [GI 2007]. Praktizierte Anwendungen sind – u.a. auch als Titan Rain – dokumentiert [BfDI 2007, Keizer 2006, NSTAC 2007, Pohl 2007, Rath 2007].
Zur Erreichung des Sachziels Vertraulichkeit werden Daten (Dokumente, Dateien, E-Mails etc.) bei der Speicherung und Übertragung in lokalen Netzen, Intranets und im Internet häufig vom Endanwender verschlüsselt. Die dazu benutzten Schlüssel müssen bei Bedarf für den Endanwender genauso verfügbar sein wie für das Unternehmen bei Nicht-Verfügbarkeit des Endanwenders. Unternehmensinterne Schlüssel-Archive speichern die benutzten Schlüssel oder speichern die Adressen benutzter Schlüssel oder stellen auf andere Weise die benutzten Schlüssel auf Anforderung Berechtigten wieder bereit. Schlüssel-Archive sind aus der auf dem Escrowed Encryption Standard (EES) basierenden Clipper-Initiative der Vereinigten Staaten entstanden und werden dort als Key Recovery Center bezeichnet.