004 Datenverarbeitung; Informatik
Refine
Departments, institutes and facilities
- Fachbereich Informatik (910)
- Institute of Visual Computing (IVC) (248)
- Institut für Cyber Security & Privacy (ICSP) (145)
- Fachbereich Wirtschaftswissenschaften (139)
- Institut für funktionale Gen-Analytik (IFGA) (82)
- Institut für Technik, Ressourcenschonung und Energieeffizienz (TREE) (54)
- Institut für Verbraucherinformatik (IVI) (41)
- Institut für Sicherheitsforschung (ISF) (27)
- Fachbereich Ingenieurwissenschaften und Kommunikation (24)
- Graduierteninstitut (21)
Document Type
- Conference Object (764)
- Article (276)
- Report (85)
- Part of a Book (82)
- Book (monograph, edited volume) (78)
- Master's Thesis (44)
- Preprint (44)
- Doctoral Thesis (31)
- Conference Proceedings (27)
- Bachelor Thesis (19)
Year of publication
Keywords
- Lehrbuch (14)
- Robotics (12)
- Controlling (10)
- Informationstechnik (10)
- Virtual Reality (10)
- Machine Learning (9)
- virtual reality (9)
- Quality diversity (7)
- Robotik (7)
- Software (7)
Trusted EPC Administration
(2009)
RFID-Transponder dienen der Identifizierung von Produkten, der Zuordnung von Produkten zu Personen, der Fälschungssicherheit und weiteren Anwendungsgebieten. Durch RFID-Transponder sollen Technologien wie z.B. der Barcode (teilweise) abgelöst werden. Einige Unternehmen sehen eine Koexistenz zwischen den Technologien, da die alte Technologie zur Zeit noch kostengünstiger ist. Einige Branchen, wie z.B. Produktion, Logistik und Handel, können von der Technologie profitieren. Die RFID-Transponder bringen gegenüber alten Technologien viele Vorteile. RFID ermöglicht die Verarbeitung eines größeren Datenvolumens, es ist kein direkter Sichtkontakt zum Lese-/Schreibgerät erforderlich und mehrere Transponder können gleichzeitig ausgewertet werden. Business-to-Business (B2B) Anwender erhoffen sich einen effizienteren und transparenteren Beschaffungsprozess, welcher im Rahmen des Supply-Chain-Managements Vorteile bringen kann. Diese Arbeit legt ihren Schwerpunkt auf die Echtzeitüberwachung während des gesamten Produktlebenszyklus. Zur weltweit eindeutigen Identifikation von Objekten werden dazu in RFID-Transpondern item-level Identifikationsnummern wie der EPC (Electronic Product Code) verwendet.
Nearest Neighbor Search (NNS) is employed by many computer vision algorithms. The computational complexity is large and constitutes a challenge for real-time capability. The basic problem is in rapidly processing a huge amount of data, which is often addressed by means of highly sophisticated search methods and parallelism. We show that NNS based vision algorithms like the Iterative Closest Points algorithm (ICP) can achieve real-time capability while preserving compact size and moderate energy consumption as it is needed in robotics and many other domains. The approach exploits the concept of general purpose computation on graphics processing units (GPGPU) and is compared to parallel processing on CPU. We apply this approach to the 3D scan registration problem, for which a speed-up factor of 88 compared to a sequential CPU implementation is reported.
Gegen unveröffentlichte – nur wenigen Personen bekannte – Sicherheitslücken (Less-than-Zero-Day Vulnerabilities) und diese ausnutzende Angriffsprogramme (Exploits) können IT-Systeme nicht geschützt werden. In der Vergangenheit wurden Sicherheitslücken meist dem Hersteller gemeldet; dieser stellte (allerdings nicht in allen Fällen) eine Fehlerkorrektur zur Verfügung. In jüngerer Zeit werden Sicherheitslücken systematisch (Tool-gestützt) gesucht und an Behörden, Unternehmen und an die organisierte Kriminalität verkauft – und nicht oder nicht sofort dem Hersteller gemeldet. Durch Ausnutzung dieser unveröffentlichten Sicherheitslücken ist Wirtschaftsspionage und Computersabotage (auch der Steuerungsrechner des Internet) unerkannt möglich [GI 2007]. Praktizierte Anwendungen sind – u.a. auch als Titan Rain – dokumentiert [BfDI 2007, Keizer 2006, NSTAC 2007, Pohl 2007, Rath 2007].
Die Entwicklung technischer Produkte strebt nach der Akzeptanz durch den Markt. Das abstrakte Gebilde des Marktes wird aber geprägt durch menschliche Entscheidungen. BenutzerInnen arbeiten gerne mit einem technischen System oder sie lehnen es mehr oder weniger ab. Diese Ablehnung durch die BenutzerInnen führt über kurz oder lang auch zur Ablehnung durch die Entscheidungsträger in Firmen und anderen Institutionen, die gemeinsam mit den privaten BenutzerInnen den Markt ausmachen. Somit steht und fällt der wirtschaftliche Erfolg bei der Entwicklung und Vermarktung technischer Produkte mit dem Maß der erreichten Akzeptanz durch die BenutzerInnen.
Keeping planning problems as small as possible is a must in order to cope with complex tasks and environments. Earlier, we have described a method for cascading Description Logic (dl) representation and reasoning on the one hand, and Hierarchical Task Network (htn) action planning on the other. The planning domain description as well as the fundamental htn planning concepts are represented in dl and can therefore be subject to dl reasoning. From these representations, concise planning problems are generated for htn planners. We show by way of case study that this method yields significantly smaller planning problem descriptions than regular representations do in htn planning. The method is presented through a case study of a robot navigation domain and the blocks world domain. We present the benefits of using this approach in comparison with a pure htn planning approach.
Das WebDAV-Protokoll (Web-based Distributed Authoring and Versioning) ermöglicht die Bearbeitung und Verwaltung von Dateien auf einem Web-Server. Aus technischer Sicht ist WebDAV eine Erweiterung des HTTP-Protokolls. Durch die rasche Zunahme und den steigenden Verbreitungsgrad von WebDAV-basierten Anwendungen, wie etwa Dokumentenmanagementsystemen, steigen auch die Anforderungen an deren Zuverlässigkeit. Die voll umfassende Unterstützung von Transaktionen, d.h. die Zusammenfassung einer Menge von Verarbeitungsschritten zu einer logischen Einheit, würde hierzu einen wichtigen Beitrag leisten. Die für Transaktionen geforderten Eigenschaften, die gleichzeitig auch deren Hauptvorteile darstellen, werden durch das bekannte Akronym ACID beschrieben, welches für Atomarität (atomicity), Konsistenz (consistency), Isoliertheit (isolation) und Dauerhaftigkeit (durability) steht. Zurzeit unterstützt das WebDAV-Protokoll allerdings nur die Punkte Konsistenz und Dauerhaftigkeit, eine komplette und vor allem standardkonforme Unterstützung der ACID-Eigenschaften von Transaktionen ist nicht gegeben. Im Rahmen dieser Arbeit wurde nun ein Transaktionsmodell für den WebDAVStandard erarbeitet. Das Modell ermöglicht es, eine Menge von Dateioperationen transaktionsbasiert durchzuführen. Das Modell unterstützt dabei zur Sicherstellung der Serialisierbarkeit sowohl optimistische als auch pessimistische Verfahren. Die Unterstützung des optimistischen Verfahrens wurde dabei von der IETF (Internet Engineering Task Force) als zulässiges und sinnvolles Vorgehen zur Realisierung von Transaktionen mittels WebDAV bestätigt. Für die pessimistischen Verfahren wurde im Rahmen dieser Arbeit aufgezeigt, wie die bestehenden Konzepte des WebDAV-Standards erweitert werden müssen, um dies ebenfalls umsetzen zu können. Um die getroffene Entwurfsentscheidung zu verifizieren, wurde eine prototypische Implementierung des Modells vorgenommen. Hierbei wurde, nach einer entsprechenden Evaluierung und Bewertung, die optimistische Nebenläufigkeitskontrolle umgesetzt. Clientseitig setzt die Implementierung auf der Jackrabit-Library auf, die serverseitige Implementierung verwendet als Grundlage den WebDAV-Server von Subversion.
Diese Arbeit soll sich mit dem Erstellen von High Dynamic Range Images beschäftigen und damit, es den Fotografen ein wenig leichter zu machen. Ein Algorithmus zum Entfernen von Bildartefakten wird ausgewählt und parallel unter Nutzung der NVIDIA CUDA API implementiert. Der dadurch erzielte Geschwindigkeitszuwachs macht dieses Verfahren tauglich für den Einsatz in Bildbearbeitungsprogrammen.
Grid services will form the base for future computational Grids. Web Services, have been extended to build Grid services. Grid Services are dened in the Open Grid Service Architecture (OGSA). The Globus Alliance has released a Web Service Resource Framework, which is still under development and which is still missing vital parts. One of them is a Concept that allows Grid-Service Requests to securely traverse Firewalls, and its realization. This Thesis aims at the development and realization of a detailed Concept for an Application Level Gateway for Grid services, based on an existing rough concept. This approach should enable a strict division between a local network and the Internet. The internet is considered as a untrusted site and the local network is considered as a trusted site. Grid resources are placed in the internet as well as in the local network. This means that the possibility to communicate through a Firewall is essential. Some further protocols like Grid Resource Allocation and Management (GRAM) and the Grid File Transfer Protocol (GridFTP) must be able to traverse the network borders securely as well, while no further actions must be taken from the user side. The German Federal Oce for Information Security (BSI) proposes a Firewall - Application Level Gateway (ALG) - Firewall solution to the German Aerospace Center (DLR) where this Thesis is written, as a principle approach. In this approach, the local network is divided from the Internet with two rewalls. Between those rewalls is a demilitarized zone (DMZ), where computers may be placed, which can be accessed from the Internet and from the local network. An ALG which is placed in this DMZ should represent the local Grid nodes to the Internet and it should act as a client to the local nodes. All Grid service requests must be directed to the ALG instead of the protected Grid nodes. The ALG then checks and validates the requests on the application level (OSI layer 7). Requests that pose no security threat and fulll certain criteria will then be forwarded to the local Grid nodes. The responses from the local Grid nodes are checked and validated by the ALG as well.
Ein wichtiges Themengebiet der Forschung ist die Beschleunigung von Berechnungen mittels Parallelisierung von Algorithmen. Grafikprozessoren, die für den General Purpose Computation on GPU’s (GPGPU) Betrieb geeignet sind, bieten eine aktuelle Möglichkeit der Parallelisierung. Anhand dieser Grafikkarten ist es möglich, die hohe Leistung der Grafikprozessoren zur Berechnung wissenschaftlicher Aufgabenstellungen zu nutzen. In dieser Arbeit wird ein Algorithmus zur Ausrichtung von Belichtungsreihen, die bei der High-Dynamic-Range (HDR) Fotografie genutzt werden, ausgewählt und auf der Grafikkartenarchitektur von NVIDIA parallelisiert.
Heutzutage ist die Entwicklung von Luft- und Raumfahrzeugen ein komplexer und standardisierter Prozess, der verschiedene Disziplinen der Wissenschaft und des Ingenieurwesens vereint. Die Kenntnis flugphysikalischer Eigenschaften, insbesondere Aerodynamik und Strömung, ist für den Entwurf von Luft- und Raumfahrzeugen unerlässlich. Um den Aufwand zur Berechnung dieser Eigenschaften zu verringern, wurden Methoden und Werkzeuge zur computergestützten Simulation entworfen. Diese werden in integrierten simulationsbasierten Entwicklungsprozessen zusammengefasst. Dadurch ist es beispielsweise möglich, Zeitersparnisse von bis zu mehreren Jahren, gegenüber physikalischen Tests in Windkanälen, zu erzielen [Bec08].
Today publications are digitally available which enables researchers to search the text and often also the content of tables. On the contrary, images cannot be searched which is not a problem for most fields, but in chemistry most of the information are contained in images, especially structure diagrams. Next to the "normal" chemical structures, which represent exactly one molecule, there also exist generic structures, so called Markush structures. These contain variable parts and additional textual information which enable them to represent several molecules at once. This can vary between just a few and up to thousands or even millions. This ability lead to a spread of Markush structures in patents, because it enables patents to protect entire families of molecules at once. Next to the prevention of an enumeration of all structures it also has the advantage that, if a Markush structure is used in a patent, it is much harder to determine whether a specific structure is protected by it or not. To solve the question about the protection of a structure, it is necessary to search the patents. Appropriate databases for this task already do exist, but are filled manually. An automatic processing does not yet exist. In this project a Markush structure reconstruction prototype is developed which is able to reconstruct bitmaps including Markush structures (meaning a depiction of the structure and a text part describing the generic parts) into a digital format and save them in the newly developed context-free grammar based file format extSMILES. This format is searchable due to its context-free grammar based design. To be able to develop a Markush structure reconstruction prototype, an in depth analysis of the concept of Markush structures and their requirements for a reconstruction process was performed. Thereby it is stated, that the common connection table concept of the existing file formats is not able to store Markush structures. Especially challenging are conditions for most of the formats. Thus, a context-free grammar based file format is developed, which extends the SMILES format. This extSMILES called format assures the searchability of the results by its context-free grammar based concept, and is able to store all information contained in Markush structures. In addition it is generic, extendable and easily understandable. The developed prototype for the Markush structure reconstruction uses extSMILES as output format and is based on the chemical structure recognition tool chemoCR and the Unstructured Information Management Architecture UIMA. For chemoCR modules are developed which enable it to recognize and assemble Markush structures as well as to return the reconstruction result in extSMILES. For UIMA on the other hand, a pipeline is developed, which is able to analyse and translate the input text files to extSMILES. The results of both tools then are combined and presented in chemoCR. An evaluation of the prototype is performed on a representative set of twelve structures of interest and low image quality which contain all typical Markush elements. Trivial structures containing only one R-group are not evaluated. Due to the challenging nature of the images, no Markush structure could be correctly reconstructed. But by regarding the assumption, that R-group definitions which are described by natural language are excluded from the task, and under the condition that the core structure reconstruction is improved, the rate of success can be increased to 58.4%.
The short survey „Green IT 2009“ got a very pleasant feedback. The authors received 132 useful answers within only two weeks of survey (15th January until 31st January 2009). The electronic forms were sent to 1.000 companies in Germany and some neighbouring countries. The results show very clearly that the companies are already acting. Green IT has found its way into the companies in different ways and activities. But Green IT is known as a technical topic of IT management or building services engineering. The investments are made mostly in technical activities (energy saving hardware, virtualisation, cooling and more). From a business view the sourcing departments have to change their strategies and processes. The type and amount of IT investment decisions are not concerned by Green IT activities. The main targets of the companies are saving energy and costs followed by advancements in marketing and innovation.
Die Kurzumfrage „Green IT 2009“ ist auf eine erfreulich hohe Resonanz gestoßen. Die Autoren erhielten innerhalb von zwei Wochen Laufzeit (15.01.-31.01.2009) 132 auswertbare Antworten. Die elektronischen Fragebögen wurden an etwa 1.000 Unternehmen, überwiegend aus Deutschland, aber auch aus einigen Nachbarländern, versendet.
In this paper, we present the results of a controlled human experiment where students in a business process modelling course had to model a business process from a case study as part of their coursework. One group could take advantage of the continuous validation feature that is implemented in the bflow modelling tool, i.e. they were provided with alerts about modelling errors. A control group had to create a model for the same case study without using continuous validation. The results of the experiment indicate that the presence of continuous validation indeed has had a positive effect on the number of syntactic errors in business process models.
Mergers and acquisitions take place all over the world and in many industries, typically motivated by corporate politics. While IT management is often not involved in the decision-making, it has to solve a wide range of problems in the post-merger phase. Indeed, merging two or more companies implies not only merging their core businesses, but also creating a new and efficiently integrated IT organisation from the individual ones, since persistence of the current IT organisations usually does not make sense. In addition, corporate management frequently imposes constraints, e.g., cost reductions, on the IT infrastructure. The principal critical success factor when merging IT organisations is the uninterrupted operation of the IT business, because a service gap is neither acceptable for in-house functional departments nor for external customers. Therefore, the IT rebuilding phase has to focus on IT services that facilitate the processes of functional departments, support processes, and processes of customers and suppliers, so that any transformation work is transparent to internal and external customers. In this article we describe a real-world but anonymous case study. Our goals are to highlight the points important for merging IT organisations, and to help decision-makers, particularly in the areas of IT organisation and IT personnel. We focus on the arising organisational and non-technical issues from a management perspective, i.e., the CIO's view, and provide checklists intended to help IT managers to address the most pressing issues. To assist CIOs surviving in the post merger phase, we give check lists for merging IT organisations, check lists for merging IT human resources, check lists for IT budgets and reporting, and assess activities in a merger scenario. IT hardware, software and IT infrastructure as well as running IT projects are not considered in this paper.
Zahlreiche Unternehmen erhoffen sich durch die Auslagerung von Softwareentwicklungsarbeiten in Niedriglohnländer (IT-Offshoring) hohe Kostenreduktionen und eine Verbesserung der Softwarequalität. Viele Projekte können diesen Anspruch jedoch nicht erfüllen und scheitern. Der Beitrag führt in die Thematik ein und beschreibt einen mehrstufigen Entscheidungsprozess für die Durchführung von IT-Offshore-Projekten.
In der Fachgruppe IT-Controlling des Fachbereichs Wirtschaftsinformatik der Gesellschaft für Informatik e. V. kommen seit 1989 Führungskräfte aus dem Informations- und ITManagement, dem IT-Controlling, Unternehmens- und IT-Berater/-innen sowie Wissenschaftler/-innen zusammen, um Methoden, Anwendungen und Herausforderungen des ITControllings zu diskutieren. Die Fachgruppe ist im deutschsprachigen Raum das zentrale Fachgremium für das Controlling der betrieblichen Informationsverarbeitung (gegenwärtig verbreitet als IT-Controlling und IV-Controlling bezeichnet; weit gehend synonym dazu auch Informatik-Controlling, Informationssystem-Controlling, Informations-Controlling).
IT performance measurement is often associated by chief executive officers with IT cost cutting although IT protects business processes from increasing IT costs. IT cost cutting only endangers the company’s efficiency. This opinion discriminates those who do IT performance measurement in companies as a bean-counter. The present paper describes an integrated reference model for IT performance measurement based on a life cycle model and a performance oriented framework. The presented model was created from a practical point of view. It is designed lank compared with other known concepts and is very appropriate for small and medium enterprises (SME).
Results Obtained with a Semi-lagrangian Mass-Integrating Transport Algorithm by Using the GME Grid
(2008)
The automated annotation of data from high throughput sequencing and genomics experiments is a significant challenge for bioinformatics. Most current approaches rely on sequential pipelines of gene finding and gene function prediction methods that annotate a gene with information from different reference data sources. Each function prediction method contributes evidence supporting a functional assignment. Such approaches generally ignore the links between the information in the reference datasets. These links, however, are valuable for assessing the plausibility of a function assignment and can be used to evaluate the confidence in a prediction. We are working towards a novel annotation system that uses the network of information supporting the function assignment to enrich the annotation process for use by expert curators and predicting the function of previously unannotated genes. In this paper we describe our success in the first stages of this development. We present the data integration steps that are needed to create the core database of integrated reference databases (UniProt, PFAM, PDB, GO and the pathway database Ara-Cyc) which has been established in the ONDEX data integration system. We also present a comparison between different methods for integration of GO terms as part of the function assignment pipeline and discuss the consequences of this analysis for improving the accuracy of gene function annotation. The methods and algorithms presented in this publication are an integral part of the ONDEX system which is freely available from http://ondex.sf.net/.