Refine
H-BRS Bibliography
- yes (42) (remove)
Departments, institutes and facilities
- Fachbereich Informatik (42) (remove)
Document Type
- Part of a Book (42) (remove)
Year of publication
Has Fulltext
- no (42) (remove)
Keywords
- Adaptive Case Management (1)
- BG-Klinik (1)
- BPMS (1)
- Berufskrankheiten (1)
- Bond graphs (1)
- Business Case (1)
- CMMN (1)
- Case-Based Reasoning (1)
- Cleaning Task (1)
- Common Criteria (1)
Mobile Datenkommunikation basiert üblicherweise auf der drahtlosen Anbindung eines Endgerätes an eine Basisstation, die ihrerseits an eine feste Infrastruktur angebunden ist. In vielen Szenarien sind diese Voraussetzungen jedoch nicht gegeben. Beispiele hierfür sind Katastrophen wie Hochwasser, Erdbeben oder Flugzeugabstürze in dünn besiedelten Regionen. Einen Lösungsansatz für sich daraus ergebende Anforderungen bieten dynamisch aufgebaute Ad-Hoc Netze mit einer satellitengestützten Anbindung an eine Festnetz-Infrastruktur. In solchen Netzen stellen die mobilen Terminals die benötigte lokale Infrastruktur selbst dynamisch her. Ziel der hier vorgestellten Arbeiten ist es, die Zuverlässigkeit und Dienstqualität der verwendeten Technologien zu untersuchen und durch geeignete Mechanismen so anzupassen, dass die Anforderungen typischer Applikationen möglichst erfüllt werden. Zur Demonstration wurde ein Prototyp aufgebaut, der unter anderem die Anwendungen "Voice over IP" (VoIP), "Datenbankzugriff im Intranet" und "Internetzugang" (WWW) untersucht.
Gegen unveröffentlichte – nur wenigen Personen bekannte – Sicherheitslücken (Less-than-Zero-Day Vulnerabilities) und diese ausnutzende Angriffsprogramme (Exploits) können IT-Systeme nicht geschützt werden. In der Vergangenheit wurden Sicherheitslücken meist dem Hersteller gemeldet; dieser stellte (allerdings nicht in allen Fällen) eine Fehlerkorrektur zur Verfügung. In jüngerer Zeit werden Sicherheitslücken systematisch (Tool-gestützt) gesucht und an Behörden, Unternehmen und an die organisierte Kriminalität verkauft – und nicht oder nicht sofort dem Hersteller gemeldet. Durch Ausnutzung dieser unveröffentlichten Sicherheitslücken ist Wirtschaftsspionage und Computersabotage (auch der Steuerungsrechner des Internet) unerkannt möglich [GI 2007]. Praktizierte Anwendungen sind – u.a. auch als Titan Rain – dokumentiert [BfDI 2007, Keizer 2006, NSTAC 2007, Pohl 2007, Rath 2007].
"Visual Computing" (VC) fasst als hochgradig aktuelles Forschungsgebiet verschiedene Bereiche der Informatik zusammen, denen gemeinsam ist, dass sie sich mit der Erzeugung und Auswertung visueller Signale befassen. Im Fachbereich Informatik der FH Bonn-Rhein-Sieg nimmt dieser Aspekt eine zentrale Rolle in Lehre und Forschung innerhalb des Studienschwerpunktes Medieninformatik ein. Drei wesentliche Bereiche des VC werden besonders in diversen Lehreinheiten und verschiedenen Projekten vermittelt: Computergrafik, Bildverarbeitung und Hypermedia-Anwendungen. Die Aktivitäten in diesen drei Bereichen fließen zusammen im Kontext immersiver virtueller Visualisierungsumgebungen.
Virtuelle Umgebungen
(2000)
Systemunterstützung für wissensintensive Geschäftsprozesse – Konzepte und Implementierungsansätze
(2017)
Die Entwicklung technischer Produkte strebt nach der Akzeptanz durch den Markt. Das abstrakte Gebilde des Marktes wird aber geprägt durch menschliche Entscheidungen. BenutzerInnen arbeiten gerne mit einem technischen System oder sie lehnen es mehr oder weniger ab. Diese Ablehnung durch die BenutzerInnen führt über kurz oder lang auch zur Ablehnung durch die Entscheidungsträger in Firmen und anderen Institutionen, die gemeinsam mit den privaten BenutzerInnen den Markt ausmachen. Somit steht und fällt der wirtschaftliche Erfolg bei der Entwicklung und Vermarktung technischer Produkte mit dem Maß der erreichten Akzeptanz durch die BenutzerInnen.
With regard to performance well established SW-only design methodologies proceed by making the initial specification run first, then by enhancing its functionality and finally by optimizing it. When designing Embedded Systems (EbS) this approach is not viable since decisive design decisions like e.g. the estimation of required processing power or the identification of those parts of the specification which need to be delegated to dedicated HW depend on the fastness and fairness of the initial specification. We here propose a sequence of optimization steps embedded into the design flow, which enables a structured way to accelerate a given working EbS specification at different layers. This sequence of accelerations comprises algorithm selection, algorithm transformation, data transformation, implementation optimization and finally HW acceleration. It is analyzed how all acceleration steps are influenced by the specific attributes of the underlying EbS. The overall acceleration procedure is explained and quantified at hand of a real-life industrial example.