Zacharias, terHorst et al. (Hg.): Forschungsspitzen und Spitzenforschung. Innovationen an der FH Bonn-Rhein-Sieg, Festschrift für Wulf Fischer
Refine
H-BRS Bibliography
- yes (34)
Departments, institutes and facilities
- Fachbereich Wirtschaftswissenschaften (12)
- Fachbereich Informatik (10)
- Fachbereich Angewandte Naturwissenschaften (6)
- Fachbereich Ingenieurwissenschaften und Kommunikation (3)
- Institut für funktionale Gen-Analytik (IFGA) (3)
- Institute of Visual Computing (IVC) (3)
- Fachbereich Sozialpolitik und Soziale Sicherung (2)
- Institut für Detektionstechnologien (IDT) (1)
- Institut für Existenzgründung und Mittelstandsförderung (IfEM) (1)
Document Type
- Part of a Book (34)
Year of publication
- 2009 (34)
Has Fulltext
- no (34)
Dieses Zitat dürfte auch für einen Physiker wie Wulf Fischer von Wichtigkeit sein, zeigt es doch, wie physikalische Grundlagen der Digitalisierung und dadurch angestoßene technologische Veränderungen die Ökonomie des 21. Jahrhunderts zu prägen vermögen. Die Analyse der Grundlagen der digitalen Wirtschaft ist gerade an einer Fachhochschule, die sich auch unterstützt durch ihren Gründungsrektor neuen Entwicklungen anwendungsnah öffnet, ein interessantes Forschungsgebiet. Viele der nachfolgenden Aussagen sind denn auch in einem Forschungssemester des Autors entstanden und haben zur Umwidmung der Professur unter dem Zusatz der "Innovationsökonomie" geführt. Auch dies ist im wahrsten Sinne des Wortes Beleg für eine innovationsfreudige und relativ "junge" Fachhochschule.
Mobile Datenkommunikation basiert üblicherweise auf der drahtlosen Anbindung eines Endgerätes an eine Basisstation, die ihrerseits an eine feste Infrastruktur angebunden ist. In vielen Szenarien sind diese Voraussetzungen jedoch nicht gegeben. Beispiele hierfür sind Katastrophen wie Hochwasser, Erdbeben oder Flugzeugabstürze in dünn besiedelten Regionen. Einen Lösungsansatz für sich daraus ergebende Anforderungen bieten dynamisch aufgebaute Ad-Hoc Netze mit einer satellitengestützten Anbindung an eine Festnetz-Infrastruktur. In solchen Netzen stellen die mobilen Terminals die benötigte lokale Infrastruktur selbst dynamisch her. Ziel der hier vorgestellten Arbeiten ist es, die Zuverlässigkeit und Dienstqualität der verwendeten Technologien zu untersuchen und durch geeignete Mechanismen so anzupassen, dass die Anforderungen typischer Applikationen möglichst erfüllt werden. Zur Demonstration wurde ein Prototyp aufgebaut, der unter anderem die Anwendungen "Voice over IP" (VoIP), "Datenbankzugriff im Intranet" und "Internetzugang" (WWW) untersucht.
Seit Jahren steht die aktuelle Situation des Mittelstands in der BRD im Zentrum des Interesses der Öffentlichkeit, der Wissenschaft wie auch der Medien. Eine beträchtliche Anzahl empirischer Studien der letzten Zeit belegen das gestiegene Interesse an Fragen des Mittelstands. Während sich die meisten der referierten Studien mit der allgemeinen wirtschaftlichen Situation der kleinen und mittleren Unternehmen beschäftigen (vgl. Ernst & Young 2005, S. 4-6; Manager Magazin et al. (Hrsg.) 2004, S. 17-19; Gruner und Jahr (Hrsg.) 2004, S. 16-20) wird der strategischen Positionierung mittelständischer Unternehmen sowie den auf dem Markt wirksamen Wettbewerbskräften bisher kaum Beachtung geschenkt. Ebenso wird versäumt, die Auswirkungen der wahrgenommenen Wettbewerbsintensität auf Wachstum und Rentabilität der kleinen und mittleren Unternehmen zu untersuchen.
Gegen unveröffentlichte – nur wenigen Personen bekannte – Sicherheitslücken (Less-than-Zero-Day Vulnerabilities) und diese ausnutzende Angriffsprogramme (Exploits) können IT-Systeme nicht geschützt werden. In der Vergangenheit wurden Sicherheitslücken meist dem Hersteller gemeldet; dieser stellte (allerdings nicht in allen Fällen) eine Fehlerkorrektur zur Verfügung. In jüngerer Zeit werden Sicherheitslücken systematisch (Tool-gestützt) gesucht und an Behörden, Unternehmen und an die organisierte Kriminalität verkauft – und nicht oder nicht sofort dem Hersteller gemeldet. Durch Ausnutzung dieser unveröffentlichten Sicherheitslücken ist Wirtschaftsspionage und Computersabotage (auch der Steuerungsrechner des Internet) unerkannt möglich [GI 2007]. Praktizierte Anwendungen sind – u.a. auch als Titan Rain – dokumentiert [BfDI 2007, Keizer 2006, NSTAC 2007, Pohl 2007, Rath 2007].
"Visual Computing" (VC) fasst als hochgradig aktuelles Forschungsgebiet verschiedene Bereiche der Informatik zusammen, denen gemeinsam ist, dass sie sich mit der Erzeugung und Auswertung visueller Signale befassen. Im Fachbereich Informatik der FH Bonn-Rhein-Sieg nimmt dieser Aspekt eine zentrale Rolle in Lehre und Forschung innerhalb des Studienschwerpunktes Medieninformatik ein. Drei wesentliche Bereiche des VC werden besonders in diversen Lehreinheiten und verschiedenen Projekten vermittelt: Computergrafik, Bildverarbeitung und Hypermedia-Anwendungen. Die Aktivitäten in diesen drei Bereichen fließen zusammen im Kontext immersiver virtueller Visualisierungsumgebungen.
Die Entwicklung technischer Produkte strebt nach der Akzeptanz durch den Markt. Das abstrakte Gebilde des Marktes wird aber geprägt durch menschliche Entscheidungen. BenutzerInnen arbeiten gerne mit einem technischen System oder sie lehnen es mehr oder weniger ab. Diese Ablehnung durch die BenutzerInnen führt über kurz oder lang auch zur Ablehnung durch die Entscheidungsträger in Firmen und anderen Institutionen, die gemeinsam mit den privaten BenutzerInnen den Markt ausmachen. Somit steht und fällt der wirtschaftliche Erfolg bei der Entwicklung und Vermarktung technischer Produkte mit dem Maß der erreichten Akzeptanz durch die BenutzerInnen.
The ongoing miniaturization, multi-layer structure parts and hybrid parts require methods to determine mechanical properties on a micro-scale. However, there is a gap in measuring techniques. On one hand there are the classical methods to measure hardness e.g. VICKERS, ROCKWELL, UNIVERSAL, IRHD etc having resolutions typically above 100μm. On the other hand there are well-developed AFM methods that allow for the determination of mechanical properties in the nanometer range. This paper describes an indentation technique that yields data of mechanical properties in the micrometer range between typically 5 to 50 μm. The measuring device and the data evaluation is presented. Results of micro-mechanical mapping are shown for NR-SBR rubber interfaces, a fuel tank and a part manufactured by two component injection moulding. Finally, the measured micro-mechanical stiffness is compared to the YOUNG’s modulus of the corresponding materials.
Das Internet hat sich in den deutschen Haushalten als feste Medienform, neben Radio, TV und Printmedien, etabliert. Die Zahl der DSL-Anschlüsse als schnelle und datenreiche Internetverbindungen betrug in deutschen Haushalten 2007 rund 13 Millionen [1]. Neben der Expansion der technischen Infrastruktur zeigt sich dabei auch eine erweiterte alltagsnahe Nutzung des Internets, sei es in Form neuer Rezeptionsformen (E-Mail, Communities, elektronische Zeitungen bis hin zu Videoportalen wie YouTube) oder aber in durch die Technik bedingten veränderten Verhaltensweisen (Einkauf im Internet, EBay, Markplätze). Ebenso ist die Nutzung des Internets altersübergreifend durch alle Schichten erkennbar. Gerade ältere Menschen etwa mit ihrem höheren Zeitbudget („Silver Surfer“) stellen eine der am schnellsten wachsenden Nutzergruppen des Internets dar. Das einstmals als Tummelplatz für Spezialisten entstandene World Wide Web hat sich zu einem selbstverständlichen Alltagsmedium gemeistert, welches von allen gesellschaftlichen Schichten quer durch alle Altersklassen genutzt und bedient wird.
With regard to performance well established SW-only design methodologies proceed by making the initial specification run first, then by enhancing its functionality and finally by optimizing it. When designing Embedded Systems (EbS) this approach is not viable since decisive design decisions like e.g. the estimation of required processing power or the identification of those parts of the specification which need to be delegated to dedicated HW depend on the fastness and fairness of the initial specification. We here propose a sequence of optimization steps embedded into the design flow, which enables a structured way to accelerate a given working EbS specification at different layers. This sequence of accelerations comprises algorithm selection, algorithm transformation, data transformation, implementation optimization and finally HW acceleration. It is analyzed how all acceleration steps are influenced by the specific attributes of the underlying EbS. The overall acceleration procedure is explained and quantified at hand of a real-life industrial example.
Für die Bilanzierung von Ausfallrisiken bei Kreditinstituten lässt sich kein einheitliches Konzept erkennen: Es stehen im Wesentlichen zwei Rechnungslegungsmodelle zur Verfügung, die sich nach dem Zeitpunkt der Berücksichtigung der Risiken unterscheiden. Während das Incurred Loss-Modell (ILM) im Rahmen der Risikovorsorge nur bereits eingetretene Kreditverluste berücksichtigt, stellt das Expected Loss-Modell (ELM) grundsätzlich auf erwartete Verluste ab.