Refine
Departments, institutes and facilities
Document Type
- Article (43)
- Conference Object (20)
- Book (monograph, edited volume) (8)
- Doctoral Thesis (5)
- Report (5)
- Part of a Book (3)
- Contribution to a Periodical (2)
Year of publication
- 2000 (86) (remove)
Has Fulltext
- no (86)
Keywords
- Internet (3)
- Deutschland (2)
- Lehrbuch (2)
- Pay-TV (2)
- Akzeptanz (1)
- Architectural Framework (1)
- Aufsatzsammlung (1)
- Betriebswirtschaftslehre (1)
- Bond graph models (1)
- Digitales Fernsehen (1)
This thesis contributes to a better understanding of the effect of heterogeneous chemistry on ozone in the tropopause region. As part of the German research project ALTO, it especially focuses on the impact of aircraft emissions on heterogeneous ozone chemistry in this region. This is an important question as ozone is a strong greenhouse gas, whose radiative effect, is strongest near the tropopause.
In general, the treatment of heterogeneous processes on background and aviation-produced particles requires the consideration of processes ranging from nanometer to continental scale. For this reason the present modeling work includes a treatment of small scale processes as well as the development and subsequent application of parameterisations. Three numerical trajectory box models considering highly detailed microphysical and chemical processes have been developed: (a) an aircraft plume model including coagulation, chemistry and plume dilution, (b) a particle-size resolved microphysical box model and, (c) a comprehensive photo-chemical box model.
Einsatz umweltverträglicher Tenside in Formulierungen am Beispiel von Glyphosat und Prochloraz
(2000)
3D time of flight distance measurement with custom solid state image sensors in CMOS, CCD technology
(2000)
Since we are living in a three-dimensional world, an adequate description of our environment for many applications includes the relative position and motion of the different objects in a scene. Nature has satisfied this need for spatial perception by providing most animals with at least two eyes. This stereo vision ability is the basis that allows the brain to calculate qualitative depth information of the observed scene. Another important parameter in the complex human depth perception is our experience and memory. Although it is far more difficult, a human being is even able to recognize depth information without stereo vision. For example, we can qualitatively deduce the 3D scene from most photos, assuming that the photos contain known objects [COR]. The acquisition, storage, processing and comparison of such a huge amount of information requires enormous computational power - with which nature fortunately provides us. Therefore, for a technical implementation, one should resort to other simpler measurement principles. Additionally, the qualitative distance estimates of such knowledge-based passive vision systems can be replaced by accurate range measurements.
Impaired up-regulation of CD86 in B cells of "type A" common variable immunodeficiency patients
(2000)
Multimediaprojectors require sophisticated image processing realized on limited board space. An architecture is presented that combines available components and a dedicated display controller for a flexible, compact and cost efficient display electronic. A basic version of the display controller is available as an ASIC, an advanced version has been prototyped as an FPGA.
Zu den wichtigen und notwendigen Aufgaben von Personalabteilungen gehört die Darstellung der Organisationsstrukturen eines Unternehmes. Das im Folgenden beschriebene Verfahren basiert auf der Softwarelösung "Ingentis-OrgManager", die eine Darstellung der Organisationsstruktur in Form von Organigrammen auf der Basis von Daten ermöglicht, die zumeist ohnehin im Personalwirtschaftssystem enthalten sind. Der Autor beschreibt das Verfahren, die Voraussetzungen für den Einsatz der Software und bisherigen Erfahrungen.
Virtuelle Umgebungen
(2000)
To provide seamless handoffs is an important task of cellular systems. A user of a real-time conversation on a mobile terminal should not notice when moving from one base station to another one. In this paper we address handoff procedures in a scenario where the radio access network is assumed to be IP-based, i.e., IP is used up to the base stations, and the mobile terminal runs a Mobile IP client. First we will motivate the need for differentiation of fast handoffs and seamless handoffs. Then we will survey some previously proposed micro-mobility extensions; thereby we will address the question of what degree of micro-mobility support is needed in the typical structure of a radio access network. The main part of this paper then discusses network-initiated/assisted handoffs in combination with Mobile IP. Here, we aim to bring together ideas of 2G/3G systems and of IP-based approaches.
The Internet Engineering Task Force (IETF) is currently working on the development of Differentiated Services (DiffServ). DiffServ seems to be a promising technology for next-generation IP networks supporting Quality-of-Services (QoS). Emerging applications such as IP telephony and time-critical business applications can benefit significantly from the DiffServ approach since the current Internet often can not provide the required QoS. This paper describes an implementation of Differentiated Services for Linux routers and end systems. The implementation is based on the Linux traffic control package and is, therefore, very flexible. It can be used in different network environments as first-hop, boundary or interior router for Differentiated Services. In addition to the implementation architecture, the paper describes performance results demonstrating the usefulness of the DiffServ concept in general and the implementation in particular.
Recent developments in the standardization of the future Internet (driven by the IETF) and next generation telecom networks (driven by 3GPP) show a convergence towards each other. While it is currently unknown if and to what extend this development leads to a unified technical approach (in terms of signaling, routing, mobility management, charging and security) for both real-time (voice / video) and non-real-time (data) networks, the vision of an All-IP-based communication environment for all classes of traffic is one relevant option to look at.
We report the status of a search for pulsars in the Galactic Centre, using a completely revised and improved high-sensitivity doublehorn system at 4.85-GHz. We also present calculations about the success rate of periodicity searches for such a survey, showing that in contrast to conclusions in recent literature pulsars can be indeed detected at the chosen search frequency.
In der vorliegenden Arbeit werden Verfahren vorgestellt, die geeignet sind, Modelle des menschlichen kardiovaskulären Systems an individuelle Kreislaufreaktionen anzupassen. Allgemeine Kreislaufmodelle des menschlichen kardiovaskulären Systems sind in der Regel nichtlineare Differentialgleichungssysteme, für die es keine effizienten Optimierungsverfahren gibt. Durch die Einschränkung auf relevante Aspekte (bzgl. der Individualisierungsaufgabe) wird ein solches Modell auf Modelle einfacherer Struktur projiziert, die eine Approximation durch Funktionsapproximatoren erlauben, für welche wiederum effiziente Optimierungsalgorithmen existieren. In Abhängigkeit von der Struktur der Individualisierungsaufgabe kommt zusätzlich ein modifiziertes BFGS-Verfahren zum Einsatz, das Approximationen solcher Modellaspekte verwendet um die Konvergenz der Modellindividualisierung zu verbessern.
The SAP R/3 system
(2000)
Electronic Commerce
(2000)
Werbung im Pay-TV
(2000)
Der Trend an deutschen Universitäten und Fachhochschulen im Fach Qualitätsmanagement geht in Richtung ganzheitlicher, praxisorientierter Ansätze. Im Mittelpunkt zahlreicher Projekte steht die Entwicklung von leicht handhabbaren und wirtschaftlichen Methoden. Eine Studie der Fachhochschule Bonn-Rhein-Sieg hat die Entwicklung des Qualitätsmanagements an deutschen Hochschulen unter die Lupe genommen.
Bei der Datenübertragung im Internet ist es wünschenswert, daß unterschiedliche Datenpackete unterschiedlich behandelt werden können, damit für die zeitkritischen Anwendungen wie Internet-Telefonie die größere Priorität gewährleisten könnte. Erst dann kann ein Netzbetreiber seinen Kunden verschiedene Dienstqualitäten anbieten. Zwei grundsätzliche Mechanismen existieren, um dem Netzwerk solche Anforderungen mitzuteilen: explizit, indem vor der eigentlichen Datenübertragung Kotrollnachrichten ausgetauscht werden; implizit, indem jedes Datenpacket eine Kennzeichnung erhält. Der zweite, Differentiated Services(DS), Ansatz ist Thema dieses Referates. Bei DS wird jedem Packet den sogenannten DS-Codepoint (DSCP) im IP-Header zugewiesen, und dementsprechend erfährt ein Datenpaket eine bestimmte Behandlung durch einen DS-fähigen Router. Drei unterschiedliche Dienstklassen wurde bisher spezifiziert: Best-Effort entspricht dem derzeit im Internet verwendeten Mechanismus; Premium-Service entspricht einer virtuellen Mietleitung und soll eine rasche Weiterleitung von Paketen gewährleisten; Datenpakete mit Assured Forwarding Service (AFS) sollen besser behandelt werden als Best-Effort. Bei AFS wurden insgesamt drei Verlustklassen und vier Weiterleitungsklassen definiert. Es wird auch verschiedene Typ von DS-Router vorgestellt und diskutiert. Der praktische Einsatz erfolgte bisher immer in Laborumgebung (Uni Bern, Uni Karlsruhe, EPFL, Forschungszentrum NEC Research), größere Feldversuche stehen noch aus.
Workflow-Management-Systemen (WFMS) kommt bei der prozessorientierten Neugestaltung der Unternehmenstätigkeit eine zentrale Rolle zu. Jedoch erschwert ein bislang noch uneinheitliches Verständnis der grundlegenden Architektur und Aufgaben eines WFMS die Gestaltung von WFMS-gestützten Unternehmensprozessen. In dieser Situation können sich WFMS-Referenzarchitekturen als sehr hilfreich erweisen. Ausgehend von zwei bekannten WFMS-Referenzarchitekturen präsentiert der vorliegende Beitrag eine allgemeine WFMS-Rahmenarchitektur, die auf einem Client/Server-Modell des Workflow-Computing basiert.
Summary:
Workflow Management Systems (WFMS) are of critical importance for the restructuring of business activities. A still diverging understanding of the basic architecture and the tasks of a WFMS impede, however, the design of WFMS-supported business processes. WFMS reference architectures may be very helpful in this situation. Using two well-known WFMS reference architectures and a definition of WFMS functions as a startingpoint, this paper presents a general architectural framework for WFMS based on a client/server model of workflow computing.
Business Reengineering, Workflow-Management und der Einsatz betriebswirtschaftlicher Standardanwendungssoftware führen zu neuen Anforderungen hinsichtlich der Gestaltung von Informationssystemen. Der Entwicklung von Referenzarchitekturen, -modellen und -systemen kommt hierbei eine hohe Bedeutung zu, da durch derartige Referenzinstrumente Begriffssysteme normiert sowie Systemkomponenten abgegrenzt und systematisiert werden können. Das Buch behandelt die Gestaltung computerunterstützter Arbeitsabläufe und organisatorischer Strukturen unter Verwendung von WorkflowManagement-Systemen. Es stellt ein umfassendes methodisches Instrumentarium zur Modellierung und Evaluierung von Geschäftsprozessen und Workflows zur Verfügung. Das vorgestellte Konzept umfaßt den vollständigen Zyklus eines Geschäftsprozesses, ausgehend von der Entwicklung der Geschäftsstrategie, über die Geschäftsprozeßanalyse und deren Restrukturierung sowie Modellierung bis hin zur detaillierteren Workflowmodellierung, -simulation und -ausführung.
Mobile-Commerce-Studie
(2000)
Neural networks in a multilayer perceptron architecture are able to classify data and approximate functions based on a set of sample data (curve fitting). These properties are used to investigate experimentally the applicability of neural networks for cost estimation in early phases of product design. Experiments are based on pilot cost data from a manufacturing company. In addition, artificially created simulative data are used for benchmarking. The cost estimation performance is compared to conventional methods, i.e. linear and non-linear parametric regression. Neural networks achieve lower deviations in their cost estimations. Beyond the use of standard neural architectures, simple modifications for a performance improvement are suggested and tested. Finally, a profile for situations where neural networks are appropriate is derived from the results.
Finanzierungsprobleme bei Unternehmensgründungen aus Sicht des Gründers - Erfahrungen aus der Praxis
(2000)
Viele Unternehmen sind nach DIN EN ISO 9001 bis 9003 zertifiziert. Die DIN EN ISO 9000:2000 fordert nun die Einführung prozeßorientierter Organisationsformen und Dokumentationen. Die Ziele und neue Forderungen dieser Norm sind in einer Übersicht dargestellt. Eingegangen wird auf die Anpassung der QM-Systeme (Qualitätsmanagement), die im Sinne der Neuregelung in der anstehenden Normenrevision nötig wird. Die Einführung beginnt mit einer prozeßorientierten QM-Dokumentation. Zur Umsetzung müssen zunächst die Prozesse identifiziert und die Nahtstellen erkannt werden, bevor sie dargestellt und beschrieben werden können. Die Einführung einer prozeßorientierten Organisationsstruktur kann tiefgreifende Veränderungen in der Aufbau- und Ablauforganisation notwendig machen. Die Tätigkeiten werden an der Wertschöpfungskette ausgerichtet und zu ganzheitlichen, von funktionalen Aufteilungen losgelösten Prozessen gebündelt. Die Beachtung der Kundenbedürfnisse steht bei der Gestaltung und Optimierung von Prozessen an erster Stelle, doch auch die Rolle der Mitarbeiter gewinnt für den erfolgreichen Wandel an Bedeutung.
Die New Economy ist durch die Konvergenz zuvor getrennter Bereiche (Telekommunikation, Medien, Informationstechnik, Internet) gekennzeichnet, die gegenwärtig unterschiedlichen regulatorischen Rahmenbedingungen unterworfen sind. Ist dieser heterogene Ordnungsrahmen noch geeignet, um den ökonomischen Strukturen der New Economy Rechnung zu tragen, oder sind grundlegende Veränderungen erforderlich?
Die New Economy wird zum wesentlichen Bestandteil einer globalen, neu strukturierten Wirtschaft. Deren Erfolg bestimmt sich vor allem durch die genutzte Qualität von Kommunikation und Information, deren Art und Geschwindigkeit sich schon bald zu einem Szenarium entwickeln wird, das dem in den Wirtschaftswissenschaften bisher rein theoretischen Konstrukt einer unendlichen Reaktionsgeschwindigkeit eines vollkommenen Marktes im klassischen Sinne sehr nahe kommen wird. Dadurch erfährt die marktwirtschaftliche Lehre seit der Industrialisierung im 19. Jahrhundert eine nicht erwartete Renaissance. Sie wird realer denn je, nimmt marktwirtschaftlich positive aber auch mitunter gesellschaftspolitisch bedenkliche Züge an, wie sie seit über einem Jahrhundert fernab der normalen Realität lagen.