Refine
H-BRS Bibliography
- no (36) (remove)
Departments, institutes and facilities
Document Type
- Doctoral Thesis (36) (remove)
Year of publication
Has Fulltext
- no (36)
Keywords
- Deutschland (2)
- Produktionstheorie (2)
- Business Ethnography (1)
- Differentielle Kryptoanalyse (1)
- Dreidimensionales maschinelles Sehen (1)
- Eingebettetes System (1)
- Einkommen (1)
- Einkommenshpyothese (1)
- Enhancer (1)
- Fehlerbehandlung (1)
Einkommen, Konsum und Ersparnis der privaten Haushalte in der Bundesrepublik Deutschland seit 1970
(1986)
Untersuchungsgegenstand der vorliegenden Studie ist das Einkommen, der Konsum und die Ersparnis der privaten Haushalte in der Bundesrepublik Deutschland in den Jahren von 1970 bis 1982. Die Analyse erfolgt unter Verwendung makroökonomischer Konsumfunktionen, so dass die Untersuchung des Konsums im Vordergrund steht.
Die vorwiegend empiristische Analyse der sozialistischen Staaten führt bei der Beurteilung ihrer Steuerungsprobleme oft zu ideologisch durchsetzten ad-hoc Hypothesen. Mit der vorliegenden Arbeit wird hingegen der Versuch unternommen, Entstehung, Folgen und Bewältigung dieser Probleme einer systematischen Erklärung näher zu bringen.
Zumutbarkeit von Arbeit
(1992)
Methoden zur computerunterstützten Untersuchung selektiver Oberflächeneigenschaften von Proteinen
(1993)
We present a type inference algoritm and its verification for an object-oriented programming language called O'SMALL. O'SMALL is a class-based language with imperative features. Classes are not first-class citizens. No type declarations are required. Type inference operates on an extended lambda-calculus into which O'SMALL is translated. The system features extensible record types, mu-types, and imperative types. This work belongs to both theoretical and practical computer science. In the theoretical part, the type inference algoritm for our lambda-calculus with records is formalized in order-sorted logic. In the practical part, the algoritm for let-polymorphism and imperative features is based on well-known approaches. These approaches are presented in a new fashion but they are not proven correct.
Die erlebnisbetonte Positionierung von Produkten und Dienstleistungen ist heute weit verbreitet. Wer in der Flut emotionaler Werbebilder auffallen will, muß strategisch vorgehen und benötigt zunächst einen Überblick über die aktuelle Werbelandschaft. Eine objektive Analyse des Bedeutungsgehalts bildbetonter emotionaler Werbung ist aber schwierig, da diese Werbung in der Regel spontan wirkt und beim Betrachter vielfältige Assoziationen auslöst.
Multipoint data-communications is among the hot topics of communication research and development. A lot of studies and ideas have been presented, the vast majority focusing on a homogenous environment in terms of physical network, communication protocol stacks, coding schemes and/or service qualities. First straight-forward implementations –Steve Deering‘s IP multipoint on the MBone being the most popular one– already give an idea of the capabilities of a multipoint environment.
This thesis contributes to a better understanding of the effect of heterogeneous chemistry on ozone in the tropopause region. As part of the German research project ALTO, it especially focuses on the impact of aircraft emissions on heterogeneous ozone chemistry in this region. This is an important question as ozone is a strong greenhouse gas, whose radiative effect, is strongest near the tropopause.
In general, the treatment of heterogeneous processes on background and aviation-produced particles requires the consideration of processes ranging from nanometer to continental scale. For this reason the present modeling work includes a treatment of small scale processes as well as the development and subsequent application of parameterisations. Three numerical trajectory box models considering highly detailed microphysical and chemical processes have been developed: (a) an aircraft plume model including coagulation, chemistry and plume dilution, (b) a particle-size resolved microphysical box model and, (c) a comprehensive photo-chemical box model.
In der vorliegenden Arbeit werden Verfahren vorgestellt, die geeignet sind, Modelle des menschlichen kardiovaskulären Systems an individuelle Kreislaufreaktionen anzupassen. Allgemeine Kreislaufmodelle des menschlichen kardiovaskulären Systems sind in der Regel nichtlineare Differentialgleichungssysteme, für die es keine effizienten Optimierungsverfahren gibt. Durch die Einschränkung auf relevante Aspekte (bzgl. der Individualisierungsaufgabe) wird ein solches Modell auf Modelle einfacherer Struktur projiziert, die eine Approximation durch Funktionsapproximatoren erlauben, für welche wiederum effiziente Optimierungsalgorithmen existieren. In Abhängigkeit von der Struktur der Individualisierungsaufgabe kommt zusätzlich ein modifiziertes BFGS-Verfahren zum Einsatz, das Approximationen solcher Modellaspekte verwendet um die Konvergenz der Modellindividualisierung zu verbessern.
3D time of flight distance measurement with custom solid state image sensors in CMOS, CCD technology
(2000)
Since we are living in a three-dimensional world, an adequate description of our environment for many applications includes the relative position and motion of the different objects in a scene. Nature has satisfied this need for spatial perception by providing most animals with at least two eyes. This stereo vision ability is the basis that allows the brain to calculate qualitative depth information of the observed scene. Another important parameter in the complex human depth perception is our experience and memory. Although it is far more difficult, a human being is even able to recognize depth information without stereo vision. For example, we can qualitatively deduce the 3D scene from most photos, assuming that the photos contain known objects [COR]. The acquisition, storage, processing and comparison of such a huge amount of information requires enormous computational power - with which nature fortunately provides us. Therefore, for a technical implementation, one should resort to other simpler measurement principles. Additionally, the qualitative distance estimates of such knowledge-based passive vision systems can be replaced by accurate range measurements.
Business Reengineering, Workflow-Management und der Einsatz betriebswirtschaftlicher Standardanwendungssoftware führen zu neuen Anforderungen hinsichtlich der Gestaltung von Informationssystemen. Der Entwicklung von Referenzarchitekturen, -modellen und -systemen kommt hierbei eine hohe Bedeutung zu, da durch derartige Referenzinstrumente Begriffssysteme normiert sowie Systemkomponenten abgegrenzt und systematisiert werden können. Das Buch behandelt die Gestaltung computerunterstützter Arbeitsabläufe und organisatorischer Strukturen unter Verwendung von WorkflowManagement-Systemen. Es stellt ein umfassendes methodisches Instrumentarium zur Modellierung und Evaluierung von Geschäftsprozessen und Workflows zur Verfügung. Das vorgestellte Konzept umfaßt den vollständigen Zyklus eines Geschäftsprozesses, ausgehend von der Entwicklung der Geschäftsstrategie, über die Geschäftsprozeßanalyse und deren Restrukturierung sowie Modellierung bis hin zur detaillierteren Workflowmodellierung, -simulation und -ausführung.
In dieser Dissertation stellen wir einen neuen Ansatz zur Modellierung von Polymersystemen vor. Es werden (von methodischer Seite her) zwei automatisierte Iterationschemata dazu eingeführt, Kraftfeldparameter mesoskopischer Polymersysteme systematisch zu optimieren: Das Simplex-Verfahren und das Struktur-Differenzen-Verfahren. So werden diejenigen Freiheitsgrade aus Polymersystemen eliminiert, die eine hohe Auflösung erfordern, was die Modellierung größerer Systeme ermöglicht. Nach Tests an einfachen Flüssigkeiten werden vergröberte Modelle von drei prototypischen Polymeren (Polyacrylsäure, Polyvinylalkohol und Polyisopren) in unterschiedlichen Umgebungen (gutes Lösungsmittel und Schmelze) entwickelt und ihr Verhalten auf der Mesoskala ausgiebig geprüft. Die zugehörige Abbildung (von physikalischer Seite her) so zu gestalten, daß sie die unverwechselbaren Charakteristiken jedes Systems auf die mesoskopische Längenskala überträgt, stellt eine entscheidende Anforderung an die automatisierten Verfahren dar.
User Modeling and Machine Learning for User Modeling have both become important research topics and key techniques in recent adaptive systems. One of the most intriguing problems in the `information age´ is how to filter relevant information from the huge amount of available data. This problem is tackled by using models of the user´s interest in order to increase precision and discriminate interesting information from un-interesting data. However, any user modeling approach suffers from several major drawbacks: User models built by the system need to be inspectable and understandable by the user himself. Secondly, users in general are not willing to give feedback concerning user satisfaction by the delivered results.
Obwohl bis zum heutigen Tage mehr als 1500 Radio-Pulsare in unserer Galaxie entdeckt wurden, konnte bislang nicht ein einziger Pulsar im direkten Umfeld des Galaktischen Zentrums gefunden werden. Dies ist um so mehr erstaunlich, da die statistische Pulsar-Verteilung nicht nur eine deutliche Zunahme der Pulsare zum Zentrum unserer Galaxie zeigt, sondern dieser Himmelsbereich auch schon mehrfach in verschiedenen Pulsar-Suchen beobachtet wurde.
Das Defizit von Pulsaren im Galaktischen Zentrum wird heute allgemein durch Selektionseffekte bei der Suche erklärt, die aufgrund von Inhomogenitäten und der erhöhten Dichte des Interstellaren Mediums im Zentrumsbereich hervorgerufen werden. Diese Einflüsse bewirken eine frequenzabhängige Phasenverschiebung (Dispersion) sowie eine Pulsverbreiterung durch Mehrwegeausbreitung (Scattering) der zeitvarianten Strahlung von Pulsaren. Während die Dispersion durch geeignete Maßnahmen bei der Beobachtung nahezu vollständig beseitigt werden kann, ist die Pulsverbreiterung durch Scattering, die einen negativen Einfluß auf die Suchempfindlichkeit hat, nur mit Beobachtungen bei höheren Frequenzen zu mindern. Weil die Strahlungsintensität von Pulsaren jedoch zu höheren Frequenzen steil abfällt, kann die optimale Beobachtungsfrequenz nur ein Kompromiß der beiden gegensätzlichen Forderungen sein.
Im Rahmen dieser Arbeit wurde daher die erste Suche nach Pulsaren im Galaktischen Zentrum bei der für Pulsar-Beobachtungen ungewöhnlich hohen Frequenz von 5 GHz mit dem 100-m Radioteleskop des Max-Planck-Instituts für Radioastronomie durchgeführt und analysiert. Der wissenschaftliche Teil dieser Dissertation umfasst eine ausführliche Diskussion über die zu erwartende Anzahl detektierbarer Zentrumspulsare für zwei unterschiedliche Sternentstehungs-Szenarien im Galaktischen Zentrum und ferner eine gründliche Untersuchung der erzielten Empfindlichkeit zur durchgeführten Pulsar-Suche. Die technischen Kapitel beschreiben die Entwicklung des Datenaufnahmesystems (Backends) und der Suchsoftware zur Auswertung der Beobachtungsdaten, die beide speziell für dieses Suchprojekt entworfen wurden.