620 Ingenieurwissenschaften und zugeordnete Tätigkeiten
Refine
Departments, institutes and facilities
- Fachbereich Ingenieurwissenschaften und Kommunikation (187)
- Institut für Technik, Ressourcenschonung und Energieeffizienz (TREE) (124)
- Fachbereich Informatik (26)
- Fachbereich Angewandte Naturwissenschaften (24)
- Institut für Sicherheitsforschung (ISF) (9)
- Institute of Visual Computing (IVC) (9)
- Graduierteninstitut (6)
- Institut für Detektionstechnologien (IDT) (3)
- Zentrum für Innovation und Entwicklung in der Lehre (ZIEL) (3)
- Fachbereich Wirtschaftswissenschaften (2)
Document Type
- Conference Object (176)
- Article (121)
- Report (14)
- Book (monograph, edited volume) (11)
- Part of a Book (11)
- Doctoral Thesis (8)
- Master's Thesis (8)
- Patent (7)
- Bachelor Thesis (6)
- Diploma Thesis (5)
Year of publication
Keywords
- advanced applications (6)
- modeling of complex systems (6)
- gas transport networks (4)
- FPGA (3)
- Hydrogen storage (3)
- applications (3)
- efficiency (3)
- globally convergent solvers (3)
- mathematical chemistry (3)
- observational data and simulations (3)
This work considers a stationary simulation of pipeline fluid transport, in the presence of impurities and phase transitions. This simulation finds applications in diverse areas such as energy carrier transportation, including natural gas and hydrogen, as well as the efficient transport of carbon dioxide from emission sources to designated storage sites. Particularly for the transport of carbon dioxide, which is preferably carried out in a liquid or supercritical state, the accurate detection of phase transitions is of utmost importance. Additionally, evaluating the simulation precision based on the selected pipe subdivision is crucial for transporting fluids of any kind. Our implementation includes an algorithm that utilizes the Homogeneous Equilibrium Model and the GERG-2008 thermodynamic equation of state for phase transition detection. We have also developed an optimal pipe subdivision algorithm using empirical formulas derived from extensive numerical experiments. Rigorous testing of the algorithms has been conducted on realistic fluid transport scenarios, confirming their effectiveness in addressing the stated technical challenges.
Diese Arbeit stellt die Entwicklung eines modularen, leistungsstarken Laserbeleuchtungssystems für Time-of-Flight (ToF)-Kameras vor, das bestehende Beleuchtungslösungen ersetzen soll. Durch die Erhöhung der optischen Ausgangsleistung und die Verkürzung der Anstiegszeiten wird die Leistungsfähigkeit einer modernen ToF-Kamera signifikant verbessert. Im Vergleich zu einer Referenzbeleuchtung konnte die Gesamtleistung verfünffacht werden. Die notwendigen Schritte zur Erreichung einer optischen Spitzenleistung von 10 W je Lichtquelle bei Modulationsfrequenzen bis zu 100 MHz werden beschrieben, was zu einer 1,2-fach höheren Leistung pro Lichtquelle im Vergleich zur Referenz führt. Die neue Beleuchtung ermöglicht zudem den Einsatz höherer Modulationsfrequenzen. An einem diffusen, weißen Referenztarget getestet, sank das Entfernungsrauschen bei 3 Metern von über 35 mm bei der Referenzbeleuchtung auf unter 5 mm bei der neuen Beleuchtung.
Durch das elektronische Zuschalten von bis zu vier Lichtquellen wird eine optische Spitzenleistung von 40 W bei einer Wellenlänge von 940 nm und einer Modulationsfrequenz von 100 MHz erreicht. Das individuelle Zuschalten der Lichtquellen bietet zukünftig die Möglichkeit, durch kombinierte Distanzmessverfahren die Zuverlässigkeit zu erhöhen. Die Entwicklung erfolgte in zwei Iterationen, wobei Voruntersuchungen Optimierungspunkte identifizierten. Basierend auf diesen Erkenntnissen wurde die Beleuchtungsplatine weiterentwickelt und der Einfluss auf das Phasenrauschen einer ToF-Kamera untersucht. Die erzielten Ergebnisse wurden mit den theoretischen Vorhersagen der Tiefenreproduzierbarkeit basierend auf dem Signal-Rausch-Verhältnis des empfangenen Signals verglichen. Die Ergebnisse bestätigten die theoretischen Vorhersagen und zeigten, in welchen Betriebssituationen das Tiefenrauschen vom Sensor- oder vom aktiven Schrotrauschen dominiert wird.
Ferner wurden Untersuchungen zur optischen Signalform der Lichtquellen und zum Einfluss unterschiedlicher Einschaltpunkte durchgeführt. Die geforderten optischen Anstiegs- und Abfallzeiten von 2 ns wurden unabhängig von der Modulationsfrequenz erreicht. Die optischen Signale der jeweiligen Lichtquellen überschritten die im Lastenheft geforderte maximale Asynchronität von 200 ps. Untersuchungen der elektrischen Signale zeigten, dass Verzögerungen durch den verwendeten Lasertreiber entstehen. Durch die unterschiedlichen Einschaltpunkte verringerte sich der Modulationskontrast auf 91%.
This thesis seeks to contribute to the standardization of characterization methods for Time-of-Flight (ToF) cameras, especially in the field of their suitability for facial biometric applications. Building on previous work, this work proposes methods to determine sharpness, resolution, distortion, influence of material remission and measurement angle on the measurement error.
The methods are tested on three ToF cameras and one active stereo camera. Key findings include the applicability of the ISO 12233:2023 slanted edge method for 3D camera sharpness and enhancements to the Böhler-star method for 3D resolution. The study presents a first-time comprehensive analysis of material remission and angle impacts on measurement errors.
The methods reliably characterize 3D camera suitability for biometrics, applicable to both ToF and active stereo cameras. Overall the 3D camera performance can be effectively summarized in 24 key metrics, providing robust evaluations for biometric applications.
Modellbildung und Simulation
(2024)
In diesem Lehrbuch werden die für Ingenieurinnen und Ingenieure relevanten mathematischen Problemklassen eingeführt und dazu vorhandene Standardalgorithmen vorgestellt. Anhand vielfältiger konkreter Beispiele werden Prinzipien der Modellbildung praktisch angewendet, Implementierungen demonstriert und Simulationsergebnisse dargestellt. Dafür werden sowohl der Industriestandard MATLAB wie auch die recht junge und schnell wachsende Programmiersprache Julia verwendet. Mit Hilfe beider Implementierungen kann der oder die Leser:in sehr einfach die Gemeinsamkeiten und Unterschiede erkennen und ist für einen Umstieg vom kommerziellen Produkt MATLAB auf die freie Sprache Julia oder umgekehrt gut vorbereitet.
In the coming years, the European Union plans to establish Proton Exchange Membrane (PEM) electrolyzers, each with a 100 MW capacity. However, the selection of their locations has not been systematically optimized to leverage potential benefits, such as utilizing waste heat from large facilities for district heating. Presently, there are hardly any corresponding system models in the literature dynamically simulating a PEM electrolyzer of this size. This paper introduces a first model approach for such systems, drawing on parameters from existing literature. It addresses the inconsistency found in the literature regarding the use of the exchange current density, which varies by a factor of . A novel optimization process is developed by using an auxiliary parameter to fit the exchange current density with a newfound condition between the anode and cathode side. The outcome is a comprehensive model of a PEM electrolyzer plant, exemplarily adapted to the Siemens Silyzer 300.
Interdisciplinary research (IDR) is a widely applied research approach, combing the efforts of multiple academic disciplines to work on complex problems. Within transdisciplinary research (TDR), non-academic stakeholders participate in the project and offer hands-on experience to the research. These integrative approaches are praised for the ability for addressing ‘wicked problems’ and can lead to new perspectives on relevant contemporary challenges. This working paper is analysing the cooperation and exchange of involved disciplines in the German-Ghanaian interdisciplinary research project Energy-Self-Sufficiency for Health Facilities in Ghana (EnerSHelF). The results are presented in a Collaboration Frequency Network (CFN) as well as qualitatively examined to unravel the level of interaction and perspectives on chances and challenges of IDR and TDR. The analysis shows that disciplinary closeness, data collection and exchange, and individual effort are affecting the level of collaboration among other reasons. Concluding the authors develop recommendations for future IDR and TDR projects.
Process-induced changes in thermo-mechanical viscoelastic properties and the corresponding morphology of biodegradable polybutylene adipate terephthalate (PBAT) and polylactic acid (PLA) blown film blends modified with four multifunctional chain-extending cross-linkers (CECL) were investigated. The introduction of CECL modified the properties of the reference PBAT/PLA blend significantly. The thermal analysis showed that the chemical reactions were incomplete after compounding, and that film blowing extended them. SEM investigations of the fracture surfaces of blown extrusion films reveal the significant effect of CECL on the morphology formed during the processing. The anisotropic morphology introduced during film blowing proved to affect the degradation processes as well. Furthermore, the reactions of CECL with PBAT/PLA induced by the processing depend on the deformation directions. The blow-up ratio parameter was altered to investigate further process-induced changes proving synergy with mechanical and morphological features. Using blown film extrusion, the elongational behavior represents a very important characteristic. However, its evaluation may be quite often problematic, but with the SER Universal Testing Platform it was possible to determine changes in the duration of time intervals corresponding to the rupture of elongated samples.
Force field (FF) based molecular modeling is an often used method to investigate and study structural and dynamic properties of (bio-)chemical substances and systems. When such a system is modeled or refined, the force field parameters need to be adjusted. This force field parameter optimization can be a tedious task and is always a trade-off in terms of errors regarding the targeted properties. To better control the balance of various properties’ errors, in this study we introduce weighting factors for the optimization objectives. Different weighting strategies are compared to fine-tune the balance between bulk-phase density and relative conformational energies (RCE), using n-octane as a representative system. Additionally, a non-linear projection of the individual property-specific parts of the optimized loss function is deployed to further improve the balance between them. The results show that the overall error is reduced. One interesting outcome is a large variety in the resulting optimized force field parameters (FFParams) and corresponding errors, suggesting that the optimization landscape is multi-modal and very dependent on the weighting factor setup. We conclude that adjusting the weighting factors can be a very important feature to lower the overall error in the FF optimization procedure, giving researchers the possibility to fine-tune their FFs.
Mobiles Laser-Schneidsystem zur Unterstützung der USBV-Entschärfung und Beweissicherung (mobiLaS)
(2022)
The lattice Boltzmann method (LBM) stands apart from conventional macroscopic approaches due to its low numerical dissipation and reduced computational cost, attributed to a simple streaming and local collision step. While this property makes the method particularly attractive for applications such as direct noise computation, it also renders the method highly susceptible to instabilities. A vast body of literature exists on stability-enhancing techniques, which can be categorized into selective filtering, regularized LBM, and multi-relaxation time (MRT) models. Although each technique bolsters stability by adding numerical dissipation, they act on different modes. Consequently, there is not a universal scheme optimally suited for a wide range of different flows. The reason for this lies in the static nature of these methods; they cannot adapt to local or global flow features. Still, adaptive filtering using a shear sensor constitutes an exception to this. For this reason, we developed a novel collision operator that uses space- and time-variant collision rates associated with the bulk viscosity. These rates are optimized by a physically informed neural net. In this study, the training data consists of a time series of different instances of a 2D barotropic vortex solution, obtained from a high-order Navier–Stokes solver that embodies desirable numerical features. For this specific text case our results demonstrate that the relaxation times adapt to the local flow and show a dependence on the velocity field. Furthermore, the novel collision operator demonstrates a better stability-to-precision ratio and outperforms conventional techniques that use an empirical constant for the bulk viscosity.
The transport of carbon dioxide through pipelines is one of the important components of Carbon dioxide Capture and Storage (CCS) systems that are currently being developed. If high flow rates are desired a transportation in the liquid or supercritical phase is to be preferred. For technical reasons, the transport must stay in that phase, without transitioning to the gaseous state. In this paper, a numerical simulation of the stationary process of carbon dioxide transport with impurities and phase transitions is considered. We use the Homogeneous Equilibrium Model (HEM) and the GERG-2008 thermodynamic equation of state to describe the transport parameters. The algorithms used allow to solve scenarios of carbon dioxide transport in the liquid or supercritical phase, with the detection of approaching the phase transition region. Convergence of the solution algorithms is analyzed in connection with fast and abrupt changes of the equation of state and the enthalpy function in the region of phase transitions.
A Fourier scatterometry setup is evaluated to recover the key parameters of optical phase gratings. Based on these parameters, systematic errors in the printing process of two-photon polymerization (TPP) gray-scale lithography three-dimensional printers can be compensated, namely tilt and curvature deviations. The proposed setup is significantly cheaper than a confocal microscope, which is usually used to determine calibration parameters for compensation of the TPP printing process. The grating parameters recovered this way are compared to those obtained with a confocal microscope. A clear correlation between confocal and scatterometric measurements is first shown for structures containing either tilt or curvature. The correlation is also shown for structures containing a mixture of tilt and curvature errors (squared Pearson coefficient r2 = 0.92). This compensation method is demonstrated on a TPP printer: a diffractive optical element printed with correction parameters obtained from Fourier scatterometry shows a significant reduction in noise as compared to the uncompensated system. This verifies the successful reduction of tilt and curvature errors. Further improvements of the method are proposed, which may enable the measurements to become more precise than confocal measurements in the future, since scatterometry is not affected by the diffraction limit.
A Fourier scatterometry setup is evaluated to recover the key parameters of optical phase gratings. Based on these parameters, systematic errors in the printing process of two photon polymerization (TPP) gray-scale lithography 3d printers can be compensated, namely tilt and curvature deviations. The proposed setup is significantly cheaper than a confocal microscope, which is usually used to determine calibrations parameters for compensation of the TPP printing process. The grating parameters recovered this way are compared to those obtained with a confocal microscope. A clear correlation between confocal and scatterometric measurements is first shown for structures containing either tilt or curvature. The correlation is also shown for structures containing a mixture of tilt and curvature errors (squared Pearson coefficient $r^2$ = 0.92). This new compensation method is demonstrated on a TPP printer: A diffractive optical element (DOE) printed with correction parameters obtained from Fourier scatterometry shows a significant reduction in noise as compared to the uncompensated system. This verifies the successful reduction of tilt and curvature errors. Further improvements of the method are proposed, which may enable the measurements to become more precise than confocal measurements in the future, since scatterometry is not affected by the diffraction limit.
This paper presents a novel approach to address noise, vibration, and harshness (NVH) issues in electrically assisted bicycles (e-bikes) caused by the drive unit. By investigating and optimising the structural dynamics during early product development, NVH can decisively be improved and valuable resources can be saved, emphasising its significance for enhancing riding performance. The paper offers a comprehensive analysis of the e-bike drive unit’s mechanical interactions among relevant components, culminating—to the best of our knowledge—in the development of the first high-fidelity model of an entire e-bike drive unit. The proposed model uses the principles of elastic multi body dynamics (eMBD) to elucidate the structural dynamics in dynamic-transient calculations. Comparing power spectra between measured and simulated motion variables validates the chosen model assumptions. The measurements of physical samples utilise accelerometers, contactless laser Doppler vibrometry (LDV) and various test arrangements, which are replicated in simulations and provide accessibility to measure vibrations onto rotating shafts and stationary structures. In summary, this integrated system-level approach can serve as a viable starting point for comprehending and managing the NVH behaviour of e-bikes.
In dieser Arbeit wird eine kompressible Semi-Lagrangesche Lattice-Boltzmann-Methode neu entwickelt und erprobt. Die Lattice-Boltzmann-Methode ist ein Verfahren zur numerischen Strömungssimulation, das auf einer Modellierung von Partikeldichten und deren Interaktion untereinander basiert. In ihrer Ursprungsform ist die Methode jedoch auf schwach kompressible Strömungen mit niedriger Machzahl beschränkt. Wesentliche Nachteile der bisherigen Versuche zur Erweiterung auf supersonische Strömungen sind entweder mangelhafte Stabilität der Verfahren, unpraktikabel große Geschwindigkeitssätze oder die Beschränktheit auf kleine Zeitschrittweiten. Als Alternative zu bisherigen Ansätzen wird in dieser Arbeit ein Semi-Lagrangescher Strömungsschritt eingesetzt. Semi-Lagrangesche Verfahren entkoppeln mittels Interpolation die Orts-, Zeit- und Geschwindigkeitsdiskretisierung der ursprünglichen Lattice-Boltzmann-Methode. Nach der Einleitung wird im zweiten und dritten Kapitel dieser Arbeit zunächst auf die Grundlagen und Prinzipien der Lattice-Boltzmann-Methode eingegangen sowie bisherige Ansätze zur Simulation kompressibler Strömungen aufgeführt. Im Anschluss wird die kompressible Semi-Lagrangesche Lattice-Boltzmann-Methode entwickelt und beschrieben. Die Erweiterung erfolgt im Wesentlichen durch die Verknüpfung der Methode mit geeigneten Gleichgewichtsfunktionen und Geschwindigkeitssätzen. Im vierten Kapitel der Arbeit werden neue Kubatur-basierte Geschwindigkeitssätze entwickelt und getestet, darunter ein D3Q45-Geschwindigkeitssatz zur Berechnung kompressibler Strömungen, der den Rechenaufwand gegenüber konventionellen Geschwindigkeitsdiskretisierungen erheblich verringert. Im fünften Kapitel der Arbeit werden zur Validierung Simulationen von eindimensionalen Stoßrohren, zweidimensionalen Riemann-Problemen und Stoß-Wirbel-Interaktionen durchgeführt. Im Anschluss zeigen Simulationen von dreidimensionalen, kompressiblen Taylor-Green-Wirbeln sowie von wandgebundenen Testfällen die Vorteile der Methode für kompressible Strömungssimulationen. Zu diesem Zweck werden die Überschallströmung um ein zweidimensionales NACA-0012-Profil und um eine dreidimensionale Kugel sowie eine supersonische Kanalströmung untersucht. Dem Simulationsteil folgt eine umfangreiche Diskussion der Semi-Lagrangeschen Lattice-Boltzmann-Methode im Vergleich zu anderen Methoden. Die Vorteile der Methode, wie vergleichsweise große Zeitschrittweiten, körperangepasste Netze und die Stabilität der Methode, werden hier herausgearbeitet.
In dieser Arbeit wird im Rahmen von FFE+, einem internen Projekt des Deutschen Zentrums für Luft- und Raumfahrt, eine entscheidungsbasierte Fertigungsstrategie für die Herstellung einer Mikrogasturbinenblisk aus oxidkeramischem Faserverbundwerkstoff entwickelt. Hierfür soll das vakuumbasierte Infusionsverfahren der Abteilung Struktur- und Funktionskeramik des Instituts für Werksstoffforschung verwendet werden. Zunächst wird der theoretische Hintergrund des Materials und die davon etablierte Verarbeitung betrachtet. Aus Basis dieser Grundlage können das System und Funktionen der oxidkeramischen Blisk im Sinne der methodischen Prozessentwicklung bestimmt werden. Die darin formulierten Anforderungen und Bewertungskriterien lassen eine aufwandsreduzierte Entwurfsphase von Konzepten oder Lösungsprinzipien zu. Hierbei ist die Faserstruktur der maßgeblicher Einflussfaktor in der Lösungsfindung. Nach der Bewertung, Validierung und Anpassung der Ergebnisse wird die Fertigungsstrategie auf dem best-bewerteten Konzept und den bisherigen Projekten der Abteilung entworfen. Zusätzlich ist in dieser Arbeit eine Machbarkeitsstudie am Institut für Flugzeugbau der Universität Stuttgart von einem bislang unbekannten Verfahren zur Herstellung oxidkeramischer Faserpreforms durchgeführt worden. Da eine Aussage über die Materialkennwerte für eine sichere Funktionsgewährleistung notwendig ist, sind Materialversuche bei Raum- und Hochtemperatur geplant. Das abschließende Ziel einer Prozessketten-Grundlage von Projekten mit dem vakuumbasierten Infusionsverfahren des Instituts für Werkstoffforschung fasst die Ergebnisse von dieser Arbeit und anderen Erfahrungsberichten zusammen.
Modern engineering relies heavily on utilizing computer technologies. This is especially true for thermoplastic manufacturing, such as blow molding. A crucial milestone for digitalization is the continuous integration of data in unified or interoperable systems. While new simulation technologies are constantly developed, data management standards such as STEP fail at integrating them. On the other hand, industrial standards such as ”VMAP” manage to improve interoperability for Small and Medium-sized Enterprises. However, they do not provide Simulation Process and Data Management (SPDM) technologies. For SPDM integration of VMAP data, Ontology-Based Data Access is used to allow continuing the digital thread in custom semantic-based open-source solutions. An ontology of the database format (VMAP) was generated alongside an expandable knowledge graph of data access methods. A Python-based software architecture was developed, automatically using the semantic representations of database format and data access to query data and metadata within the VMAP file. The result is a software architecture template that can be adapted for other data standards and integrated into semantic data management systems. It allows semantic queries on simulation data down to element-wise resolution without integrating the whole model information. The architecture can instantiate a file in a knowledge graph, query a file’s metadatum and, in case it is not yet available, find a semantically represented process that allows the creation and instantiation of the required metadatum. See Figure 1. The results of this thesis can be expected to form a basis for semantic SPDM tools.
Heutzutage werden alternative Mobilitätslösungen immer wichtiger. Dabei haben eBikes ihr Potential längst unter Beweis gestellt. Der zugehörige Markt ist über die letzten 10 Jahre enorm gewachsen und gleichermaßen auch die Erwartungen an das Produkt, wie bspw. eine Fahrt ohne störende Vibrationen und Geräusche zu haben. Der Motorfreilauf leistet dabei einen maßgeblichen Einfluss auf das dynamische Verhalten. In diesem Beitrag soll daher eine methodische Vorgehensweise vorgestellt werden, um mittels Versuch und Simulation den Einfluss des Motorfeilaufs auf das dynamische Verhalten der eBike Antriebseinheit zu bestimmen.
Stably stratified Taylor–Green vortex simulations are performed by lattice Boltzmann methods (LBM) and compared to other recent works using Navier–Stokes solvers. The density variation is modeled with a separate distribution function in addition to the particle distribution function modeling the flow physics. Different stencils, forcing schemes, and collision models are tested and assessed. The overall agreement of the lattice Boltzmann solutions with reference solutions from other works is very good, even when no explicit subgrid model is used, but the quality depends on the LBM setup. Although the LBM forcing scheme is not decisive for the quality of the solution, the choice of the collision model and of the stencil are crucial for adequate solutions in underresolved conditions. The LBM simulations confirm the suppression of vertical flow motion for decreasing initial Froude numbers. To gain further insight into buoyancy effects, energy decay, dissipation rates, and flux coefficients are evaluated using the LBM model for various Froude numbers.
Trends of environmental awareness, combined with a focus on personal fitness and health, motivate many people to switch from cars and public transport to micromobility solutions, namely bicycles, electric bicycles, cargo bikes, or scooters. To accommodate urban planning for these changes, cities and communities need to know how many micromobility vehicles are on the road. In a previous work, we proposed a concept for a compact, mobile, and energy-efficient system to classify and count micromobility vehicles utilizing uncooled long-wave infrared (LWIR) image sensors and a neuromorphic co-processor. In this work, we elaborate on this concept by focusing on the feature extraction process with the goal to increase the classification accuracy. We demonstrate that even with a reduced feature list compared with our early concept, we manage to increase the detection precision to more than 90%. This is achieved by reducing the images of 160 × 120 pixels to only 12 × 18 pixels and combining them with contour moments to a feature vector of only 247 bytes.
In this paper, modeling of piston and generic type gas compressors for a globally convergent algorithm for solving stationary gas transport problems is carried out. A theoretical analysis of the simulation stability, its practical implementation and verification of convergence on a realistic gas network have been carried out. The relevance of the paper for the topics of the conference is defined by a significance of gas transport networks as an advanced application of simulation and modeling, including the development of novel mathematical and numerical algorithms and methods.
In this paper, the electrochemical alkaline methanol oxidation process, which is relevant for the design of efficient fuel cells, is considered. An algorithm for reconstructing the reaction constants for this process from the experimentally measured polarization curve is presented. The approach combines statistical and principal component analysis and determination of the trust region for a linearized model. It is shown that this experiment does not allow one to determine accurately the reaction constants, but only some of their linear combinations. The possibilities of extending the method to additional experiments, including dynamic cyclic voltammetry and variations in the concentration of the main reagents, are discussed.
Alkaline methanol oxidation is an important electrochemical process in the design of efficient fuel cells. Typically, a system of ordinary differential equations is used to model the kinetics of this process. The fitting of the parameters of the underlying mathematical model is performed on the basis of different types of experiments, characterizing the fuel cell. In this paper, we describe generic methods for creation of a mathematical model of electrochemical kinetics from a given reaction network, as well as for identification of parameters of this model. We also describe methods for model reduction, based on a combination of steady-state and dynamical descriptions of the process. The methods are tested on a range of experiments, including different concentrations of the reagents and different voltage range.
The general method of topological reduction for the network problems is presented on example of gas transport networks. The method is based on a contraction of series, parallel and tree-like subgraphs for the element equations of quadratic, power law and general monotone dependencies. The method allows to reduce significantly the complexity of the graph and to accelerate the solution procedure for stationary network problems. The method has been tested on a large set of realistic network scenarios. Possible extensions of the method have been described, including triangulated element equations, continuation of the equations at infinity, providing uniqueness of solution, a choice of Newtonian stabilizer for nearly degenerated systems. The method is applicable for various sectors in the field of energetics, including gas networks, water networks, electric networks, as well as for coupling of different sectors.
Selbstfahrende Arbeitsmaschinen für den Einsatz auf dem Boden der Tiefsee von beispielsweise 6000 m Tiefe existieren derzeit noch nicht. Im Rahmen der vorliegenden Untersuchungen wird das Problem des Antreibens und Steuerns schwerpunktmäßig mit dem Ziel behandelt, die Grundlagen für weiterführende Entwicklungen eines elektrohydraulischen Fahr- und Lenkantriebes zu schaffen. Hierzu wird ein Versuchsaggregat unter einem Umgebungsdruck von 60 MPa (600 bar) im Tiefsee-Simulator getestet. Die dabei gewonnenen Erkenntnisse sind bei der konstruktiven Weiterentwicklung solcher Antriebe übertragbar.
Entwicklung eines elektrohydraulischen Antriebsaggregats für den Einsatz in 6000 m Meerestiefe
(1986)
Selbstfahrende Arbeitsmaschinen für den Einsatz auf dem Boden der Tiefsee von beispielsweise 6000 Meter Tiefe existieren derzeit noch nicht. Im Rahmen der vorliegenden Untersuchung (BMFT-Förderkennzeichen MTK 0328) wurden die Grundlagen elektrohydraulischer Antriebe für Umgebungsdrücke von 60 MPa geschaffen und in einer Druckkammer erfolgreich getestet. Die dabei erhaltenen Erkenntnisse sind bei der konstruktiven Weiterentwicklung solcher Antriebe übertragbar.
Die Untersuchungen zum vorliegenden Beitrag wurden im Rahmen des deutsch-französischen Gemeinschaftsprojektes "Entwicklung von Manganknollenabbau- und Gewinnungsverfahren" durchgeführt. Auf deutscher Seite waren die Unternehmen PREUSSAG AG, Abteilung Meerestechnik in Hannover, die Versuchsanstalt für Wasser- und Schiffbau in Berlin, das Institut für Förderwesen der TH Karlsruhe, das Institut für Strömungsmechanik der Universität GH Paderborn und das Institut für Konstruktion der Universität GH Siegen beteiligt. Im zuletzt genannten Institut wurden elektrohydraulische Antriebe für Versuchsprototypen von geschleppten Manganknollenkollektoren und deren Steuerungen ausgelegt und auf ihre Einsatzfähigkeit im Tiefsee-Simulator getestet.
Sie sind im Bereich Qualitätsmanagement tätig und haben die Aufgabe bekommen, ein Problem systematisch zu untersuchen und methodisch zu lösen? Sie haben zu viele Aufgaben und wissen nicht, wie Sie diese priorisieren sollen? Oder haben Sie zu begrenzte Ressourcen, um alle Reklamationen gleichzeitig bearbeiten zu können? Oder wissen nicht, wie Sie einen bestimmten Prozess in seinen Grenzen zielführend verbessern können?
Die Erfindung befasst sich mit einer Sicherheitsvorrichtung zur Verhinderung von Unfällen mit Personenschäden durch Maschinen, die ein Flächenelement enthält, welches auf der Oberfläche des Bereichs des Roboters, innerhalb dessen ein Unfall verhindert werden soll, durch ein Gelenk beweglich angeordnet ist. Des Weiteren weist die Sicherheitsvorrichtung Sensoren auf, die unter dem Flächenelement angeordnet sind und die Verkippung des Flächenelements erfassen.
Bei den bisher üblichen Kannenwagen werden beim Wechseln von Spinnkannen an Spinnmaschinen meistens rotatorisch, z. B. mittels Drehkreuz bewegt. Die neue Lösung soll ohne Rotation eine exakte Positionierung der Spinnkannen beim Wechseln ermöglichen.$A Die Erfindung besteht darin, daß ein Kannenwechselwagen als schmales, raumsparendes modular aufgebautes Fahrzeug gestaltet ist, welches einen definierten translatorischen Wechsel der Spinnkannen in einem Kannenkreislauf ermöglicht. Das Fahrzeug kann ein- und/oder zweireihige Kannenreihen wechseln.$A Die Anwendung des erfindungsgemäßen Kannenwechselwagens kann an allen faserbandspeisenden und faserbandgespeisten Spinnereimaschinen, wie z. B. Karden, Strecken, Ring- und Rotorautomaten, erfolgen.
Der vorliegende Beitrag befaßt sich mit Automatisierungsmöglichkeiten in Textilbetrieben für konventionelle als auch für nichtkonventionelle Spinnverfahren. Aus der Vielzahl derzeit existenter Produktionsschritte werden die standardisierbaren Automatisierungskombinationen zwischen den eingesetzten Textilmaschinen von Karden bis zu Spinnautomaten herausgearbeitet. Hierfür werden die heute in der Praxis befindlichen Transportmittel aufgezeigt und, vom Materialfluß ausgehend, die Zuordnungsmöglichkeiten der Maschinen in den Produktionsschritten und deren Automatisierungsbausteine definiert. Durch eine ganzheitliche Betrachtungsweise werden je nach Automatisierungsziel die verschiedenen Lösungsansätze diskutiert und als Bausteine gegenübergestellt. Hierdurch werden neue mechatronische Automatisierungslösungen vorgestellt, die eine Integration von Produktionsschritten oder die Automatisierung zwischen den einzelnen Produktionsschritten ermöglicht.