Fachbereich Ingenieurwissenschaften und Kommunikation
Refine
H-BRS Bibliography
- yes (630)
Departments, institutes and facilities
- Fachbereich Ingenieurwissenschaften und Kommunikation (630)
- Institut für Technik, Ressourcenschonung und Energieeffizienz (TREE) (299)
- Internationales Zentrum für Nachhaltige Entwicklung (IZNE) (50)
- Fachbereich Informatik (45)
- Institut für Medienentwicklung und -analyse (IMEA) (40)
- Institute of Visual Computing (IVC) (37)
- Zentrum für Innovation und Entwicklung in der Lehre (ZIEL) (23)
- Fachbereich Wirtschaftswissenschaften (8)
- Fachbereich Angewandte Naturwissenschaften (7)
- Graduierteninstitut (4)
Document Type
- Conference Object (235)
- Article (197)
- Part of a Book (80)
- Book (monograph, edited volume) (34)
- Preprint (22)
- Video (18)
- Report (17)
- Contribution to a Periodical (9)
- Doctoral Thesis (5)
- Research Data (3)
Year of publication
Keywords
- FPGA (10)
- Normen (9)
- Normen-ABC (9)
- Normenkompetenz (9)
- Normenwissen (9)
- DGQ (6)
- ISM: molecules (6)
- Lehrbuch (6)
- Melcher (6)
- Education (5)
Error analysis in a high accuracy sampled-data velocity stabilising system using Volterra series
(2015)
Intention: Within the research project EnerSHelF (Energy-Self-Sufficiency for Health Facilities in Ghana), i. a. energy-meteorological and load-related measurement data are collected, for which an overview of the availability is to be presented on a poster.
Context: In Ghana, the total electricity consumed has almost doubled between 2008 and 2018 according to the Energy Commission of Ghana. This goes along with an unstable power grid, resulting in power outages whenever electricity consumption peaks. The blackouts called "dumsor" in Ghana, pose a severe burden to the healthcare sector. Innovative solutions are needed to reduce greenhouse gas emissions and improve energy and health access.
Microwave Kinetic Inductance Detectors have great potential for large very sensitive detector arrays for use in, for example, ground and spaced based sub?mm imaging. Being intrinsically readout in the frequency domain, they are particularly suited for frequency domain multiplexing allowing 1000s of devices to be readout with one pair of coaxial cables. However, this moves the complexity of the detector from the cryogenics to the warm electronics. We present the use of a readout based on a Fast Fourier transform Spectrometer, showing no deterioration of the noise performance compared to low noise analog mixing while allowing high multiplexing ratios (>100). We present use of this technique to multiplex 44 MKIDs, while this and similar setups are regularly now being used in our array development. This development will help the realization of large cameras, particularly in the short term for ground based astronomy.
The clear-sky radiative effect of aerosol-radiation interactions is of relevance for our understanding of the climate system. The influence of aerosol on the surface energy budget is of high interest for the renewable energy sector. In this study, the radiative effect is investigated in particular with respect to seasonal and regional variations for the region of Germany and the year 2015 at the surface and top of atmosphere using two complementary approaches.
First, an ensemble of clear-sky models which explicitly consider aerosols is utilized to retrieve the aerosol optical depth and the surface direct radiative effect of aerosols by means of a clear sky fitting technique. For this, short-wave broadband irradiance measurements in the absence of clouds are used as a basis. A clear sky detection algorithm is used to identify cloud free observations. Considered are measurements of the shortwave broadband global and diffuse horizontal irradiance with shaded and unshaded pyranometers at 25 stations across Germany within the observational network of the German Weather Service (DWD). Clear sky models used are MMAC, MRMv6.1, METSTAT, ESRA, Heliosat-1, CEM and the simplified Solis model. The definition of aerosol and atmospheric characteristics of the models are examined in detail for their suitability for this approach.
Second, the radiative effect is estimated using explicit radiative transfer simulations with inputs on the meteorological state of the atmosphere, trace-gases and aerosol from CAMS reanalysis. The aerosol optical properties (aerosol optical depth, Ångström exponent, single scattering albedo and assymetrie parameter) are first evaluated with AERONET direct sun and inversion products. The largest inconsistency is found for the aerosol absorption, which is overestimated by about 0.03 or about 30 % by the CAMS reanalysis. Compared to the DWD observational network, the simulated global, direct and diffuse irradiances show reasonable agreement within the measurement uncertainty. The radiative kernel method is used to estimate the resulting uncertainty and bias of the simulated direct radiative effect. The uncertainty is estimated to −1.5 ± 7.7 and 0.6 ± 3.5 W m−2 at the surface and top of atmosphere, respectively, while the annual-mean biases at the surface, top of atmosphere and total atmosphere are −10.6, −6.5 and 4.1 W m−2, respectively.
The retrieval of the aerosol radiative effect with the clear sky models shows a high level of agreement with the radiative transfer simulations, with an RMSE of 5.8 W m−2 and a correlation of 0.75. The annual mean of the REari at the surface for the 25 DWD stations shows a value of −12.8 ± 5 W m−2 as average over the clear sky models, compared to −11 W m−2 from the radiative transfer simulations. Since all models assume a fixed aerosol characterisation, the annual cycle of the aerosol radiation effect cannot be reproduced. Out of this set of clear sky models, the largest level of agreement is shown by the ESRA and MRMv6.1 models.
The Project SupraMetall: Towards Commercial Fabrication of High-Temperature Superconducting Tapes
(2014)
Ausgangspunkt der im Folgenden vorgestellten Semesterstruktur war die Umstellung der vorhandenen Diplomstudiengänge auf den Bachelor-Abschluss. Am Fachbereich werden drei grundständige Studiengänge angeboten; die technischen Studiengänge Elektrotechnik und Maschinenbau sowie der interdisziplinäre Studiengang Technikjournalismus, der den Geistes- und Sozialwissenschaften zuzurechnen ist. Ebenfalls sind duale Studiengänge vorhanden, die an grundständige Studiengänge angelehnt sind.
Der Beitrag untersucht, wie ein Präsenzlabor durch ein Remote-Labor ergänzt undersetzt werden kann. Dazu wird das Laborpraktikum Digitaltechnik der Hochschule Bonn-Rhein-Sieg betrachtet, bei dem ein Remote-Labor Flexibilität bei der Versuchsdurchführung bietet und Versuche ermöglicht, die allein mit dem Präsenzlabor nicht möglich wären. Neben der Ergänzung der Präsenzversuche können Studie-rende das Praktikum auch komplett im Remote-Labor durchführen. Durch klare Anforderungen an die Erteilung eines Testats ist dies sowohl für sie als auch für Lehrende praktikabel zu handhaben. Rückmeldungen der Studierenden und Nutzungszahlen belegen die Akzeptanz des Remote-Labors. Dabei zeigt sich, dass die Studierenden sehr heterogen mit dem Remote-Labor umgehen: Einige von ihnen nutzen das Remote-Labor als zusätzliche Praktikumszeit für Versuche die auch im Präsenzlabor möglich wären; andere nutzen es als Erweiterung der Praktikumsmöglichkeit für Versuche, die nur im Remote-Labor möglich sind und wieder andere arbeiten intensiv im Remote-Labor und reichen auch das Praktikumsprotokoll elektronisch ein. Für Lehrende besteht über das Protokoll und die Auswertung der Nutzungsdaten ausreichende Sicherheit, um aktive Beteiligung am Praktikum zu testieren.
Seit 2012 wird an der Hochschule Bonn-Rhein-Sieg die Studieneingangsphase im Qualitätspakt Lehre gefördert. Ein wesentliches Anliegen im Projekt „Pro-MINT-us“ ist die Einbeziehung der gesamten Hochschule, um keine isolierten Maßnahmen anzubieten, sondern die im Projekt entwickelten Lehrideen nachhaltig zu verankern.
An electronic display often has to present information from several sources. This contribution reports about an approach, in which programmable logic (FPGA) synchronises and combines several graphics inputs. The application area is computer graphics, especially rendering of large 3D models, which is a computing intensive task. Therefore, complex scenes are generated on parallel systems and merged to give the requested output image. So far, the transportation of intermediate results is often done by a local area network. However, as this can be a limiting factor, the new approach removes this bottleneck and combines the graphic signals with an FPGA.
Improving the study entry supports students in a decisive phase of their university education. Implementing improvements is a change process and can only be successful if the relevant stakeholders are addressed and convinced. In the described Teaching Quality Pact project evaluation data is used as a mean to discuss in the university the situation of the study programs. As these discussions were based on empirical data rather than on opinion, it was possible to achieve an open discussion about measures that are implemented. The open discussion is maintained during the project when results of the measures taken are analyzed.
Low power dissipation is a current topic in digital design, and therefore, it should be covered in a state-of-the-art electrical engineering curriculum. This paper describes how low-power design can be addressed within a digital design course. Doing so would be beneficial for both topics because low-power design is not detached from the systems perspective, and the digital design course would be enriched by references to current challenges and applications. Thus, the presented course should serve as an example of how a course can be developed to also teach students about sustainable engineering.
Elektronik für Entscheider
(2017)
Dieses Buch gibt Nichtingenieuren, die sich beruflich mit Elektronik beschäftigen, die Möglichkeit, sich ein Stück auf dieses Fachgebiet zu begeben, um Aufgaben, Sprache und Vorgehensweise von Ingenieuren zu verstehen. Ziel ist es dabei nicht, nach dem Lesen dieses Buches eine elektronische Schaltung entwickeln zu können. Im Vordergrund steht vielmehr ein generelles Verständnis für die Zusammenhänge und Grundbegriffe der Elektronik.
Elektronik für Entscheider
(2008)
Die Entwicklung, Produktion und Vermarktung elektronischer Güter ist ein bedeutender Wirtschaftsfaktor, an dem Menschen mit verschiedenen Ausbildungen beteiligt sind. Um Produkte zum richtigen Preis, mit den richtigen Eigenschaften und zum richtigen Zeitpunkt anbieten zu können, müssen die Verantwortlichen eines Projektes miteinander über Projektziele kommunizieren können.
Dieses Buch ist für Manager, Betriebswirte, Juristen, PR-Fachleute und Journalisten geschrieben, aber auch für Informatiker und Ingenieure aus allen Fachgebieten, die sich beruflich mit Produkten der Elektronik beschäftigen. Ihnen wird die Möglichkeit gegeben, sich ein Stück auf das Gebiet der Elektronik zu begeben, um sowohl Aufgaben als auch Sprache und Vorgehensweise von Elektroingenieuren zu verstehen. Ziel ist es dabei nicht, nach dem Lesen dieses Buches eine elektronische Schaltung entwickeln zu können. Im Vordergrund steht vielmehr ein generelles Verständnis für die Zusammenhänge und Grundbegriffe der Elektronik.
Technik ist heutzutage allgegenwärtig und beeinflusst Wirtschaft und Gesellschaft. Die Bundesrepublik Deutschland erwirtschaftet als Industriestaat ihr Bruttosozialprodukt zu einem bedeutenden Anteil aus der Entwicklung und Produktion von technischen Gütern. Hieran sind Personen mit unterschiedlicher Ausbildung in verschiedenen Tätigkeiten beteiligt. Ingenieure kümmern sich um die Technik, Betriebswirte um die Finanzen, Juristen um rechtliche Fragen. So zumindest die Theorie.
Qualifikation für gute Lehre
(2010)
Eine von insgesamt sechs Arbeitsgruppen der Jahrestagung des HRK Bologna-Zentrums 2009 beschäftigte sich mit dem Themenbereich "Qualifikation für gute Lehre". Nach zwei Impulsvorträgen diskutierten die Teilnehmer, wie Hochschulangehörige noch stärker als bisher für die Lehre
qualifiziert werden können.
Elektronik für Entscheider
(2023)
Dieses Buch gibt Nichtingenieuren, die sich beruflich mit Elektronik beschäftigen, die Möglichkeit, sich ein Stück auf dieses Fachgebiet zu begeben, um Aufgaben, Sprache und Vorgehensweise von Ingenieuren zu verstehen. Ziel ist es dabei nicht, nach dem Lesen dieses Buches eine elektronische Schaltung entwickeln zu können. Im Vordergrund steht vielmehr ein generelles Verständnis für die Zusammenhänge und Grundbegriffe der Elektronik. (Verlagsangaben)
Stably stratified Taylor–Green vortex simulations are performed by lattice Boltzmann methods (LBM) and compared to other recent works using Navier–Stokes solvers. The density variation is modeled with a separate distribution function in addition to the particle distribution function modeling the flow physics. Different stencils, forcing schemes, and collision models are tested and assessed. The overall agreement of the lattice Boltzmann solutions with reference solutions from other works is very good, even when no explicit subgrid model is used, but the quality depends on the LBM setup. Although the LBM forcing scheme is not decisive for the quality of the solution, the choice of the collision model and of the stencil are crucial for adequate solutions in underresolved conditions. The LBM simulations confirm the suppression of vertical flow motion for decreasing initial Froude numbers. To gain further insight into buoyancy effects, energy decay, dissipation rates, and flux coefficients are evaluated using the LBM model for various Froude numbers.
Turbulent compressible flows are traditionally simulated using explicit time integrators applied to discretized versions of the Navier-Stokes equations. However, the associated Courant-Friedrichs-Lewy condition severely restricts the maximum time-step size. Exploiting the Lagrangian nature of the Boltzmann equation’s material derivative, we now introduce a feasible three-dimensional semi-Lagrangian lattice Boltzmann method (SLLBM), which circumvents this restriction. While many lattice Boltzmann methods for compressible flows were restricted to two dimensions due to the enormous number of discrete velocities in three dimensions, the SLLBM uses only 45 discrete velocities. Based on compressible Taylor-Green vortex simulations we show that the new method accurately captures shocks or shocklets as well as turbulence in 3D without utilizing additional filtering or stabilizing techniques other than the filtering introduced by the interpolation, even when the time-step sizes are up to two orders of magnitude larger compared to simulations in the literature. Our new method therefore enables researchers to study compressible turbulent flows by a fully explicit scheme, whose range of admissible time-step sizes is dictated by physics rather than spatial discretization.
This work thoroughly investigates a semi-Lagrangian lattice Boltzmann (SLLBM) solver for compressible flows. In contrast to other LBM for compressible flows, the vertices are organized in cells, and interpolation polynomials up to fourth order are used to attain the off-vertex distribution function values. Differing from the recently introduced Particles on Demand (PoD) method , the method operates in a static, non-moving reference frame. Yet the SLLBM in the present formulation grants supersonic flows and exhibits a high degree of Galilean invariance. The SLLBM solver allows for an independent time step size due to the integration along characteristics and for the use of unusual velocity sets, like the D2Q25, which is constructed by the roots of the fifth-order Hermite polynomial. The properties of the present model are shown in diverse example simulations of a two-dimensional Taylor-Green vortex, a Sod shock tube, a two-dimensional Riemann problem and a shock-vortex interaction. It is shown that the cell-based interpolation and the use of Gauss-Lobatto-Chebyshev support points allow for spatially high-order solutions and minimize the mass loss caused by the interpolation. Transformed grids in the shock-vortex interaction show the general applicability to non-uniform grids.
This work introduces a semi-Lagrangian lattice Boltzmann (SLLBM) solver for compressible flows (with or without discontinuities). It makes use of a cell-wise representation of the simulation domain and utilizes interpolation polynomials up to fourth order to conduct the streaming step. The SLLBM solver allows for an independent time step size due to the absence of a time integrator and for the use of unusual velocity sets, like a D2Q25, which is constructed by the roots of the fifth-order Hermite polynomial. The properties of the proposed model are shown in diverse example simulations of a Sod shock tube, a two-dimensional Riemann problem and a shock-vortex interaction. It is shown that the cell-based interpolation and the use of Gauss-Lobatto-Chebyshev support points allow for spatially high-order solutions and minimize the mass loss caused by the interpolation. Transformed grids in the shock-vortex interaction show the general applicability to non-uniform grids.
Turbulent compressible flows are traditionally simulated using explicit Eulerian time integration applied to the Navier-Stokes equations. However, the associated Courant-Friedrichs-Lewy condition severely restricts the maximum time step size. Exploiting the Lagrangian nature of the Boltzmann equation's material derivative, we now introduce a feasible three-dimensional semi-Lagrangian lattice Boltzmann method (SLLBM), which elegantly circumvents this restriction. Previous lattice Boltzmann methods for compressible flows were mostly restricted to two dimensions due to the enormous number of discrete velocities needed in three dimensions. In contrast, this Rapid Communication demonstrates how cubature rules enhance the SLLBM to yield a three-dimensional velocity set with only 45 discrete velocities. Based on simulations of a compressible Taylor-Green vortex we show that the new method accurately captures shocks or shocklets as well as turbulence in 3D without utilizing additional filtering or stabilizing techniques, even when the time step sizes are up to two orders of magnitude larger compared to simulations in the literature. Our new method therefore enables researchers for the first time to study compressible turbulent flows by a fully explicit scheme, whose range of admissible time step sizes is only dictated by physics, while being decoupled from the spatial discretization.
Off-lattice Boltzmann methods increase the flexibility and applicability of lattice Boltzmann methods by decoupling the discretizations of time, space, and particle velocities. However, the velocity sets that are mostly used in off-lattice Boltzmann simulations were originally tailored to on-lattice Boltzmann methods. In this contribution, we show how the accuracy and efficiency of weakly and fully compressible semi-Lagrangian off-lattice Boltzmann simulations is increased by velocity sets derived from cubature rules, i.e. multivariate quadratures, which have not been produced by the Gauss-product rule. In particular, simulations of 2D shock-vortex interactions indicate that the cubature-derived degree-nine D2Q19 velocity set is capable to replace the Gauss-product rule-derived D2Q25. Likewise, the degree-five velocity sets D3Q13 and D3Q21, as well as a degree-seven D3V27 velocity set were successfully tested for 3D Taylor-Green vortex flows to challenge and surpass the quality of the customary D3Q27 velocity set. In compressible 3D Taylor-Green vortex flows with Mach numbers Ma={0.5;1.0;1.5;2.0} on-lattice simulations with velocity sets D3Q103 and D3V107 showed only limited stability, while the off-lattice degree-nine D3Q45 velocity set accurately reproduced the kinetic energy provided by literature.
Off-lattice Boltzmann methods increase the flexibility and applicability of lattice Boltzmann methods by decoupling the discretizations of time, space, and particle velocities. However, the velocity sets that are mostly used in off-lattice Boltzmann simulations were originally tailored to on-lattice Boltzmann methods. In this contribution, we show how the accuracy and efficiency of weakly and fully compressible semi-Lagrangian off-lattice Boltzmann simulations is increased by velocity sets derived from cubature rules, i.e. multivariate quadratures, which have not been produced by the Gauß-product rule. In particular, simulations of 2D shock-vortex interactions indicate that the cubature-derived degree-nine D2Q19 velocity set is capable to replace the Gauß-product rule-derived D2Q25. Likewise, the degree-five velocity sets D3Q13 and D3Q21, as well as a degree-seven D3V27 velocity set were successfully tested for 3D Taylor–Green vortex flows to challenge and surpass the quality of the customary D3Q27 velocity set. In compressible 3D Taylor–Green vortex flows with Mach numbers on-lattice simulations with velocity sets D3Q103 and D3V107 showed only limited stability, while the off-lattice degree-nine D3Q45 velocity set accurately reproduced the kinetic energy provided by literature.
In dieser Arbeit wird eine kompressible Semi-Lagrangesche Lattice-Boltzmann-Methode neu entwickelt und erprobt. Die Lattice-Boltzmann-Methode ist ein Verfahren zur numerischen Strömungssimulation, das auf einer Modellierung von Partikeldichten und deren Interaktion untereinander basiert. In ihrer Ursprungsform ist die Methode jedoch auf schwach kompressible Strömungen mit niedriger Machzahl beschränkt. Wesentliche Nachteile der bisherigen Versuche zur Erweiterung auf supersonische Strömungen sind entweder mangelhafte Stabilität der Verfahren, unpraktikabel große Geschwindigkeitssätze oder die Beschränktheit auf kleine Zeitschrittweiten. Als Alternative zu bisherigen Ansätzen wird in dieser Arbeit ein Semi-Lagrangescher Strömungsschritt eingesetzt. Semi-Lagrangesche Verfahren entkoppeln mittels Interpolation die Orts-, Zeit- und Geschwindigkeitsdiskretisierung der ursprünglichen Lattice-Boltzmann-Methode. Nach der Einleitung wird im zweiten und dritten Kapitel dieser Arbeit zunächst auf die Grundlagen und Prinzipien der Lattice-Boltzmann-Methode eingegangen sowie bisherige Ansätze zur Simulation kompressibler Strömungen aufgeführt. Im Anschluss wird die kompressible Semi-Lagrangesche Lattice-Boltzmann-Methode entwickelt und beschrieben. Die Erweiterung erfolgt im Wesentlichen durch die Verknüpfung der Methode mit geeigneten Gleichgewichtsfunktionen und Geschwindigkeitssätzen. Im vierten Kapitel der Arbeit werden neue Kubatur-basierte Geschwindigkeitssätze entwickelt und getestet, darunter ein D3Q45-Geschwindigkeitssatz zur Berechnung kompressibler Strömungen, der den Rechenaufwand gegenüber konventionellen Geschwindigkeitsdiskretisierungen erheblich verringert. Im fünften Kapitel der Arbeit werden zur Validierung Simulationen von eindimensionalen Stoßrohren, zweidimensionalen Riemann-Problemen und Stoß-Wirbel-Interaktionen durchgeführt. Im Anschluss zeigen Simulationen von dreidimensionalen, kompressiblen Taylor-Green-Wirbeln sowie von wandgebundenen Testfällen die Vorteile der Methode für kompressible Strömungssimulationen. Zu diesem Zweck werden die Überschallströmung um ein zweidimensionales NACA-0012-Profil und um eine dreidimensionale Kugel sowie eine supersonische Kanalströmung untersucht. Dem Simulationsteil folgt eine umfangreiche Diskussion der Semi-Lagrangeschen Lattice-Boltzmann-Methode im Vergleich zu anderen Methoden. Die Vorteile der Methode, wie vergleichsweise große Zeitschrittweiten, körperangepasste Netze und die Stabilität der Methode, werden hier herausgearbeitet.
Before applying multigrid methods to a project, mathematicians, scientists, and engineers need to answer questions related to the quality of convergence, whether a development will pay out, whether multigrid will work for a particular application, and what the numerical properties are. Practical Fourier Analysis for Multigrid Methods uses a detailed and systematic description of local Fourier k-grid (k=1,2,3) analysis for general systems of partial differential equations to provide a framework that answers these questions.
This volume contains software that confirms written statements about convergence and efficiency of algorithms and is easily adapted to new applications. Providing theoretical background and the linkage between theory and practice, the text and software quickly combine learning by reading and learning by doing. The book enables understanding of basic principles of multigrid and local Fourier analysis, and also describes the theory important to those who need to delve deeper into the details of the subject.
Die Anforderungen an die Tragfähigkeit von Seilrollen aus Guss-Polyamiden nehmen aufgrund der Erwartungen hinsichtlich der maximal zu realisierenden Hublasten bei neueren Förder- und Hebegeräte stetig zu. Die heutige Konstruktionspraxis erlaubt für normale Betriebsbedingungen eine gesicherte Auslegung der Seilrollen. Aus jahrelanger Erfahrung sind hierfür Grenzwerte für maximal zulässigen Belastungen im Betrieb unter verschiedensten Betriebsbedingungen gewonnen worden. Jedoch ist bei steigenden Lasten, besserer Ausnutzung des Werkstoffpotenzials oder Modifikationen des Basiswerkstoffs nur noch eine eingeschränkte Bestimmung der tatsächlichen "Worst-Case"-Tragfähigkeit mit dieser Konstruktionspraxis möglich. Berechnungsmodelle einer neuen Bemessungsgrundlage basieren auf der Anwendung der Finite Elemente Methode. Die ersten Berechnungsmodelle aus der modifizierten Bemessungsgrundlage ermöglichen den Einfluss von geometrischen Änderungen der Form bzw. der Ausführung, von lokalen Materialeigenschaften und von realistischere Lastzustände auf den Deformationsund Spannungszustand einer Seilrolle theoretisch zu beschreiben. Weitere Berechnungsmodelle, die z.B. die Erwärmung der Seilrolle durch die Rollreibung zwischen Seil und Seilrolle sowie des Walkens durch die Bewegung des Seiles bei dynamischer Belastung beschreiben können, sind in der Entwicklung. Für den Konstrukteur werden zudem parametrisierte Geometrie-, Last- und FE-Modelle entwickelt, die eine schnelle und betriebssichere Dimensionierung von Seilrollen aus Guss-Polyamiden ermöglichen. Alle theoretischen Ergebnisse werden z.Z. durch umfangreiche Versuche abgesichert.
Bionik
(2022)
Wie machen die das… kann angesichts der erstaunlichen Fähigkeiten mancher Lebewesen gefragt werden. Die Bionik fragt noch weiter …und wie kann man das nachmachen? Hier liegt ein Schwerpunkt dieses Lehrbuches, das die Bionik nicht nur an zahlreichen Beispielen erklärt, sondern auch eine Vorgehensweise für die Identifizierung biologischer Lösungen und deren Übertragung auf technische Anwendungen vermittelt. Basisinformationen der Biologie und Grundlagen der Konstruktionstechnik gewährleisten einen leichten Zugang zum Stoff. Mit dem 3D-Druck als Schlüsseltechnologie und der Thematisierung der Nachhaltigkeit geht das Buch zudem auf aktuelle Entwicklungen ein. Dieser ganzheitliche Blick auf die Bionik soll den Leser zur Durchführung bionischer Projekte befähigen und motivieren. Die vorliegende Auflage wurde überarbeitet und um aktuelle Forschungserkenntnisse und Entwicklungen ergänzt. (Verlagsangaben)
Bionik
(2020)
Wie machen die das... kann angesichts der erstaunlichen Fähigkeiten mancher Lebewesen gefragt werden. Die Bionik fragt noch weiter …und wie kann man das nachmachen? Hier liegt ein Schwerpunkt dieses Lehrbuches, das die Bionik nicht nur an zahlreichen Beispielen erklärt, sondern auch eine Vorgehensweise für die Identifizierung biologischer Lösungen und deren Übertragung auf technische Anwendungen vermittelt. Basisinformationen der Biologie und Grundlagen der Konstruktionstechnik gewährleisten einen leichten Zugang zum Stoff. Mit dem 3D-Druck als Schlüsseltechnologie und der Thematisierung der Nachhaltigkeit geht das Buch zudem auf aktuelle Entwicklungen ein. Dieser ganzheitliche Blick auf die Bionik soll den Leser zur Durchführung bionischer Projekte befähigen und motivieren. (Verlagsangaben)
Protokoll 27
(2023)
Construction kit for low-cost vibration analysis systems based on low-cost acceleration sensors
(2009)
Maschinenbauprodukte lassen sich mit integrierten Drucksensoren bauraum- und kostenoptimiert entwickeln, indem man Druckmesszellen und elektronische Signalwandlung anwendungsspezifisch integriert. Dabei hilft es zu wissen, welche Messzellen und Signalwandler günstig verfügbar sind und welche Vor- und Nachteile sie haben.
Schwingungen sind Bestandteil einer jeden Maschine mit beweglichen Teilen, manchmal sind sie unbedeutend, manchmal deutlich merkbar. Die Überwachung von Schwingungen einer Maschine kann dazu dienen, die Maschinenfunktion zu kontrollieren oder auch frühzeitig Verschleißschäden zu erkennen. Stand der Technik ist die Messung von Schwingungen mit präzisen, aber auch kostenintensiven piezoelektrischen Beschleunigungssensoren und aufwändigen Messsystemen. Solche konventionellen Systeme sind für hochpreisige Maschinen und Anlagen, z. B. Windkraftanlagen, einsetzbar, aber nicht für kleine und mittelgroße Maschinen. Hier besteht der Bedarf an wirklichen Low-Cost Messsystemen, die so günstig sind, dass sie permanent in die Maschine integriert sind und permanent die Schwingungen überwachen. Im Forschungsprojekt wurde ein Baukasten aus kommerziell verfügbaren Komponenten entwickelt, mit dem Low-Cost Schwingungsmesssysteme aufgebaut werden können.
In this article we introduce the concept and the first implementation of a lightweight client-server-framework as middleware for distributed computing. On the client side an installation without administrative rights or privileged ports can turn any computer into a worker node. Only a Java runtime environment and the JAR files comprising the workflow client are needed. To connect all clients to the engine one open server port is sufficient. The engine submits data to the clients and orchestrates their work by workflow descriptions from a central database. Clients request new task descriptions periodically, thus the system is robust against network failures. In the basic set-up, data up- and downloads are handled via HTTP communication with the server. The performance of the modular system could additionally be improved using dedicated file servers or distributed network file systems. We demonstrate the design features of the proposed engine in real-world applications from mechanical engineering. We have used this system on a compute cluster in design-of-experiment studies, parameter optimisations and robustness validations of finite element structures.
This paper proposes a new artificial neural network-based maximum power point tracker for photovoltaic application. This tracker significantly improves efficiency of the photovoltaic system with series-connection of photovoltaic modules in non-uniform irradiance on photovoltaic array surfaces. The artificial neural network uses irradiance and temperature sensors to generate the maximum power point reference voltage and employ a classical perturb and observe searching algorithm. The structure of the artificial neural network was obtained by numerical modelling using Matlab/Simulink. The artificial neural network was trained using Bayesian regularisation back-propagation algorithms and demonstrated a good prediction of the maximum power point. Relative number of Vmpp prediction errors in range of ±0.2V is 0.05% based on validation data.
Cost efficient energy monitoring in existing large buildings demands for autonomous indoor sensors with low power consumption, high performance in multipath fading channels and economic implementation. Good performance in multipath fading channels can be achieved with noncoherent chaotic modulation schemes such as chaos on-off keying (COOK) or differential chaos shift keying (DCSK). While COOK stands out in the area of power consumption, DCSK excels when it comes to its performance in noisy and multipath fading channels. This paper evaluates a combination of both schemes for autonomous indoor sensors. The simulation results show 50% less power consumption than DCSK and more than 3dB SNR gain in Rayleigh fading channels at BER=10-3 as compared to COOK, making it a promising candidate for low power transmission in autonomous wireless indoor sensors. We further present an enhanced version of this scheme showing another 1 dB SNR improvement, but at 25% less power consumption than DCSK.
Die Erfindung betrifft eine elektrische Insektenabwehrvorrichtung (1) zur Abwehr kriechender Insekten (2) umfassend eine Spannungserzeugungseinrichtung (4a, 4b) zur Erzeugung einer Abwehrspannung sowie umfassend zumindest zwei nebeneinander angeordnete und beabstandet zueinander verlaufende blanke elektrische Leiter (5a, 5b, 5c, 5d), die derart mit der Spannungserzeugungseinrichtung (4a, 4b) verbunden sind, dass die Abwehrspannung zwischen ihnen liegt. Die elektrischen Leiter sind als flache Leiterbahnen (5a, 5b, 5c, 5d) auf oder in der Oberfläche eines gemeinsamen Trägers (12, 13, 50, 60) ausgebildet, so dass ein Insekt (2) bei einem Berühren der Leiterbahnen (5a, 5b, 5c, 5d) einen elektrischen Schlag erhält.
Low Cost Displays
(2010)
Simultaneous multifrequency radio observations of the Galactic Centre magnetar SGR J1745-2900
(2015)
Wireless sensor networks are widely used in a variety of fields including industrial environments. In case of a clustered network the location of cluster head affects the reliability of the network operation. Finding of the optimum location of the cluster head, therefore, is critical for the design of a network. This paper discusses the optimisation approach, based on the brute force algorithm, in the context of topology optimisation of a cluster structure centralised wireless sensor network. Two examples are given to verify the approach that demonstrate the implementation of the brute force algorithm to find an optimum location of the cluster head.
Abstract Classical ballet requires dancers to exercise significant muscle control and strength both while stationary and when moving. Following the Royal Academy of Dance (RAD) syllabus, 8 male and 27 female dancers (aged 20.2 + 1.9 yr) in a full-time university undergraduate dance training program were asked to stand in first position for 10 seconds and then perform 10 repeats of a demi-plié exercise to a counted rhythm. Accelerometer records from the wrist, sacrum, knee and ankle were compared with the numerical scores from a professional dance instructor. The sacrum mounted sensor detected lateral tilts of the torso in dances with lower scores (Spearman’s rank correlation coefficient r = -0.64, p < 0.005). The 5RMS6 acceleration amplitude of wrist mounted sensor was linearly correlated to the movement scores (Spearman’s rank correlation coefficient r = 0.63, p < 0.005). The application of sacrum and wrist mounted sensors for biofeedback during dance training is a realistic, low cost option.
Force field (FF) based molecular modeling is an often used method to investigate and study structural and dynamic properties of (bio-)chemical substances and systems. When such a system is modeled or refined, the force field parameters need to be adjusted. This force field parameter optimization can be a tedious task and is always a trade-off in terms of errors regarding the targeted properties. To better control the balance of various properties’ errors, in this study we introduce weighting factors for the optimization objectives. Different weighting strategies are compared to fine-tune the balance between bulk-phase density and relative conformational energies (RCE), using n-octane as a representative system. Additionally, a non-linear projection of the individual property-specific parts of the optimized loss function is deployed to further improve the balance between them. The results show that the overall error is reduced. One interesting outcome is a large variety in the resulting optimized force field parameters (FFParams) and corresponding errors, suggesting that the optimization landscape is multi-modal and very dependent on the weighting factor setup. We conclude that adjusting the weighting factors can be a very important feature to lower the overall error in the FF optimization procedure, giving researchers the possibility to fine-tune their FFs.