Refine
H-BRS Bibliography
- yes (4918) (remove)
Departments, institutes and facilities
- Fachbereich Wirtschaftswissenschaften (1243)
- Fachbereich Informatik (1148)
- Fachbereich Angewandte Naturwissenschaften (766)
- Fachbereich Ingenieurwissenschaften und Kommunikation (636)
- Institut für Technik, Ressourcenschonung und Energieeffizienz (TREE) (480)
- Präsidium (403)
- Fachbereich Sozialpolitik und Soziale Sicherung (402)
- Institute of Visual Computing (IVC) (313)
- Institut für funktionale Gen-Analytik (IFGA) (241)
- Internationales Zentrum für Nachhaltige Entwicklung (IZNE) (195)
Document Type
- Article (1603)
- Conference Object (1119)
- Part of a Book (690)
- Part of Periodical (410)
- Book (monograph, edited volume) (370)
- Report (145)
- Preprint (88)
- Working Paper (87)
- Contribution to a Periodical (83)
- Doctoral Thesis (70)
Year of publication
Keywords
- Lehrbuch (85)
- Deutschland (27)
- Nachhaltigkeit (27)
- Controlling (23)
- Unternehmen (23)
- Digitalisierung (17)
- Management (17)
- Betriebswirtschaftslehre (16)
- Machine Learning (16)
- Corporate Social Responsibility (15)
Informatikerinnen und Informatiker aller Fachrichtungen müssen die grundlegenden Konzepte, Methoden und Verfahren, die der Entwicklung und dem Einsatz von Informations- und Kommunikationstechnologien zugrunde liegen, verstehen und bei der Lösung von Problemen anwenden können. Das Buch stellt die algebraischen und zahlentheoretischen Grundlagen dafür vor und wendet diese bei der Lösung praktischer Problemstellungen, wie modulare Arithmetik, Primzahltests und Verschlüsselung an. Das Verständnis der Begriffe und deren Zusammenhänge und Zusammenwirken wird u.a. durch Lernziele, integrierte Übungsaufgaben mit Musterlösungen und Marginalien unterstützt. Das Buch ist zum Selbststudium gut geeignet.
The development of mobile robotic systems is a demanding task regarding its complexity, required resources and skills in multiple fields such as software development, artificial intelligence, mechanical design, electrical engineering, signal processing, sensor technology or control theory. This holds true particularly for soccer playing robots, where additional aspects like high dynamics, cooperation and high physical stress have to be dealt with. In robot competitions such as RoboCup, additional skills in the domains of team, project and knowledge management are of importance.
Ausgangspunkt der im Folgenden vorgestellten Semesterstruktur war die Umstellung der vorhandenen Diplomstudiengänge auf den Bachelor-Abschluss. Am Fachbereich werden drei grundständige Studiengänge angeboten; die technischen Studiengänge Elektrotechnik und Maschinenbau sowie der interdisziplinäre Studiengang Technikjournalismus, der den Geistes- und Sozialwissenschaften zuzurechnen ist. Ebenfalls sind duale Studiengänge vorhanden, die an grundständige Studiengänge angelehnt sind.
Der Beitrag untersucht, wie ein Präsenzlabor durch ein Remote-Labor ergänzt undersetzt werden kann. Dazu wird das Laborpraktikum Digitaltechnik der Hochschule Bonn-Rhein-Sieg betrachtet, bei dem ein Remote-Labor Flexibilität bei der Versuchsdurchführung bietet und Versuche ermöglicht, die allein mit dem Präsenzlabor nicht möglich wären. Neben der Ergänzung der Präsenzversuche können Studie-rende das Praktikum auch komplett im Remote-Labor durchführen. Durch klare Anforderungen an die Erteilung eines Testats ist dies sowohl für sie als auch für Lehrende praktikabel zu handhaben. Rückmeldungen der Studierenden und Nutzungszahlen belegen die Akzeptanz des Remote-Labors. Dabei zeigt sich, dass die Studierenden sehr heterogen mit dem Remote-Labor umgehen: Einige von ihnen nutzen das Remote-Labor als zusätzliche Praktikumszeit für Versuche die auch im Präsenzlabor möglich wären; andere nutzen es als Erweiterung der Praktikumsmöglichkeit für Versuche, die nur im Remote-Labor möglich sind und wieder andere arbeiten intensiv im Remote-Labor und reichen auch das Praktikumsprotokoll elektronisch ein. Für Lehrende besteht über das Protokoll und die Auswertung der Nutzungsdaten ausreichende Sicherheit, um aktive Beteiligung am Praktikum zu testieren.
Seit 2012 wird an der Hochschule Bonn-Rhein-Sieg die Studieneingangsphase im Qualitätspakt Lehre gefördert. Ein wesentliches Anliegen im Projekt „Pro-MINT-us“ ist die Einbeziehung der gesamten Hochschule, um keine isolierten Maßnahmen anzubieten, sondern die im Projekt entwickelten Lehrideen nachhaltig zu verankern.
An electronic display often has to present information from several sources. This contribution reports about an approach, in which programmable logic (FPGA) synchronises and combines several graphics inputs. The application area is computer graphics, especially rendering of large 3D models, which is a computing intensive task. Therefore, complex scenes are generated on parallel systems and merged to give the requested output image. So far, the transportation of intermediate results is often done by a local area network. However, as this can be a limiting factor, the new approach removes this bottleneck and combines the graphic signals with an FPGA.
Improving the study entry supports students in a decisive phase of their university education. Implementing improvements is a change process and can only be successful if the relevant stakeholders are addressed and convinced. In the described Teaching Quality Pact project evaluation data is used as a mean to discuss in the university the situation of the study programs. As these discussions were based on empirical data rather than on opinion, it was possible to achieve an open discussion about measures that are implemented. The open discussion is maintained during the project when results of the measures taken are analyzed.
Elektronik für Entscheider
(2023)
Dieses Buch gibt Nichtingenieuren, die sich beruflich mit Elektronik beschäftigen, die Möglichkeit, sich ein Stück auf dieses Fachgebiet zu begeben, um Aufgaben, Sprache und Vorgehensweise von Ingenieuren zu verstehen. Ziel ist es dabei nicht, nach dem Lesen dieses Buches eine elektronische Schaltung entwickeln zu können. Im Vordergrund steht vielmehr ein generelles Verständnis für die Zusammenhänge und Grundbegriffe der Elektronik. (Verlagsangaben)
Elektronik für Entscheider
(2008)
Die Entwicklung, Produktion und Vermarktung elektronischer Güter ist ein bedeutender Wirtschaftsfaktor, an dem Menschen mit verschiedenen Ausbildungen beteiligt sind. Um Produkte zum richtigen Preis, mit den richtigen Eigenschaften und zum richtigen Zeitpunkt anbieten zu können, müssen die Verantwortlichen eines Projektes miteinander über Projektziele kommunizieren können.
Dieses Buch ist für Manager, Betriebswirte, Juristen, PR-Fachleute und Journalisten geschrieben, aber auch für Informatiker und Ingenieure aus allen Fachgebieten, die sich beruflich mit Produkten der Elektronik beschäftigen. Ihnen wird die Möglichkeit gegeben, sich ein Stück auf das Gebiet der Elektronik zu begeben, um sowohl Aufgaben als auch Sprache und Vorgehensweise von Elektroingenieuren zu verstehen. Ziel ist es dabei nicht, nach dem Lesen dieses Buches eine elektronische Schaltung entwickeln zu können. Im Vordergrund steht vielmehr ein generelles Verständnis für die Zusammenhänge und Grundbegriffe der Elektronik.
Technik ist heutzutage allgegenwärtig und beeinflusst Wirtschaft und Gesellschaft. Die Bundesrepublik Deutschland erwirtschaftet als Industriestaat ihr Bruttosozialprodukt zu einem bedeutenden Anteil aus der Entwicklung und Produktion von technischen Gütern. Hieran sind Personen mit unterschiedlicher Ausbildung in verschiedenen Tätigkeiten beteiligt. Ingenieure kümmern sich um die Technik, Betriebswirte um die Finanzen, Juristen um rechtliche Fragen. So zumindest die Theorie.
Qualifikation für gute Lehre
(2010)
Eine von insgesamt sechs Arbeitsgruppen der Jahrestagung des HRK Bologna-Zentrums 2009 beschäftigte sich mit dem Themenbereich "Qualifikation für gute Lehre". Nach zwei Impulsvorträgen diskutierten die Teilnehmer, wie Hochschulangehörige noch stärker als bisher für die Lehre
qualifiziert werden können.
Low power dissipation is a current topic in digital design, and therefore, it should be covered in a state-of-the-art electrical engineering curriculum. This paper describes how low-power design can be addressed within a digital design course. Doing so would be beneficial for both topics because low-power design is not detached from the systems perspective, and the digital design course would be enriched by references to current challenges and applications. Thus, the presented course should serve as an example of how a course can be developed to also teach students about sustainable engineering.
Elektronik für Entscheider
(2017)
Dieses Buch gibt Nichtingenieuren, die sich beruflich mit Elektronik beschäftigen, die Möglichkeit, sich ein Stück auf dieses Fachgebiet zu begeben, um Aufgaben, Sprache und Vorgehensweise von Ingenieuren zu verstehen. Ziel ist es dabei nicht, nach dem Lesen dieses Buches eine elektronische Schaltung entwickeln zu können. Im Vordergrund steht vielmehr ein generelles Verständnis für die Zusammenhänge und Grundbegriffe der Elektronik.
Background: the potency of drugs that interfere with glucose metabolism, i.e., glucose transporters (GLUT) and nicotinamide phosphoribosyltransferase (NAMPT) was analyzed in neuroendocrine tumor (NET, BON-1, and QPG-1 cells) and small cell lung cancer (SCLC, GLC-2, and GLC-36 cells) tumor cell lines. (2) Methods: the proliferation and survival rate of tumor cells was significantly affected by the GLUT-inhibitors fasentin and WZB1127, as well as by the NAMPT inhibitors GMX1778 and STF-31. (3) Results: none of the NET cell lines that were treated with NAMPT inhibitors could be rescued with nicotinic acid (usage of the Preiss–Handler salvage pathway), although NAPRT expression could be detected in two NET cell lines. We finally analyzed the specificity of GMX1778 and STF-31 in NET cells in glucose uptake experiments. As previously shown for STF-31 in a panel NET-excluding tumor cell lines, both drugs specifically inhibited glucose uptake at higher (50 μM), but not at lower (5 μM) concentrations. (4) Conclusions: our data suggest that GLUT and especially NAMPT inhibitors are potential candidates for the treatment of NET tumors.
In thyroid carcinoma cells, the soluble βgalactosidespecific lectin, galectin3, is extra and intracellularly expressed and plays a significant role in thyroid cancer diagnosis. The functional relevance of this molecule, particularly in its extracellular environment however, warrants further elucidation. To gain insight into this topic, the present study characterized principal functional properties of galectin3 in 3 commonly used thyroid carcinoma cell lines (BCPAP, Cal62 and FTC133) that express the molecule intra and extracellulary. Cellintrinsic galectin3 harbors a functional carbohydrate recognition domain as determined by affinity purification. Moreover, cell surface expressed galectin3 can be partially removed by treatment with lactose or asialofetuin, but not with sucrose. Thyroid carcinoma cells adhere to substratebound galectin3 in a βgalactosidespecific manner, whereby only cell adhesion, but not cell migration is promoted. Thus, thyroid tumor cells harbor functional active galectin3 that, inter alia, specifically interacts with cell surfaceexpressed molecular ligands in a βgalactosidedependent manner, whereby the molecule can at least interfere with cell adhesion. The modulation of galectin3 expression level or its ligands in such tumor cells could be of therapeutic interest and needs further experimental clarification.
Organisationen wollen Produkte mit guter User Experience herstellen. Durch die Evaluation der organisationalen UX-Gestaltungskompetenz können Organisationen erkennen, wie stark ihre momentane UX-Gestaltungskompetenz ausgeprägt ist und wie die Kompetenz gezielt gesteigert werden kann. Für die Abbildung der aktuellen Kompetenz werden ein Fragebogen zur theoretischen Kompetenz und ein Fragebogen für die Produktevaluation kombiniert. Durch diese Kombination wird die Kompetenz der Organisation aus der Handlungs- und der Ergebnisperspektive betrachtet. Für die Erarbeitung von Handlungsfeldern zur Verbesserung der Kompetenz werden qualitative Interviews durchgeführt und mit den Ergebnissen der quantitativen Erhebungen verknüpft. Durch einen anschließenden Ergebnisworkshop erarbeiten sich die Mitglieder der Organisation einen effizienten Weg zur Steigerung der organisationalen UX-Kompetenz.
Usability und User Experience (UX) haben als Design-Aspekte in der Produktentwicklung zunehmend an Bedeutung gewonnen. Daher ist es sinnvoll, die organisationale Kompetenz zur Entwicklung von Produkten mit einer positiven UX zu stärken. Veränderungen in Organisationen sind jedoch mit großem Aufwand verbunden. Deshalb müssen Organisationen entscheiden, welche Aktivitäten zur Veränderung der eigenen Kompetenz durchgeführt werden sollen und welche nicht. Die bisherige Forschung hat sich weitgehend auf die Anwendbarkeit bestimmter Methoden im Projekt- und Produktkontext konzentriert. Um geeignete Aktivitäten zur Verbesserung der organisationalen UX-Kompetenz zu identifizieren, wurden 17 UX-Professionals befragt. Diese UX-Professionals haben mindestens zehn Jahre Erfahrung durch die Arbeit in mehreren Unternehmen und durch die Übernahme einer Führungsrolle im Bereich UX gesammelt. Aus diesen Interviews wurden 13 mögliche Maßnahmen zur Steigerung der UX-Kompetenz von Organisationen abgeleitet. Dazu gehören beispielsweise die Erhöhung der Kompetenz einzelner Mitarbeiter, das Teilen von UX-Erfolgsgeschichten oder das Ermöglichen von User Research.
UX-Professionals stehen vor der Aufgabe ihre Fertigkeiten und Kenntnisse kontinuierlich auszubauen. Eine Möglichkeit dies zu tun sind Communities of Practice, also Gemeinschaften von Personen mit ähnlichen Aufgaben und Schwerpunkten sowie einem gemeinsamen Interesse an Lösungen. Sie agieren weitgehend selbstorganisiert und dienen dem Austausch und der gegenseitigen Unterstützung. So entstehen ein gemeinsamer Wissensschatz sowie ein Netzwerk zwischen allen UX-Interessierten. Der Aufbau einer Community of Practice für UX-Professionals wurde in einem mittelständigen Unternehmen über 18 Monate begleitet und ausgewertet. Die Ergebnisse führten zu Handlungsempfehlungen, um Hindernisse beim Aufbau zu reduzieren und einen Mehrwert für alle Beteiligten herbeizuführen.
After replanting apple (Malus domestica Borkh.) on the same site severe growth suppressions, and a decline in yield and fruit quality are observed in all apple producing areas worldwide. The causes of this complex phenomenon, called apple replant disease (ARD), are only poorly understood up to now which is in part due to inconsistencies in terms and methodologies. Therefore we suggest the following definition for ARD: ARD describes a harmfully disturbed physiological and morphological reaction of apple plants to soils that faced alterations in their (micro-) biome due to the previous apple cultures. The underlying interactions likely have multiple causes that extend beyond common analytical tools in microbial ecology. They are influenced by soil properties, faunal vectors, and trophic cascades, with genotype-specific effects on plant secondary metabolism, particularly phytoalexin biosynthesis. Yet, emerging tools allow to unravel the soil and rhizosphere (micro-) biome, to characterize alterations of habitat quality, and to decipher the plant reactions. Thereby, deep insights into the reactions taking place at the root rhizosphere interface will be gained. Counteractions are suggested, taking into account that culture management should emphasize on improving soil microbial and faunal diversity as well as habitat quality rather than focus on soil disinfection.
Das Management von Sicherheit und Gesundheit bei der Arbeit beinhaltet die Praevention psychischer Fehlbelastungen und psychischer Erkrankungen. Die gesetzliche Grundlage der Praeventionsaktivitaeten der gesetzlichen Unfallversicherung wird aufgefuehrt. Anschliessend wird verdeutlicht, in welchen Handlungsfeldern und mit welchen Instrumenten die gesetzliche Unfallversicherung die Praevention psychischer Erkrankungen in den Betrieben unterstuetzt. Als theoretischer Rahmen fuer Praeventionsmassnahmen werden das Dreiebenenmodell psychischer Belastungen (Mitarbeiter, Unternehmen, Gesellschaft) und das Dreiebenen-Interventionsmodell psychischer Erkrankungen skizziert. Die betriebliche Praevention erfolgt im Idealfall auf der Basis konkreter innerbetrieblicher Regelungen. Dies wird beispielhaft fuer den Umgang mit E-Mails und die Regelungen zur Erreichbarkeit naeher beschrieben.
Mobbing
(2014)
Stress
(2014)
Graphbasierte Diskussionen sind eine Form von Online-Diskussionen, bei denen eine Diskussion als Graph visualisiert wird. Beispielhafte Diskussionsanwendungen sind unter anderem Belvedere [SWCP95], FreeStyler [Gas03] oder Digalo [LK06]. Graphen dieser Art sind, was bestimmte Eigenschaften betrifft, vergleichbar mit Petri-Netzen [Pet62]. So gibt es bei Beiden gewichtete, gerichtete Kanten sowie Knoten verschiedenen Typs, die jeweils bestimmte Eigenschaften besitzen. Im Gegensatz zu einem Petri-Netz, das immer ein bipartiter Graph ist, können bei einem Diskussionsgraphen jedoch prinzipiell alle Knoten miteinander verbunden werden. Moderatoren solcher Diskussionen sind oftmals mit dem Problem konfrontiert, dass sie mehrere Diskussionen gleichzeitig beobachten wollen, was jedoch aufgrund der Komplexität der Struktur von Diskussionsgraphen kaum effizient möglich ist.
Controlling
(2022)
Over the past two decades social protection has gained importance at the international and the national level of many low and middle income countries. Despite reforms in this sector being a global phenomenon, they differ from country to country. Traditional efforts to explain these dif- ferences focus on domestic factors. Yet it remains unclear how international influences and interdependencies contrib- ute to policy change. The study ‘International Policy Learn- ing and Policy Change’ aims at providing an answer to this question, by focusing on ‘soft governance’ via horizontal processes, meaning processes between equal actors. The studie was carried out in two parts. While in Part I the cur- rent state of the art in relevant research fields was assessed, in Part II the findings from Part I were used to conduct a survey which analyses the role of policy networks.
Stably stratified Taylor–Green vortex simulations are performed by lattice Boltzmann methods (LBM) and compared to other recent works using Navier–Stokes solvers. The density variation is modeled with a separate distribution function in addition to the particle distribution function modeling the flow physics. Different stencils, forcing schemes, and collision models are tested and assessed. The overall agreement of the lattice Boltzmann solutions with reference solutions from other works is very good, even when no explicit subgrid model is used, but the quality depends on the LBM setup. Although the LBM forcing scheme is not decisive for the quality of the solution, the choice of the collision model and of the stencil are crucial for adequate solutions in underresolved conditions. The LBM simulations confirm the suppression of vertical flow motion for decreasing initial Froude numbers. To gain further insight into buoyancy effects, energy decay, dissipation rates, and flux coefficients are evaluated using the LBM model for various Froude numbers.
Turbulent compressible flows are traditionally simulated using explicit time integrators applied to discretized versions of the Navier-Stokes equations. However, the associated Courant-Friedrichs-Lewy condition severely restricts the maximum time-step size. Exploiting the Lagrangian nature of the Boltzmann equation’s material derivative, we now introduce a feasible three-dimensional semi-Lagrangian lattice Boltzmann method (SLLBM), which circumvents this restriction. While many lattice Boltzmann methods for compressible flows were restricted to two dimensions due to the enormous number of discrete velocities in three dimensions, the SLLBM uses only 45 discrete velocities. Based on compressible Taylor-Green vortex simulations we show that the new method accurately captures shocks or shocklets as well as turbulence in 3D without utilizing additional filtering or stabilizing techniques other than the filtering introduced by the interpolation, even when the time-step sizes are up to two orders of magnitude larger compared to simulations in the literature. Our new method therefore enables researchers to study compressible turbulent flows by a fully explicit scheme, whose range of admissible time-step sizes is dictated by physics rather than spatial discretization.
This work thoroughly investigates a semi-Lagrangian lattice Boltzmann (SLLBM) solver for compressible flows. In contrast to other LBM for compressible flows, the vertices are organized in cells, and interpolation polynomials up to fourth order are used to attain the off-vertex distribution function values. Differing from the recently introduced Particles on Demand (PoD) method , the method operates in a static, non-moving reference frame. Yet the SLLBM in the present formulation grants supersonic flows and exhibits a high degree of Galilean invariance. The SLLBM solver allows for an independent time step size due to the integration along characteristics and for the use of unusual velocity sets, like the D2Q25, which is constructed by the roots of the fifth-order Hermite polynomial. The properties of the present model are shown in diverse example simulations of a two-dimensional Taylor-Green vortex, a Sod shock tube, a two-dimensional Riemann problem and a shock-vortex interaction. It is shown that the cell-based interpolation and the use of Gauss-Lobatto-Chebyshev support points allow for spatially high-order solutions and minimize the mass loss caused by the interpolation. Transformed grids in the shock-vortex interaction show the general applicability to non-uniform grids.
This work introduces a semi-Lagrangian lattice Boltzmann (SLLBM) solver for compressible flows (with or without discontinuities). It makes use of a cell-wise representation of the simulation domain and utilizes interpolation polynomials up to fourth order to conduct the streaming step. The SLLBM solver allows for an independent time step size due to the absence of a time integrator and for the use of unusual velocity sets, like a D2Q25, which is constructed by the roots of the fifth-order Hermite polynomial. The properties of the proposed model are shown in diverse example simulations of a Sod shock tube, a two-dimensional Riemann problem and a shock-vortex interaction. It is shown that the cell-based interpolation and the use of Gauss-Lobatto-Chebyshev support points allow for spatially high-order solutions and minimize the mass loss caused by the interpolation. Transformed grids in the shock-vortex interaction show the general applicability to non-uniform grids.
Turbulent compressible flows are traditionally simulated using explicit Eulerian time integration applied to the Navier-Stokes equations. However, the associated Courant-Friedrichs-Lewy condition severely restricts the maximum time step size. Exploiting the Lagrangian nature of the Boltzmann equation's material derivative, we now introduce a feasible three-dimensional semi-Lagrangian lattice Boltzmann method (SLLBM), which elegantly circumvents this restriction. Previous lattice Boltzmann methods for compressible flows were mostly restricted to two dimensions due to the enormous number of discrete velocities needed in three dimensions. In contrast, this Rapid Communication demonstrates how cubature rules enhance the SLLBM to yield a three-dimensional velocity set with only 45 discrete velocities. Based on simulations of a compressible Taylor-Green vortex we show that the new method accurately captures shocks or shocklets as well as turbulence in 3D without utilizing additional filtering or stabilizing techniques, even when the time step sizes are up to two orders of magnitude larger compared to simulations in the literature. Our new method therefore enables researchers for the first time to study compressible turbulent flows by a fully explicit scheme, whose range of admissible time step sizes is only dictated by physics, while being decoupled from the spatial discretization.
Off-lattice Boltzmann methods increase the flexibility and applicability of lattice Boltzmann methods by decoupling the discretizations of time, space, and particle velocities. However, the velocity sets that are mostly used in off-lattice Boltzmann simulations were originally tailored to on-lattice Boltzmann methods. In this contribution, we show how the accuracy and efficiency of weakly and fully compressible semi-Lagrangian off-lattice Boltzmann simulations is increased by velocity sets derived from cubature rules, i.e. multivariate quadratures, which have not been produced by the Gauss-product rule. In particular, simulations of 2D shock-vortex interactions indicate that the cubature-derived degree-nine D2Q19 velocity set is capable to replace the Gauss-product rule-derived D2Q25. Likewise, the degree-five velocity sets D3Q13 and D3Q21, as well as a degree-seven D3V27 velocity set were successfully tested for 3D Taylor-Green vortex flows to challenge and surpass the quality of the customary D3Q27 velocity set. In compressible 3D Taylor-Green vortex flows with Mach numbers Ma={0.5;1.0;1.5;2.0} on-lattice simulations with velocity sets D3Q103 and D3V107 showed only limited stability, while the off-lattice degree-nine D3Q45 velocity set accurately reproduced the kinetic energy provided by literature.
Off-lattice Boltzmann methods increase the flexibility and applicability of lattice Boltzmann methods by decoupling the discretizations of time, space, and particle velocities. However, the velocity sets that are mostly used in off-lattice Boltzmann simulations were originally tailored to on-lattice Boltzmann methods. In this contribution, we show how the accuracy and efficiency of weakly and fully compressible semi-Lagrangian off-lattice Boltzmann simulations is increased by velocity sets derived from cubature rules, i.e. multivariate quadratures, which have not been produced by the Gauß-product rule. In particular, simulations of 2D shock-vortex interactions indicate that the cubature-derived degree-nine D2Q19 velocity set is capable to replace the Gauß-product rule-derived D2Q25. Likewise, the degree-five velocity sets D3Q13 and D3Q21, as well as a degree-seven D3V27 velocity set were successfully tested for 3D Taylor–Green vortex flows to challenge and surpass the quality of the customary D3Q27 velocity set. In compressible 3D Taylor–Green vortex flows with Mach numbers on-lattice simulations with velocity sets D3Q103 and D3V107 showed only limited stability, while the off-lattice degree-nine D3Q45 velocity set accurately reproduced the kinetic energy provided by literature.
In dieser Arbeit wird eine kompressible Semi-Lagrangesche Lattice-Boltzmann-Methode neu entwickelt und erprobt. Die Lattice-Boltzmann-Methode ist ein Verfahren zur numerischen Strömungssimulation, das auf einer Modellierung von Partikeldichten und deren Interaktion untereinander basiert. In ihrer Ursprungsform ist die Methode jedoch auf schwach kompressible Strömungen mit niedriger Machzahl beschränkt. Wesentliche Nachteile der bisherigen Versuche zur Erweiterung auf supersonische Strömungen sind entweder mangelhafte Stabilität der Verfahren, unpraktikabel große Geschwindigkeitssätze oder die Beschränktheit auf kleine Zeitschrittweiten. Als Alternative zu bisherigen Ansätzen wird in dieser Arbeit ein Semi-Lagrangescher Strömungsschritt eingesetzt. Semi-Lagrangesche Verfahren entkoppeln mittels Interpolation die Orts-, Zeit- und Geschwindigkeitsdiskretisierung der ursprünglichen Lattice-Boltzmann-Methode. Nach der Einleitung wird im zweiten und dritten Kapitel dieser Arbeit zunächst auf die Grundlagen und Prinzipien der Lattice-Boltzmann-Methode eingegangen sowie bisherige Ansätze zur Simulation kompressibler Strömungen aufgeführt. Im Anschluss wird die kompressible Semi-Lagrangesche Lattice-Boltzmann-Methode entwickelt und beschrieben. Die Erweiterung erfolgt im Wesentlichen durch die Verknüpfung der Methode mit geeigneten Gleichgewichtsfunktionen und Geschwindigkeitssätzen. Im vierten Kapitel der Arbeit werden neue Kubatur-basierte Geschwindigkeitssätze entwickelt und getestet, darunter ein D3Q45-Geschwindigkeitssatz zur Berechnung kompressibler Strömungen, der den Rechenaufwand gegenüber konventionellen Geschwindigkeitsdiskretisierungen erheblich verringert. Im fünften Kapitel der Arbeit werden zur Validierung Simulationen von eindimensionalen Stoßrohren, zweidimensionalen Riemann-Problemen und Stoß-Wirbel-Interaktionen durchgeführt. Im Anschluss zeigen Simulationen von dreidimensionalen, kompressiblen Taylor-Green-Wirbeln sowie von wandgebundenen Testfällen die Vorteile der Methode für kompressible Strömungssimulationen. Zu diesem Zweck werden die Überschallströmung um ein zweidimensionales NACA-0012-Profil und um eine dreidimensionale Kugel sowie eine supersonische Kanalströmung untersucht. Dem Simulationsteil folgt eine umfangreiche Diskussion der Semi-Lagrangeschen Lattice-Boltzmann-Methode im Vergleich zu anderen Methoden. Die Vorteile der Methode, wie vergleichsweise große Zeitschrittweiten, körperangepasste Netze und die Stabilität der Methode, werden hier herausgearbeitet.
The identification of energetic materials in containments is an important challenge for analytical methods in the field of safety and security. Opening a package without knowledge of its contents and the resulting hazards is highly involved with risks and should be avoided whenever possible. Therefore, preferable methods work non-destructive with minimal interaction and are capable of identifying target substances in a containment quickly and reliably. Most spectroscopic methods find their limits, if the target substance is shielded by a covering material. To solve this problem, a combined laser drilling method with subsequent identification of the target substance by means of Raman spectroscopic measurements through microscopic bore holes of the covering material is presented. A pulsed laser beam is used for both the drilling process and as an excitation source for Raman measurements in the same optical setup. Results show the ability of this new method to gain high-quality spectra even when performed through microscopic small bore channels. With the laser parameters chosen right, the method can even be performed on highly sensitive explosives like triacetone triperoxide (TATP). Another advantageous effect arises in an observed reduction in unwanted fluorescence signal in the spectral data, resulting from the confocal-like measurement setup with the bore hole acting as aperture.
Die Detektion von Explosivstoffen stellt ein zentrales Feld der zivilen Sicherheitsforschung dar. Eine besondere Herausforderung liegt hierbei in dem Nachweis verpackter Substanzen, wie es bei Unkonventionellen Spreng- und Brandvorrichtung (USBV) häufig der Fall ist. Derzeit eingesetzte Verfahren arbeiten meist mit bildgebenden Techniken, durch die sich ein Anfangsverdacht ergibt. Der tatsächliche chemische Inhalt der USBV lässt sich jedoch nicht exakt ermitteln. Eine genaue Beurteilung der Gefährdung durch solche Substanzen ist allerdings von großer Bedeutung, insbesondere wenn die Entschärfung des Objekts in bewohntem Gebiet stattfinden muss. In der vorliegenden Arbeit wird ein Verfahren vorgestellt, das sich als Verifikationsverfahren bei bestehendem Anfangsverdacht gezielt einsetzen lässt. Hierzu wird mittels Laserbohrtechnik zunächst die äußere Hülle des zu untersuchenden Gegenstandes durchdrungen. Anschließend finden eine lasergestützte Probenahme des Inhalts sowie die Detektion unter Verwendung geeigneter Analysemöglichkeiten statt. Der Bohr- und Probenahmefortschritt wird über verschiedene spektroskopische und sensorische Verfahren begleitend überwacht. Zukünftig soll das System abstandsfähig auf Entschärfungsrobotern eingesetzt werden.
In der vorliegenden Arbeit wird ein neuartiges Verfahren zur Echtzeitüberwachung von Laserbohrprozessen vorgestellt. Die Untersuchungen werden an unterschiedlichen Materialien unter Einsatz eines passiv-gütegeschalteten Nd:YAG Lasers durchgeführt. Prozessbegleitend findet eine Aufzeichnung der akustischen Emissionen mit anschließender Analyse durch schnelle Fourier-Transformation statt. Hierdurch lassen sich der Durchbruch beim Bohren durch ein Material sowie der Materialübergang mehrschichtiger Systeme detektieren. Die akustischen Messungen werden durchAuswertung der Pulsfolge des Lasers mittels einer Fotodiode gestützt. Hierbei zeigt sich eine gute Übereinstimmung der im akustischen Spektrum dominanten Frequenz mit der jeweils im Laserburstauftretenden Pulsfrequenz. Das vorgestellte Verfahren ermöglicht eine Echtzeitüberwachung beim Laserbohren mittels kostengünstiger und einfacher Hardware. Zudem zeichnet es sich im Gegensatz zu bestehenden Verfahren durch eine hohe Robustheit gegen äußere Störeinflüsse aus, da eine frequenzbasierte Auswertung stattfindet.
Gegenstand dieser Arbeit sind Untersuchungen zur Detektion von verpackten Gefahrstoffen wie beispielsweise Explosivstoffen. Hierzu wird in einem ersten Schritt die Verpackung mittels Laserbohrens durchdrungen, um anschließend den nun freiliegenden Gefahrstoff nachweisen zu können. Dies geschieht einerseits durch eine lasergestützte Probenahme und anschließende Detektion mit gängigen chemisch-analytischen Verfahren sowie direkt bei der Wechselwirkung zwischen Laser und Gefahrstoff mittels Ramanspektroskopie. Zudem werden schnelle in situ-Techniken im Hinblick auf ihre Eignung zur Überwachung des Laserbohrprozesses untersucht. Hier werden kostengünstige und kompakte Sensortechniken (Messung der Prozessgase durch Halbleitergassensoren, Messung des Luftschalls mittels Kondensatormikrofon) mit aufwendigeren und komplexeren spektroskopischen Verfahren (Plasma- und Ramanspektroskopie) bewertend verglichen. Anhand ausgewählter Modellsysteme in verkleinertem Maßstab werden die unterschiedlichen Verfahren unter Verwendung gängiger Verpackungs- und Hüllenmaterialien sowie anhand ausgewählter Explosivstoffe charakterisiert. Für das Laserverfahren kommen gepulste Nd:YAG Laser mit unterschiedlichen Emissionswellenlängen zum Einsatz.
This paper introduces FaceHaptics, a novel haptic display based on a robot arm attached to a head-mounted virtual reality display. It provides localized, multi-directional and movable haptic cues in the form of wind, warmth, moving and single-point touch events and water spray to dedicated parts of the face not covered by the head-mounted display.The easily extensible system, however, can principally mount any type of compact haptic actuator or object. User study 1 showed that users appreciate the directional resolution of cues, and can judge wind direction well, especially when they move their head and wind direction is adjusted dynamically to compensate for head rotations. Study 2 showed that adding FaceHaptics cues to a VR walkthrough can significantly improve user experience, presence, and emotional responses.
Nachhaltigkeit als Megatrend. Die Arbeit der Weltkommission für Umwelt und Entwicklung unter Vorsitz von Brundtland machte bereits 1987 deutlich, dass v.a. das Management von Gemeingütern wie Ozeanen und der Atmosphäre, die Erhaltung des Weltfriedens, die weltweite Bevölkerungsentwicklung, die globale Ernährungssicherheit, die begrenzten Energieressourcen sowie die Folgen des Wirtschaftswachstums globale Herausforderungen darstellen, die nur durch eine nachhaltige Entwicklung gemeistert werden können.
Familienunternehmen tragen maßgeblich zur Bruttowertschöpfung der Bundesrepublik Deutschland bei: der Anteil von Familienunternehmen an allen Unternehmen der deutschen Volkswirtschaft am Ende des Jahres 2010 betrug etwa 78 % bei einem Anteil von 56 % an der Gesamtbeschäftigung. Bei allen Familienunternehmen kommt es früher oder später zu einem Wechsel der Leitung und des Eigentums. Die Unternehmensnachfolge ist unvermeidlicher Bestandteil des Lebenszyklus eines Familienunternehmens. Im Zeitraum von 2014 bis 2018 werden pro Jahr etwa 27.000 Nachfolgen in deutschen Familienunternehmen prognostiziert: dies bedeutet rein mathematisch im Durchschnitt etwa eine Nachfolge alle zwanzig Minuten.
Statistik im Fokus
(2022)
Liebe Leserinnen und Leser!
(2023)
Statistik im Fokus
(2023)
Liebe Leserinnen und Leser
(2022)
Controlling und Leadership: Überlegungen im Kontext der Unternehmensnachfolge in Familienunternehmen
(2017)
Before applying multigrid methods to a project, mathematicians, scientists, and engineers need to answer questions related to the quality of convergence, whether a development will pay out, whether multigrid will work for a particular application, and what the numerical properties are. Practical Fourier Analysis for Multigrid Methods uses a detailed and systematic description of local Fourier k-grid (k=1,2,3) analysis for general systems of partial differential equations to provide a framework that answers these questions.
This volume contains software that confirms written statements about convergence and efficiency of algorithms and is easily adapted to new applications. Providing theoretical background and the linkage between theory and practice, the text and software quickly combine learning by reading and learning by doing. The book enables understanding of basic principles of multigrid and local Fourier analysis, and also describes the theory important to those who need to delve deeper into the details of the subject.
Die vorliegende Forschungsarbeit setzt sich mit nachhaltigem Verhalten in Bezug auf die Nutzung von Kaffeebehältern an der HBRS auseinander. Anlass dafür ist, dass Pappbecher aufgrund einer Plastikbeschichtung nur schwer recycelbar sind und somit die Umwelt erheblich beeinträchtigen. In diesem Zusammenhang nahmen 204 Studierende an einer Online-Befragung teil. Den Ergebnissen zufolge kommen derzeit vor allem Einweg-Pappbecher zum Einsatz. Zur Modifizierung dieses umweltschädlichen Verhaltens bedarf es an geeigneten Interventionsstrategien. Basierend auf den Ergebnissen sind Maßnahmen zu implementieren, die dem Defizit an Handlungswissen und dem hohen Aufwand entgegenwirken, welcher mit der Verwendung eigens mitgebrachter Becher und den vorhandenen Porzellantassen assoziiert wird. Nach Sicherstellung der ökologischen Vorteile und finanziellen Umsetzbarkeit sollte das bestehende Pfandsystem um praktischere Becher sowie flexible Rückgabemöglichkeiten erweitert werden. Unterstützend ist eine Belohnung in Form von Freigetränken oder einem geringen finanziellen Rabatt sinnvoll, um den automatischen Verbrauch von Pappbechern zu unterbinden.
In dieser Arbeit wird eine von P. Ahlrichs und B. Dünweg entwickelte Methode [Ahlrichs und Dünweg, 1998] zur Simulation von Polymeren in Flüssigkeiten auf dem Cell-Prozessor implementiert. Dabei soll der Frage nachgegangen werden, wie performant der Cell-Processor in der Lage ist diese Simulation zu berechnen.
Zur Simulation der Polymere wird eine Molekular-Dynamik Simulation genutzt. Die Monomere der Polymerketten werden durch ein Kugel-Feder Modell gekoppelt. Die einzelnen Monomere der Polymere werden als einfache Punktteilchen betrachtet. Dies ermöglicht eine Interaktion der Monomere, unabhängig von deren Zeit- und Längenskalen, mit der Flüssigkeitssimulation durch Reibung. Die Flüssigkeit wird in dieser Arbeit durch die Lattice-Boltzmann-Methode simuliert.
Digital ecosystems are driving the digital transformation of business models. Meanwhile, the associated processing of personal data within these complex systems poses challenges to the protection of individual privacy. In this paper, we explore these challenges from the perspective of digital ecosystems' platform providers. To this end, we present the results of an interview study with seven data protection officers representing a total of 12 digital ecosystems in Germany. We identified current and future challenges for the implementation of data protection requirements, covering issues on legal obligations and data subject rights. Our results support stakeholders involved in the implementation of privacy protection measures in digital ecosystems, and form the foundation for future privacy-related studies tailored to the specifics of digital ecosystems.
Risk-based authentication (RBA) extends authentication mechanisms to make them more robust against account takeover attacks, such as those using stolen passwords. RBA is recommended by NIST and NCSC to strengthen password-based authentication, and is already used by major online services. Also, users consider RBA to be more usable than two-factor authentication and just as secure. However, users currently obtain RBA's high security and usability benefits at the cost of exposing potentially sensitive personal data (e.g., IP address or browser information). This conflicts with user privacy and requires to consider user rights regarding the processing of personal data. We outline potential privacy challenges regarding different attacker models and propose improvements to balance privacy in RBA systems. To estimate the properties of the privacy-preserving RBA enhancements in practical environments, we evaluated a subset of them with long-term data from 780 users of a real-world online service. Our results show the potential to increase privacy in RBA solutions. However, it is limited to certain parameters that should guide RBA design to protect privacy. We outline research directions that need to be considered to achieve a widespread adoption of privacy preserving RBA with high user acceptance.
Risk-based Authentication (RBA) is an adaptive security measure that improves the security of password-based authentication by protecting against credential stuffing, password guessing, or phishing attacks. RBA monitors extra features during login and requests for an additional authentication step if the observed feature values deviate from the usual ones in the login history. In state-of-the-art RBA re-authentication deployments, users receive an email with a numerical code in its body, which must be entered on the online service. Although this procedure has a major impact on RBA's time exposure and usability, these aspects were not studied so far.
We introduce two RBA re-authentication variants supplementing the de facto standard with a link-based and another code-based approach. Then, we present the results of a between-group study (N=592) to evaluate these three approaches. Our observations show with significant results that there is potential to speed up the RBA re-authentication process without reducing neither its security properties nor its security perception. The link-based re-authentication via "magic links", however, makes users significantly more anxious than the code-based approaches when perceived for the first time. Our evaluations underline the fact that RBA re-authentication is not a uniform procedure. We summarize our findings and provide recommendations.
Risk-based authentication (RBA) aims to protect users against attacks involving stolen passwords. RBA monitors features during login, and requests re-authentication when feature values widely differ from those previously observed. It is recommended by various national security organizations, and users perceive it more usable than and equally secure to equivalent two-factor authentication. Despite that, RBA is still used by very few online services. Reasons for this include a lack of validated open resources on RBA properties, implementation, and configuration. This effectively hinders the RBA research, development, and adoption progress.
To close this gap, we provide the first long-term RBA analysis on a real-world large-scale online service. We collected feature data of 3.3 million users and 31.3 million login attempts over more than 1 year. Based on the data, we provide (i) studies on RBA’s real-world characteristics plus its configurations and enhancements to balance usability, security, and privacy; (ii) a machine learning–based RBA parameter optimization method to support administrators finding an optimal configuration for their own use case scenario; (iii) an evaluation of the round-trip time feature’s potential to replace the IP address for enhanced user privacy; and (iv) a synthesized RBA dataset to reproduce this research and to foster future RBA research. Our results provide insights on selecting an optimized RBA configuration so that users profit from RBA after just a few logins. The open dataset enables researchers to study, test, and improve RBA for widespread deployment in the wild.
Login Data Set for Risk-Based Authentication
Synthesized login feature data of >33M login attempts and >3.3M users on a large-scale online service in Norway. Original data collected between February 2020 and February 2021.
This data sets aims to foster research and development for <a href="https://riskbasedauthentication.org">Risk-Based Authentication (RBA) systems. The data was synthesized from the real-world login behavior of more than 3.3M users at a large-scale single sign-on (SSO) online service in Norway.
Risk-based authentication (RBA) aims to strengthen password-based authentication rather than replacing it. RBA does this by monitoring and recording additional features during the login process. If feature values at login time differ significantly from those observed before, RBA requests an additional proof of identification. Although RBA is recommended in the NIST digital identity guidelines, it has so far been used almost exclusively by major online services. This is partly due to a lack of open knowledge and implementations that would allow any service provider to roll out RBA protection to its users. To close this gap, we provide a first in-depth analysis of RBA characteristics in a practical deployment. We observed N=780 users with 247 unique features on a real-world online service for over 1.8 years. Based on our collected data set, we provide (i) a behavior analysis of two RBA implementations that were apparently used by major online services in the wild, (ii) a benchmark of the features to extract a subset that is most suitable for RBA use, (iii) a new feature that has not been used in RBA before, and (iv) factors which have a significant effect on RBA performance. Our results show that RBA needs to be carefully tailored to each online service, as even small configuration adjustments can greatly impact RBA's security and usability properties. We provide insights on the selection of features, their weightings, and the risk classification in order to benefit from RBA after a minimum number of login attempts.
Risk-based Authentication (RBA) is an adaptive security measure to strengthen password-based authentication. RBA monitors additional features during login, and when observed feature values differ significantly from previously seen ones, users have to provide additional authentication factors such as a verification code. RBA has the potential to offer more usable authentication, but the usability and the security perceptions of RBA are not studied well.
We present the results of a between-group lab study (n=65) to evaluate usability and security perceptions of two RBA variants, one 2FA variant, and password-only authentication. Our study shows with significant results that RBA is considered to be more usable than the studied 2FA variants, while it is perceived as more secure than password-only authentication in general and comparably secure to 2FA in a variety of application types. We also observed RBA usability problems and provide recommendations for mitigation. Our contribution provides a first deeper understanding of the users' perception of RBA and helps to improve RBA implementations for a broader user acceptance.
Risk-based authentication (RBA) is an adaptive security measure to strengthen password-based authentication against account takeover attacks. Our study on 65 participants shows that users find RBA more usable than two-factor authentication equivalents and more secure than password-only authentication. We identify pitfalls and provide guidelines for putting RBA into practice.
Risk-based authentication (RBA) aims to strengthen password-based authentication rather than replacing it. RBA does this by monitoring and recording additional features during the login process. If feature values at login time differ significantly from those observed before, RBA requests an additional proof of identification. Although RBA is recommended in the NIST digital identity guidelines, it has so far been used almost exclusively by major online services. This is partly due to a lack of open knowledge and implementations that would allow any service provider to roll out RBA protection to its users.
To close this gap, we provide a first in-depth analysis of RBA characteristics in a practical deployment. We observed N=780 users with 247 unique features on a real-world online service for over 1.8 years. Based on our collected data set, we provide (i) a behavior analysis of two RBA implementations that were apparently used by major online services in the wild, (ii) a benchmark of the features to extract a subset that is most suitable for RBA use, (iii) a new feature that has not been used in RBA before, and (iv) factors which have a significant effect on RBA performance. Our results show that RBA needs to be carefully tailored to each online service, as even small configuration adjustments can greatly impact RBA's security and usability properties. We provide insights on the selection of features, their weightings, and the risk classification in order to benefit from RBA after a minimum number of login attempts.
Risikobasierte Authentifizierung (RBA) ist ein adaptiver Ansatz zur Stärkung der Passwortauthentifizierung. Er überwacht eine Reihe von Merkmalen, die sich auf das Loginverhalten während der Passworteingabe beziehen. Wenn sich die beobachteten Merkmalswerte signifikant von denen früherer Logins unterscheiden, fordert RBA zusätzliche Identitätsnachweise an. Regierungsbehörden und ein Erlass des US-Präsidenten empfehlen RBA, um Onlineaccounts vor Angriffen mit gestohlenen Passwörtern zu schützen. Trotz dieser Tatsachen litt RBA unter einem Mangel an offenem Wissen. Es gab nur wenige bis keine Untersuchungen über die Usability, Sicherheit und Privatsphäre von RBA. Das Verständnis dieser Aspekte ist jedoch wichtig für eine breite Akzeptanz.
Diese Arbeit soll ein umfassendes Verständnis von RBA mit einer Reihe von Studien vermitteln. Die Ergebnisse ermöglichen es, datenschutzfreundliche RBA-Lösungen zu schaffen, die die Authentifizierung stärken bei gleichzeitig hoher Menschenakzeptanz.
Studi ini bertujuan untuk memvalidasi perangkat penilaian efikasi diri yang berkaitan dengan kesehatan kerja yang dikembangkan pada tahap studi pendahuluan. Skala Efikasi Diri untuk Kesehatan Kerja (SEDKK) berlandaskan konsep efikasi diri pada teori kognitif sosial yang mengukur empat faktor yang berpengaruh pada kesehatan setiap individu yang bekerja, seperti: perilaku makan dan minum, tidur, keamanan dan kesehatan kerja, serta kegiatan pemulihan dari stres bekerja. Hasil analisis faktor eksploratori menunjukan bahwa ada empat faktor yang terefleksikan dari butir-butir SEDKK. Validitas konstruk SEDKK dapat dibuktikan dengan korelasi positif antara SEDKK dan skala Efikasi Diri Umum yang sangat signifikan. Pengujian validitas kriteria dapat ditelusuri melalui efek SEDKK terhadap kondisi kesehatan umum, kepuasan akan kesehatan pribadi, keseimbangan kehidupan kerja/KKK (work life balance), perilaku sehat, dan perilaku berisiko. Namun demikian, asumsi mengenai reliabilitas tes berulang (test-retest) pada penelitian ini ditolak. Implikasi dan saran-saran untuk penelitian selanjutnya didiskusikan pada artikel ini.