Refine
H-BRS Bibliography
- yes (147) (remove)
Departments, institutes and facilities
- Fachbereich Informatik (50)
- Fachbereich Wirtschaftswissenschaften (43)
- Fachbereich Angewandte Naturwissenschaften (22)
- Institute of Visual Computing (IVC) (17)
- Fachbereich Ingenieurwissenschaften und Kommunikation (12)
- Institut für funktionale Gen-Analytik (IFGA) (9)
- Fachbereich Sozialpolitik und Soziale Sicherung (6)
- Internationales Zentrum für Nachhaltige Entwicklung (IZNE) (5)
- Institut für Sicherheitsforschung (ISF) (4)
- Institut für Detektionstechnologien (IDT) (3)
- Institut für Cyber Security & Privacy (ICSP) (2)
- Institut für Technik, Ressourcenschonung und Energieeffizienz (TREE) (2)
- Institut für Verbraucherinformatik (IVI) (2)
- Institut für Medienentwicklung und -analyse (IMEA) (1)
Document Type
- Article (56)
- Conference Object (35)
- Book (monograph, edited volume) (20)
- Part of a Book (20)
- Master's Thesis (4)
- Report (3)
- Contribution to a Periodical (2)
- Doctoral Thesis (2)
- Bachelor Thesis (1)
- Diploma Thesis (1)
Year of publication
- 2012 (147) (remove)
Has Fulltext
- no (147) (remove)
Keywords
- Macht (5)
- Corporate Social Responsibility (3)
- ISM: molecules (3)
- Lehrbuch (3)
- Wirtschaftsethik (3)
- Bag of Features (2)
- CD21 (2)
- Deutschland (2)
- Glücksspiel (2)
- ISM: kinematics (2)
People with type 2 Diabetes have an elevated risk for developing cardiovascular disease (CVD) for which dyslipidemia is the major contributor. Diabetic patients have characteristic pattern of dyslipidemia with decreased level of high density lipoprotein cholesterol (HDL-C) and elevated triglycerides (TG) level. However, in diabetes mellitus, low density lipoprotein cholesterol (LDL-C) which is used as one of the markers for the risk of CVD, is underestimated so in such cases the levels of non-High density lipoprotein cholesterol (non-HDL-C) can be a stronger predictor of CVD as it strongly correlates with atherogenic lipoproteins. Therefore, an attempt has been made to evaluate the level of non-HDL-C as a newer marker for the risk of cardiovascular disease and to fi nd out the pattern of dyslipidemia in diabetes mellitus. The present study comprised of 82 type 2 Diabetic cases and 81 non-diabetic controls. Among the diabetics, the majority of the subjects (61.0%) were HDL-C dyslipidemic. However, among the controls, the maximum numbers of individuals (40.7%) were TG dyslipidemic. Diabetics have signifi cantly elevated ratio of total cholesterol to high density lipoprotein cholesterol (TC/HDL-C) and the signifi cant increased levels of non-high density lipoprotein cholesterol (non-HDL-C) compared to controls which can be used as markers of dyslipidemia and can also be used to predict the risk of cardiovascular disease in type 2 Diabetes Mellitus.
Stellt Product Placement eine bösartige Fehlentwicklung dar oder löst es erstarrte und verkrampfte Strukturen in unserem Mediensystem? Gehört es rigoros verboten oder kann es gemeinwohlorientiert reguliert werden? Das Phänomen sorgt in zyklischer Abfolge für hitzige Diskussionen, große Hoffnungen und noch größere Skandale.
Approximate clone detection is the process of identifying similar process fragments in business process model collections. The tool presented in this paper can efficiently cluster approximate clones in large process model repositories. Once a repository is clustered, users can filter and browse the clusters using different filtering parameters. Our tool can also visualize clusters in the 2D space, allowing a better understanding of clusters and their member fragments. This demonstration will be useful for researchers and practitioners working on large process model repositories, where process standardization is a critical task for increasing the consistency and reducing the complexity of the repository.
Die Darlegungsform von Nachhaltigkeitsleistungen sind üblicherweise gesondert ausgegebene Nachhaltigkeitsberichte auf die DAX-30-Unternehmen in ihren Geschäftsberichten hinweisen. Insbesondere die für kapitalmarktorientierte Unternehmen bedeutende Stakeholdergruppe der Analysten und Investoren fordert jedoch zunehmend eine integrative Darstellung aller Dimensionen der Triple-Bottom-Line auch im Lagebericht. Die gesetzlichen Offenlegungspflichten nach § 289 Abs. 3 bzw. § 315 Abs. 1 S. 4 HGB und DRS 15.32 erhöhen den Druck auf die DAX-30-Unternehmen zusätzlich. Diese Arbeit thematisiert im Kern das aktuelle Spannungsfeld zwischen Ökonomie, Ökologie und sozialem Engagement von Unternehmen. Auf Basis einer umfassenden theoretischen Analyse werden konkrete Kennzahlen zur Erfassung von Indikatoren der Nachhaltigkeit gebildet und deren Ausprägung bei den DAX 30 Unternehmen erarbeitet.
Development and Validation of a Rapid and Reliable Method for TPMT Genotyping using real-time PCR
(2012)
Controlling 2020
(2012)
Aufgrund der wachsenden Dynamik der Unternehmensumwelt, nimmt die allgemeine Unsicherheit über die zukünftigen Entwicklungsrichtungen der Unternehmen in Deutschland stetig zu. Vor diesem Hintergrund und für einen proaktiven Umgang mit zukünftigen Herausforderungen, sollten Controller ein besonderes Interesse daran haben, frühzeitig zu erfahren, welche Entwicklungen die Controllingpraxis in Zukunft tangieren werden. Trotz der steigenden Nachfrage kommt aktuell weder die akademische, noch die praxisorientierte Controllingforschung ihrer Prognosefunktion in ausreichendem Maße nach. Als wissenschaftlicher Beitrag für eine stärkere Zukunftsorientierung in der Controllingforschung zielt die vorliegende Arbeit darauf ab, mit Hilfe einer qualitativen Metaanalyse, aus Zukunftsbildern der Unternehmensumwelt Thesen über die zukünftige Entwicklung des Controllings in Deutschland bis 2020 aufzustellen und Implikationen für die Controllingpraxis abzuleiten.
AV-Medientechnik
(2012)
Um Filme, TV-Beiträge oder Musikvideos professionell zu produzieren, ist die sichere Beherrschung der Produktionstechnik absolut erforderlich. Basierend auf den jeweiligen technischen und physiologischen Grundlagen vermittelt dieses Buch praxisnah die wesentlichen technischen Inhalte der Film- und Fernsehproduktion. (Verlagsangaben)
Die Debatte um das menschliche Erkenntnisvermögen, also die Frage nach der Art und Weise, wie Menschen Wissen und Erkenntnis erlangen, ist nicht neu, sondern sie stellt sich seitdem philosophische Fragen gestellt werden – ohne dass allerdings über die Jahrhunderte hinweg eine definitive Antwort auf diese Frage gefunden werden konnte.
Auf dem Weg zur Promotion: Zur Benachteiligung von Fachhochschul-Absolventinnen und -Absolventen
(2012)
Das Team aus Sascha Czornohus, Katrin Dobersalske, Fabian Heuel und Nina Petrow bearbeitet mit seinem „Aufsatz Auf dem Weg zur Promotion: Strukturelle Benachteiligung von Fachhochschul-Absolventinnen und -Absolventen“ ein hochschulpolitisch brisantes und daher sensibles Thema, das die Hochschulpolitik inzwischen in offener Auseinandersetzung beschäftigt. Seit die Forschung unstreitig zu den Aufgaben der Fachhochschulen zählt, Promotion zu den Berufungsvoraussetzungen an ihnen gehört und alle Professoren an Universitäten ausgebildet wurden, wurde die Forderung nach Promotionszugängen für die Master-Absolventen der Fachhochschulen immer lauter. Teillösungen wurden gefunden, aber die Debatte wird breiter und umfasst inzwischen (auf dem Hintergrund der Profil- und Schwerpunktbildung mit sehr unterschiedlichem Ausbau der Fächer) die Frage, ob überhaupt ganzen Hochschulen das Promotionsrecht verliehen werden sollte oder von Fachbereich zu Fachbereich verschieden – auch bei Universitäten. Die Überzeugung, dass die Verteilung des Promotionsrechts in Deutschland überprüft werden sollte, breitet sich aus. Das HSW ist an der breiteren Diskussion dieses Themas interessiert.
YAWL User Group
(2012)
The documentation requirements of data published in long term archives have significantly grown over the last decade. At WDCC the data publishing process is assisted by “Atarrabi”, a web-based workflow system for reviewing and editing metadata information by the data authors and the publication agent. The system ensures high metadata quality for long-term use of the data with persistent identifiers (DOI/URN). By these well-defined references (DOI) credit can properly be given to the data producers in any publication.
This paper describes adaptive time frequency analysis of EEG signals, both in theory as well as in practice. A momentary frequency estimation algorithm is discussed and applied to EEG time series of test persons performing a concentration experiment. The motivation for deriving and implementing a time frequency estimator is the assumption that an emotional change implies a transient in the measured EEG time series, which again are superimposed by biological white noise as well as artifacts. It will be shown how accurately and robustly the estimator detects the transient even under such complicated conditions.
The criteria for assessing the quality of rubber materials are the polymer or copolymer composition and the additives. These additives include plasticizers, extender oils, carbon black, inorganic fillers, antioxidants, heat and light stabilizers, processing aids, cross-linking agents, accelerators, retarders, adhesives, pigments, smoke and flame retardants, and others. Determination of additives in polymers or copolymers generally requires the extraction of these substances from the matrix as a first step, which can be challenging, and the subsequent analysis of the extracted additives by gas chromatography (GC), GC–mass spectrometry (MS), high performance liquid chromatography (HPLC), HPLC–MS, capillary electrophoresis, thin-layer chromatography, and other analytical techniques. In the present work, nitrile rubber materials were studied using direct analytical flash pyrolysis hyphenated to GC and electrospray ionization MS in both scan and selected ion monitoring modes to demonstrate that this technique is a good tool to identify the organic additives in nitrile rubber.
Along with the success of the digitally revived stereoscopic cinema, other events beyond 3D movies become attractive for movie theater operators, i.e. interactive 3D games. In this paper, we present a case that explores possible challenges and solutions for interactive 3D games to be played by a movie theater audience. We analyze the setting and showcase current issues related to lighting and interaction. Our second focus is to provide gameplay mechanics that make special use of stereoscopy, especially depth-based game design. Based on these results, we present YouDash3D, a game prototype that explores public stereoscopic gameplay in a reduced kiosk setup. It features live 3D HD video stream of a professional stereo camera rig rendered in a real-time game scene. We use the effect to place the stereoscopic effigies of players into the digital game. The game showcases how stereoscopic vision can provide for a novel depth-based game mechanic. Projected trigger zones and distributed clusters of the audience video allow for easy adaptation to larger audiences and 3D movie theater gaming.
Gas chromatography with simultaneous flame-ionization detection (FID) and a nitrogen-phosphorus detection (NPD) as well as gas chromatography-mass spectrometry (GC/MS) has been used to characterize some long-chain primary alkyl amines and alkyl diamines after derivatization with trifluoroacetic anhydride (TFAA).
Mikroökonomie: Grundlagen der Wissenschaft von Märkten und Institutionen wirtschaftlichen Handelns
(2012)
Die Mikroökonomie gehört zu den Kernfächern in wirtschaftswissenschaftlichen Bachelor- und Masterprogrammen. Das vorliegende Buch bietet mit vielen Beispielen und Aufgaben, beispielsweise aus den Gebieten Arbeits-, Kapital-, Versicherungs-, Güter-, und Gesundheitsmarkt, die Möglichkeit, die Theorie anzuwenden und nachzuvollziehen.
Jede Führungskraft hat ein bestimmtes Menschenbild, das ihre Arbeit und den Umgang mit den Mitarbeitern prägt. Diese Menschenbilder sind auch einem historischen Wandel unterworfen. Denn im Lauf der Jahrzehnte haben sich unsere Vorstellungen vom Menschen als Mitarbeiter grundlegend gewandelt. Welche Konsequenzen dieser Wandel für die Mitarbeiterführung hat, untersucht der folgende Artikel.
The relative contributions of radial and laminar optic flow to the perception of linear self-motion
(2012)
When illusory self-motion is induced in a stationary observer by optic flow, the perceived distance traveled is generally overestimated relative to the distance of a remembered target (Redlick, Harris, & Jenkin, 2001): subjects feel they have gone further than the simulated distance and indicate that they have arrived at a target's previously seen location too early. In this article we assess how the radial and laminar components of translational optic flow contribute to the perceived distance traveled. Subjects monocularly viewed a target presented in a virtual hallway wallpapered with stripes that periodically changed color to prevent tracking. The target was then extinguished and the visible area of the hallway shrunk to an oval region 40° (h) × 24° (v). Subjects either continued to look centrally or shifted their gaze eccentrically, thus varying the relative amounts of radial and laminar flow visible. They were then presented with visual motion compatible with moving down the hallway toward the target and pressed a button when they perceived that they had reached the target's remembered position. Data were modeled by the output of a leaky spatial integrator (Lappe, Jenkin, & Harris, 2007). The sensory gain varied systematically with viewing eccentricity while the leak constant was independent of viewing eccentricity. Results were modeled as the linear sum of separate mechanisms sensitive to radial and laminar optic flow. Results are compatible with independent channels for processing the radial and laminar flow components of optic flow that add linearly to produce large but predictable errors in perceived distance traveled.
Interactive Distributed Rendering of 3D Scenes on Multiple Xbox 360 Systems and Personal Computers
(2012)
This paper compares the memory allocation of two Java virtual machines, namely Oracle Java HotSpot VM 32-bit (OJVM) and Jamaica JamaicaVM (JJVM). The basic difference of the architectures in both machines is that the JamaicaVM uses fixed-size blocks for allocating objects on the heap. The basic difference of the architectures is that the JJVM uses fixed size block allocation on the heap. This means that objects have to be split into several connected blocks if they are bigger than the specified block-size. On the other hand, for small objects a full block must be allocated. The paper contains both theoretical and experimental analysis on the memory-overhead. The theoretical analysis is based on specifications of the two virtual machines. The experimental analysis is done with a modified JVMTI Agent together with the SPECjvm2008 Benchmark.
Traffic simulations for virtual environments are concerned with the behavior of individual traffic participants. The complexity of behavior in these simulations is often rather simple to abide by the constraints of processing resources. In sophisticated traffic simulations, the behavior of individual traffic participants is also modeled, but the focus lies on the overall behavior of the entire system, e.g. to identify possible bottle necks of traffic flow [8].
Um eine Software fertigzustellen und dem Endkunden zu übergeben muss zunächst der Entwicklungsprozess durchschritten werden. Das zügige Durchlaufen dieses Entwicklungsprozesses ist besonders für den Endkunden von entscheidender Bedeutung, da die Wartezeit auf das Softwareprodukt für ihn reduziert wird. Problematisch könnte beispielsweise dabei ein modulares Vorgehen werden, wenn zunächst alle einzelnen Teilkomponenten eines Softwareproduktes entwickelt und diese daraufhin in einer anschließenden Phase, auch Integrationsphase genannt, zusammengefügt würden. Die Länge dieser Integrationsphase kann nur schwer vorausgesagt werden, so dass weder das Entwicklerteam noch der Endkunde wissen, wie lang die Fertigstellung des Produktes dauern wird. Dabei entsteht ein weiterer Nachteil. Da die Komponenten separat voneinander entwickelt werden, könnte es passieren, dass diese beim finalen Zusammenfügen nicht kompatibel sein und müssten, falls notwendig, angepasst werden. Die Folge wäre eine Verschwendung von personellen und somit auch finanziellen Ressourcen seitens des entwickelnden Unternehmens.
Distributed computing environments allow collaborative problem solving across teams and organisations. A fundamental precondition for collaboration is the ability to find available participants and be able to exchange information. One way to approach this conceptual formulation are central directories or registry services. A major disadvantage of centralized components is, that they limit the flexibility to form ad hoc networks that are targeted to solve a specific problem. To facilitate flexible and dynamic collaborations, ideas from decentralized and self-organising networks can be combined with concepts of service oriented computing. This project aims to investigate potential solutions for dynamic discovery of network participants and outlines how to manage challenges associated with the development of a discovery protocol for distributed systems. During the course of this project a prototypical implementation was created that integrates into the open source distributed, collaborative problem solving environment RCE [9]. It is currently developed at the German Aerospace Center (DLR) but is planned to make the framework available to broader community.