Refine
H-BRS Bibliography
- yes (1167) (remove)
Departments, institutes and facilities
- Fachbereich Angewandte Naturwissenschaften (356)
- Fachbereich Wirtschaftswissenschaften (321)
- Fachbereich Informatik (186)
- Fachbereich Sozialpolitik und Soziale Sicherung (160)
- Fachbereich Ingenieurwissenschaften und Kommunikation (135)
- Institut für funktionale Gen-Analytik (IFGA) (112)
- Institut für Technik, Ressourcenschonung und Energieeffizienz (TREE) (83)
- Institute of Visual Computing (IVC) (35)
- Internationales Zentrum für Nachhaltige Entwicklung (IZNE) (25)
- Institut für Verbraucherinformatik (IVI) (22)
- Institut für Sicherheitsforschung (ISF) (19)
- Institut für Cyber Security & Privacy (ICSP) (17)
- Institut für Detektionstechnologien (IDT) (8)
- Zentrum für Ethik und Verantwortung (ZEV) (5)
- Centrum für Entrepreneurship, Innovation und Mittelstand (CENTIM) (4)
- Institut für Medienentwicklung und -analyse (IMEA) (3)
- Präsidium (2)
- Sprachenzentrum (2)
- Verwaltung (2)
- Bibliothek (1)
- Institut für Soziale Innovationen (ISI) (1)
- Zentrum für Innovation und Entwicklung in der Lehre (ZIEL) (1)
Document Type
- Article (1167) (remove)
Year of publication
Has Fulltext
- no (1167) (remove)
Keywords
- GC/MS (7)
- Qualitätsmanagement (6)
- Africa (5)
- Deutschland (5)
- ISM: molecules (5)
- Performance (5)
- Qualitätssicherung (5)
- Virtual reality (5)
- CD21 (4)
- Controlling (4)
For many different applications, current information about the bandwidth-related metrics of the utilized connection is very useful as they directly impact the performance of throughput sensitive applications such as streaming servers, IPTV and VoIP applications. In literature, several tools have been proposed to estimate major bandwidth-related metrics such as capacity, available bandwidth and achievable throughput. The vast majority of these tools fall into one of Packet Pair (PP), Variable Packet Size (VPS), Self-Loading of Periodic Streams (SLoPS) or Throughput approaches. In this study, seven popular bandwidth estimation tools including nettimer, pathrate, pathchar, pchar, clink, pathload and iperf belonging to these four well-known estimation techniques are presented and experimentally evaluated in a controlled testbed environment. Differently from the rest of studies in literature, all tools have been uniformly classified and evaluated according to an objective and sophisticated classification and evaluation scheme. The performance comparison of the tools incorporates not only the estimation accuracy but also the probing time and overhead caused.
As competition for tourists becomes more global, understanding and accommodating the needs of international tourists, with their different cultural backgrounds, has become increasingly important. This study highlights the variations in tourist industry service--particularly as they relate to different cultures. Specifically, service failures experienced by Japanese and German tourists in the U.S. were categorized using the Critical Incident Technique (CIT). The results were compared with earlier studies of service failures experienced by American consumers in the tourist industry. The sample consists of 128 Japanese and 94 “Germanic” (German, Austrian, Swiss-German) respondents. The Japanese and German sample rated “Inappropriate employee behavior” most significant category of service failure. More than half of these respondents said that, because of the failure, they would avoid the offending U.S. business. This is a much stronger response than an American sample had reported in an earlier study. The implications for managers and researchers are discussed.
Multi-Merger-Szenarien als Herausforderung für das IT-Controlling - Checklisten zur IT-Integration
(2006)
Trueness and precision of milled and 3D printed root-analogue implants: A comparative in vitro study
(2023)
AI (artificial intelligence) systems are increasingly being used in all aspects of our lives, from mundane routines to sensitive decision-making and even creative tasks. Therefore, an appropriate level of trust is required so that users know when to rely on the system and when to override it. While research has looked extensively at fostering trust in human-AI interactions, the lack of standardized procedures for human-AI trust makes it difficult to interpret results and compare across studies. As a result, the fundamental understanding of trust between humans and AI remains fragmented. This workshop invites researchers to revisit existing approaches and work toward a standardized framework for studying AI trust to answer the open questions: (1) What does trust mean between humans and AI in different contexts? (2) How can we create and convey the calibrated level of trust in interactions with AI? And (3) How can we develop a standardized framework to address new challenges?
Software testing in web services environment faces different challenges in comparison with testing in traditional software environments. Regression testing activities are triggered based on software changes or evolutions. In web services, evolution is not a choice for service clients. They have always to use the current updated version of the software. In addition test execution or invocation is expensive in web services and hence providing algorithms to optimize test case generation and execution is vital. In this environment, we proposed several approach for test cases' selection in web services' regression testing. Testing in this new environment should evolve to be included part of the service contract. Service providers should provide data or usage sessions that can help service clients reduce testing expenses through optimizing the selected and executed test cases.
Once aberrantly activated, the Wnt/βcatenin pathway may result in uncontrolled proliferation and eventually cancer. Efforts to counter and inhibit this pathway are mainly directed against βcatenin, as it serves a role on the cytoplasm and the nucleus. In addition, speciallygenerated lymphocytes are recruited for the purpose of treating liver cancer. Peripheral blood mononuclear lymphocytes are expanded by the timely addition of interferon γ, interleukin (IL)1β, IL2 and anticluster of differentiation 3 antibody. The resulting cells are called cytokineinduced killer (CIK) cells. The present study utilised these cells and combine them with drugs inhibiting the Wnt pathway in order to examine whether this resulted in an improvement in the killing ability of CIK cells against liver cancer cells. Drugs including ethacrynic acid (EA) and ciclopirox olamine (CPX) were determined to be suitable candidates, as determined by previous studies. Drugs were administered on their own and combined with CIK cells and then a cell viability assay was performed. These results suggest that EAtreated cells demonstrated apoptosis and were significantly affected compared with untreated cells. Unlike EA, CPX killed normal and cancerous cells even at low concentrations. Subsequent to combining EA with CIK cells, the potency of killing was increased and a greater number of cells died, which proves a synergistic action. In summary, EA may be used as an antihepatocellular carcinoma drug, while CPX possesses a high toxicity to cancerous as well as to normal cells. It was proposed that EA should be integrated into present therapeutic methods for cancer.
Competitions for Benchmarking: Task and Functionality Scoring Complete Performance Assessment
(2015)
Die Komplexität der Entscheidungen im Fuhrparkmanagement hat in der jüngeren Vergangenheit deutlich zugenommen. Damit steigen die Anforderungen an den Fuhrparkcontroller, den Fuhrparkleiter mit entscheidungsrelevanten Informationen im Sinne eines internen Dienstleisters zu unterstützen. Das Dynamic Carbon Accounting bietet die Möglichkeit, strategische, strukturelle und kulturelle Anforderungen an das Fuhrparkcontrolling durch die Kombination von Prozesskostenrechnung, Target Costing, Life Cycle Costing und den Ideen des Carbon Accountings instrumentell zu berücksichtigen. Je nach Bedeutung der Nachhaltigkeit für den Unternehmenserfolg können die damit verbundenen Auszahlungen noch differenzierter aufgenommen werden. So ist es denkbar, externe Auszahlungen der Emissionen von NO(ind x), Nichtmethan-Kohlenwasserstoffen, Partikeln, Lärm und Unfällen in die Rechnung zu integrieren. Damit wird je Fahrzeug der Beitrag zur Erreichung von Emissionszielen transparent gemacht und ist durch eine zielgerichtete Integration in den Controllingprozess des Unternehmens plan- und steuerbar. Da von einer zukünftig zunehmenden Komplexität des wirtschaftlichen Handelns auszugehen ist, wird sich der praktische Bedarf an dynamischen, marktorientierten Instrumenten im Controlling generell und speziell im Fuhrparkcontrolling weiter erhöhen.
The general method of topological reduction for the network problems is presented on example of gas transport networks. The method is based on a contraction of series, parallel and tree-like subgraphs for the element equations of quadratic, power law and general monotone dependencies. The method allows to reduce significantly the complexity of the graph and to accelerate the solution procedure for stationary network problems. The method has been tested on a large set of realistic network scenarios. Possible extensions of the method have been described, including triangulated element equations, continuation of the equations at infinity, providing uniqueness of solution, a choice of Newtonian stabilizer for nearly degenerated systems. The method is applicable for various sectors in the field of energetics, including gas networks, water networks, electric networks, as well as for coupling of different sectors.
Thermo-chemical conversion of cucumber peel waste for biobased energy and chemical production
(2022)
Defect evolution in thermal barrier coating systems under multi-axial thermomechanical loading
(2005)
Advanced thermal gradient mechanical fatigue testing of CMSX-4 with an oxidation protection coating
(2008)
Die Norm EN ISO 13849-1 stellt explizite Anforderungen an sicherheitsgerichtete SPS-Software. Wie lassen sich diese im Maschinenbau praxisgerecht umsetzen? Mit dieser Frage hat sich ein von der DGUV gefördertes und an der Hochschule Bonn-Rhein-Sieg durchgeführtes Projekt beschäftigt. Der Beitrag skizziert die Vorgehensweise zur möglichen Umsetzung der normativen Anforderungen. Diese Vorgehensweise ist unabhängig von der verwendeten Sicherheits-SPS und daher allgemein anwendbar. Es wird auf insgesamt 10 dokumentierte Beispiele und einen ausführlichen Forschungsbericht verwiesen, die downloadbar sind.
DeltaV Neural ist eine Softwareapplikation innerhalb des Prozessautomatisierungssystems DeltaV, die es dem Anwender ermöglicht, auf einfache Art und Weise Softsensoren zu konfigurieren. Softsensoren besitzen die Aufgabe, schwer messbare oder nur in großen Zeitabständen ermittelbare Prozessausgangsgrößen mittels einfacher und schneller messbarer Ersatzmessgrößen zu schätzen bzw. vorherzusagen.
Dem RTPM (Real-Time Performance Monitoring) wurde in den letzten Jahren in der Automatisierungstechnik immer mehr Beachtung geschenkt. Drei ausgewählte Aspekte des RPTM werden behandelt: Alarmanalyse, Reglerperformance und Stelleinrichtungen. Die Reduktion von Alarmmeldungen mit Hilfe einer Alarmanalyse wird mit Hilfe von Beispielen aus der Industrie veranschaulicht. Ziel einer Analyse ist die Identifikation von (1) falschen Alarmgrenzen, (2) Reglern, bei denen Störungen im Handbetrieb ausgeregelt werden, (3) Reglern, bei denen Betriebspunktänderungen im Handbetrieb ausgeführt werden, (4) Reglern mit Stellgrößen bei 0% oder 100%, (5) falschen Reglerparametern sowie (6) Fehlern in der Messtechnik, Antrieben, Klappen oder Ventilen. Die industrielle Anwendung der Überwachung der Reglerperformance wird anhand des in das Prozessautomatisierungssystem DeltaV von Emerson Process Management integrierten Softwareproduktes DeltaV Inspect erläutert. DeltaV überwacht und bewertet (1) die Bereichsüberschreitungen der Regelgrößen und der Stellsignale, (2) die Betriebsarten (Hand oder Automatik) und (3) die Regelungsgüte. Die Regelungsgüte wird bei einem konstanten Sollwert und stochastischen Störungen aus dem Unterschied zwischen der tatsächlichen und der theoretisch erreichbaren Varianz des Regelfehlers berechnet. Anstelle einer Korrelations- bzw. Regressionsanalyse wird die theoretisch erreichbare minimale Varianz aus der aktuellen Varianz des Regelfehlers und der Varianz der Abweichung der aufeinander folgenden Regelfehlerabtastwerte berechnet.
Der I. Senat des BFH hat dem Großen Senat mit Beschluss vom 7.4.2010 die Frage vorgelegt, ob der subjektive Fehlerbegriff zwar in Bezug auf nach Bilanzaufstellung neu bekanntgewordene Tatsachen beizubehalten, in Bezug auf bessere Rechtserkenntnisse nach Bilanzaufstellung aber aufzugeben ist. Der Große Senat hat insoweit eine schwierige Entscheidung zu treffen, da sich materielles Bilanzsteuerrecht, Verfahrensrecht und Handelsrecht bei dieser Frage überlagern. hat schon 1991 von einem heillosen und verworrenen Labyrinth gesprochen, in dem es schwer falle, die Prinzipien zu erkennen. Zusätzlich hat der Große Senat unter dem Gesichtspunkt der Kontinuität der Rechtsprechung und der Rechtssicherheit abzuwägen, ob es gerechtfertigt ist, eine seit 50 Jahren bestehende Rechtsprechung aufzugeben. Die Entscheidung des Großen Senats hat sich durch den Präsidentenwechsel beim BFH verzögert, ist aber nunmehr in nächster Zeit zu erwarten.
I. Einleitung II. Soziale Sicherung als Bestandteil entwicklungspolitischer Agenden – Eine internationale Perspektive III. Internationale Politikdiffusion und nationaler Politikwandel – Konzeptionelle Grundlagen IV. Die Rolle internationaler Politikdiffusion für den Wandel sozialer Sicherungssysteme – Empirische Evidenz V. Schlussfolgerungen