Refine
Document Type
- Journal article (1244)
- Conference proceeding (1039)
- Book chapter (381)
- Book (223)
- Doctoral Thesis (54)
- Working Paper (38)
- Anthology (32)
- Report (25)
- Patent / Standard / Guidelines (24)
- Issue of a journal (19)
Is part of the Bibliography
- yes (3088)
Institute
- ESB Business School (1107)
- Informatik (875)
- Technik (509)
- Life Sciences (343)
- Texoversum (220)
- Zentrale Einrichtungen (16)
Publisher
- Springer (473)
- IEEE (252)
- Elsevier (243)
- Hochschule Reutlingen (191)
- MDPI (99)
- Wiley (72)
- Gesellschaft für Informatik e.V (69)
- Universität Tübingen (65)
- De Gruyter (60)
- VDE Verlag (48)
Im Rahmen der wissenschaftlichen Vertiefung soll auf Basis der vorhandenen Ansätze das IT-Risikomanagement evaluiert werden. Hierbei soll die Frage, inwiefern das IT-Risikomanagement dem Unternehmen eine Hilfestellung bieten kann, geklärt und anschließend anhand von zwei Fallbeispielen dargestellt werden.
Database Management Systems (DBMS) need to handle large updatable datasets in on-line transaction processing (OLTP) workloads. Most modern DBMS provide snapshots of data in multi-version concurrency control (MVCC) transaction management scheme. Each transaction operates on a snapshot of the database, which is calculated from a set of tuple versions. High parallelism and resource-efficient append-only data placement on secondary storage is enabled. One major issue in indexing tuple versions on modern hardware technologies is the high write amplification for tree-indexes.
Partitioned B-Trees (PBT) [5] is based on the structure of the ubiquitous B+ Tree [8]. They achieve a near optimal write amplification and beneficial sequential writes on secondary storage. Yet they have not been implemented in a MVCC enabled DBMS to date.
In this paper we present the implementation of PBTs in PostgreSQL extended with SIAS. Compared to PostgreSQL’s B+–Trees PBTs have 50% better transaction throughput under TPC-C and a 30% improvement to standard PostgreSQL with Heap-Only Tuples.
The development and preservation of children’s innate creativity as they enter their professional career has grown in importance due to fundamental changes in today’s economy and society. It is therefore key to understand how teaching strategies can contribute to educational change in the early stages of schooling. Design teaching encompasses a variety of skills that can help schools shift their focus to foster children’s natural ability to “ask why” in their search for learning how to think and create. This article presents the results of an interdisciplinary workshop involving university students aiming to develop new educational approaches to foster children’s creativity through design to be implemented in the elementary school curriculum of the German federal state Baden-Württemberg. To support the workshop participants in providing a holistic concept within a compressed time period, a sustainability framework was included to further articulate their brief. The teams who were composed of chemists, computer scientists, designers, and engineers, followed the Design Thinking process to develop their proposals. A kick-off meeting presenting results of an international qualitative survey with elementary school teachers, as well as expert input during the workshop addressing the relevant topics, provided teams with key information to define their design directions. Concepts designed by each team exhibited a comprehensive solution resulting in both the abstract “education idea” and physical embodiments of the tools. Their outputs included products, interior concepts to be implemented in classrooms, exercises as well as games to support the newly developed educational models. The benefits and limitations of these concepts along with key observations of participants’ interdisciplinary collaboration are presented and discussed herein. Future work will investigate the Design knowledge of German elementary school teachers more in depth and will involve testing the new concepts in German elementary school environments.
In dem vorliegenden Zwischenbericht sind die Arbeiten und Ergebnisse zusammengefasst, die im Rahmen des Projektes GalvanoFlex_BW während der ersten acht Projektmonate der insgesamt 2 1/2 jährigen Laufzeit durchgeführt und erzielt wurden. Ziel des Projektes ist die Untersuchung und Verbesserung der Energieeffizienz in Industrieunternehmen mit dem speziellen Fokus auf der Einführung stromoptimiert betriebener KWK-Anlagen. Entsprechend des Arbeits- und Zeitplans sind die Literaturrecherche, die Festlegung von Prozesstypen, die Datenerfassung, die Strategieentwickung zur stromoptimierten KWK, die Optimierung der Schnittstelle zwischen KWK und Gleichrichtern, der Aufbau der Branchenplattform und die sozial-wissenschaftliche Begleitforschung beschrieben. Der aktuelle Projektstand deckt sich dabei im Wesentlichen mit den Vorgaben aus dem vorgelegten Zeitplan.
Im Rahmen dieses Aufsatzes soll anhand eines Praxisbeispiels aufgezeigt werden, wie sich vor dem Hintergrund des aktuellen KWK-Gesetzes die Entscheidung für eine KWK-Anlage mit einer größeren Leistung bereits heute wirtschaftlich auswirkkt. Darüber hinaus wird eine Methode zur Festlegung des optimalen Pufferspeichervolumens vorgestellt.
Das Thema Energieflexibilität und Anpassung der eigenerzeugten Energie an die Energieerzeugung aus regenerativen Energien gewinnt an Bedeutung. Regulierbare Eigenerzeugungsanlagen können zur Stabilisierung des Netzes einen enormen Beitrag leisten. Dieser Aufsatz zeigt, welchen Effekt der Einsatz von BHWK auf die Galvanikbranche hat und wie nicht nur die eigenen Energiekosten reduziert, sondern auch die Möglichkeit geschaffen wird, auf Signale der Energiewirtschaft zu reagieren, ohne die Energieversorgung zu unterbrechen.
Welche Trends beeinflussen die Customer-Journey im B-to-B und wie wird sie in naher Zukunft aussehen? Dieser Beitrag wirft einen Blick auf zukünftige Trends, welche die Customer-Journey im B-to-B erheblich beeinflussen werden. Exemplarisch wird die Ausgestaltung und Optimierung der zukünftigen Customer-Journey mittels Lead-Profiling am Beispiel der Künstlichen Intelligenz aufgezeigt, bei der neue Technologien Daten nutzbringend verwenden. Darüber hinaus steht die Customer-Journey-Transformation im Mittelpunkt. Schließlich ist es doch gerade die komplexe Transformation der Customer-Journey, die aufgrund ihrer Komplexität häufig von den Unternehmen vernachlässigt wird.
Am Beispiel von zwei Unternehmen mit stark unterschiedlichen Strom- und Wärmebedarfswerten zeigt sich, dass aufgrund einer Amortisationszeit im günstigsten Fall von etwa 2 Jahren der Einsatz von Blockheizkraftwerken in jedem Fall wirtschaftlich lohnenswert ist. Dabei wird deutlich, dass die Auslegung des Blockheizkraftwerkes stark von den Strom- und Wärmebedarfswerten abhängt und dass der Pufferspeicher keinesfalls zu klein ausgelegt werden sollte. Das gute wirtschaftliche Ergebnis gilt bereits für den standardmäßig eingesetzten wärmegeführten Betrieb des Blockheizkraftwerkes, wobei eine intelligente stromoptimierte Steuerung mit Lastspitzenmanagement die Wirtschaftlichkeit weiter verbessert. Grundsätzlich ist darauf zu achten, dass Blockheizkraftwerke auf einen längerfristigen Betrieb ausgelegt sind. Bei jährlichen Betriebszeiten von 4.000 Stunden bis 8.000 Stunden ergibt sich ein Betrieb des Blockheizkraftwerkes über 6 bis 12 Jahre.
Social Selling gewinnt im B-to-B-Vertrieb immer mehr an Bedeutung. Um auf dem globalen Wettbewerbsfeld mithalten zu können, genügt es nicht mehr, seine Kunden über die traditionellen Verkaufskanäle zu identifizieren und zu erreichen. Für diesen Zweck bietet LinkedIn das Vertriebstool Sales Navigator an. Doch wo ist dieses Tool im Social Selling einzuordnen? Können dadurch Mehrwerte im Vertriebsprozess generiert werden? Mithilfe von Experteninterviews werden diese Fragen im Folgenden erörtert.
Der Sondermaschinenbau ist durch eine hohe Variantenvielfalt und komplexe Materialflüsse charakterisiert (Reinhart, Bredow & Pohl, 2009, S. 131). Die vorliegende Publikation stellt die im Zuge eines Praxisprojekts angewendeten Vorgehensweisen zur Materialflussoptimierung im Sondermaschinenbau vor. Dabei werden Erfahrungswerte und Hindernisse herausgearbeitet.
Michael Wörz erfüllte 26 Jahre lang das Amt und die Aufgabe des Referenten für Technik- und Wirtschaftsethik an den Hochschulen für Angewandte Wissenschaften des Landes Baden-Württemberg. Ihm war die Interdisziplinarität, die diese Aufgaben erfordern würde, in sein berufliches Stammbuch geschrieben. Ein Ingenieur, der Philosophie studierte und dort promovierte, der zudem sein wissenschaftliches Schaffen aus der Perspektive der Theorien eines Soziologen vorantrieb, hatte gelernt, interdisziplinär zu denken und zu arbeiten. Ihm fiel die Aufgabe zu, das zum Überleben künftiger Generationen fachübergreifende, notwendige Wissen in die akademische Ausbildung der Hochschulen für Angewandte Wissenschaften zu tragen, und das hat Michael Wörz über die Jahre seiner Amtszeit wahrlich getan. Neben diesen Aufgaben eines engagierten und innovativen Hochschullehrers war er auch in der Politik ein streitbarer Vertreter der Ethik und der Nachhaltigen Entwicklung, der geholfen hat, den Lehrenden an den Hochschulen den Weg zu bereiten.
The flexible and easy-to-use integration of production equipment and IT systems on the shop floor becomes more and more a success factor for manufacturing to adapt rapidly to changing situations. The approach of the Manufacturing Integration Assistant (MIALinx) is to simplify this challenge. The integration steps range from integrating sensors over collecting and rule-based processing of sensor information to the execution of required actions. This paper presents the implementation of MIALinx to retrofit legacy machines for Industry 4.0 in a manufacturing environment and focus on the concept and implementation of the easy-to-use user interface as a key element.
Design thinking is inherently and invariably oriented towards the future in that all design is for products, services or events that will exist in the future, and be used by people in the future. This creates an overlap between the domains of design thinking and strategic foresight. A small but significant literature has grown up in the strategic foresight field as to how design thinking may be used to improve its processes. This paper considers the other side of the relationship: how methods from the strategic foresight field may advance design thinking, improving insight into the needs and preferences of users of tomorrow, including how contextual change may suddenly and fundamentally reshape these. A side-by-side comparison of representative models from each field is presented, and it is shown how these may be assembled together to create foresight-informed design-based innovation.
In smart factories, maintenance is still an important aspect to safeguard the performance of their production. Especially in case of failures of machine components diagnosis is a time-consuming task. This paper presents an approach for a cyber-physical failure management system, which uses information from machines such as programmable logic controller or sensor data and IT systems to support the diagnosis and repairing process. Key element is a model combining the different information sources to detect deviations and to determine a probable failed component. Furthermore, the approach is prototypically implemented for leakage detection in compressed air networks.
The complexity of supply chains increases, especially due to the geographical spread of supplier and customer networks. In the connected and automated supply chains of the industry 4.0, even more nodes are incorporated in supply chains. This paper discusses the possible improvement of process quality in the industry 4.0 through the different blockchain and distributed ledger technologies. We derived hypotheses from a literature review and asked German blockchain experts from the industry to validate and discuss the hypotheses. We find that the different blockchain technologies and consensus algorithms have different strength with regard to quality improvement. One central finding is that IOTA, developed especially for the IoT and deemed the ’next evolutionary step’ is scalable and hence may increase the process efficiency, but at the same time is more vulnerable than other blockchain implementations, which again may reduce the overall process quality.
With the capability of employing virtually unlimited compute resources, the cloud evolved into an attractive execution environment for applications from the High Performance Computing (HPC) domain. By means of elastic scaling, compute resources can be provisioned and decommissioned at runtime. This gives rise to a new concept in HPC: Elasticity of parallel computations. However, it is still an open research question to which extent HPC applications can benefit from elastic scaling and how to leverage elasticity of parallel computations. In this paper, we discuss how to address these challenges for HPC applications with dynamic task parallelism and present TASKWORK, a cloud-aware runtime system based on our findings. TASKWORK enables the implementation of elastic HPC applications by means of higher level development frameworks and solves corresponding coordination problems based on Apache ZooKeeper. For evaluation purposes, we discuss a development framework for parallel branch-and-bound based on TASKWORK, show how to implement an elastic HPC application, and report on measurements with respect to parallel efficiency and elastic scaling.
Due to frequently changing requirements, the internal structure of cloud services is highly dynamic. To ensure flexibility, adaptability, and maintainability for dynamically evolving services, modular software development has become the dominating paradigm. By following this approach, services can be rapidly constructed by composing existing, newly developed and publicly available third-party modules. However, newly added modules might be unstable, resource-intensive, or untrustworthy. Thus, satisfying non-functional requirements such as reliability, efficiency, and security while ensuring rapid release cycles is a challenging task. In this paper, we discuss how to tackle these issues by employing container virtualization to isolate modules from each other according to a specification of isolation constraints. We satisfy non-functional requirements for cloud services by automatically transforming the modules comprised into a container-based system. To deal with the increased overhead that is caused by isolating modules from each other, we calculate the minimum set of containers required to satisfy the isolation constraints specified. Moreover, we present and report on a prototypical transformation pipeline that automatically transforms cloud services developed based on the Java Platform Module System into container-based systems.
Mittlerweile ist der Einsatz von technischen Hilfsmitteln zu Analysezwecken im Sport fester Bestandteil im Trainingsalltag von Trainern und Athleten. In nahezu jeder Sportart werden Videoaufzeichnungen genutzt, um die Bewegungsausführung zu dokumentieren und zu analysieren. Allerdings reichen Aufnahmen von einem statischen Standort oftmals nicht mehr aus. An dieser Stelle kann Virtual Reality (VR) eine Lösung dieses Problems bieten. Durch VR kann der aufgezeichneten Szene eine weitere Ebene hinzugefügt und die Bewegungsabläufe neu und detaillierter bewertet werden. Um Bewegungen in einer virtuellen Umgebung abzubilden, müssen diese mittels Motion Capturing (MoCap) aufgezeichnet werden. Ziel dieser Arbeit ist es, herauszufinden, ob das MoCap System Perception Neuron in der Lage ist, Bewegungen in hoher Geschwindigkeit zu erfassen.
In den letzten Jahren beschäftigten sich Forscher und Automobilhersteller mit den Voraussetzungen für die Einführung von autonomem Fahren. Für Innovationen und Geschäftsmodelle im Bereich der intelligenten Mobilität, aber auch innerhalb der digitalen Wertschöpfungskette, spielen generell Zuverlässigkeit und Qualität der digitalen Datenübertragung eine entscheidende Rolle. Bevor das autonome Fahren vollständig eingeführt wird, muss man feststellen, welche Anforderungen an die digitale Infrastruktur beachtet werden müssen, gleichzeitig muss die Bedrohungslandschaft für autonomes Fahren analysiert werden.
Die folgende Arbeit beschäftigt sich damit, die Anforderungen und Gefahren zu analysieren und allgemeine Handlungsempfehlungen vorzuschlagen.
Ein stark erforschtes Gebiet der Computer Vision ist die Detektion von markanten Punkten des Gesichtszuges (englisch: facial feature detection), wie der Mundwinkel oder des Kinns. Daher lassen sich eine Vielzahl von veröffentlichten Verfahren finden, die sich jedoch teils deutlich hinsichtlich der Detektionsgenauigkeit, Robustheit und Geschwindigkeit unterscheiden. So sind viele Verfahren nur bedingt echtzeitfähig oder liefern nur mit hochaufgelösten Bildquellen ein zufriedenstellendes Ergebnis. In den letzten Jahren wurden daher Verfahren entwickelt, die versuchen, diese Problematiken zu lösen. In dieser Arbeit erfolgt eine Betrachtung dreier dieser State-of-the-Art Verfahren: Constrained Local Neural Fields (CLNF), Discriminative Response Map Fitting (DRMF) und Structured Output SVM (SO SVM), sowie deren Implementierungen. Dazu erfolgt ein empirischer Vergleich hinsichtlich der Detektionsgenauigkeit.