Refine
Document Type
- Doctoral Thesis (30) (remove)
Has full text
- no (30) (remove)
Is part of the Bibliography
- yes (30)
Institute
- ESB Business School (11)
- Informatik (8)
- Life Sciences (4)
- Technik (4)
- Texoversum (2)
Publisher
- Fraunhofer Verlag (2)
- Gabler (2)
- Metropolis-Verlag (2)
- Springer (2)
- Lang (1)
- Logos (1)
- Technische Universität Bergakademie Freiberg (1)
- Tectum Verlag (1)
- Tübinger Vereinigung für Volkskunde (1)
- Universidad Carlos III de Madrid (1)
- University of the West of Scotland (1)
- Universität Leipzig (1)
- Universität Stuttgart (1)
- Universität Tübingen (1)
- Universität Ulm (1)
- VDI Verlag (1)
- Verlag Dr. Kovač (1)
In dieser Arbeit wird ein Ansatz zur Unterstützung von Werkern, Meistern und Instandhaltern vorgestellt, der es ermöglicht, aus der auftretenden Situation heraus (ad hoc), auf aktuelle notwendige Informationen und die Zusammenhänge in einer variantenreichen Serienfertigung zuzugreifen. Schwerpunkt bildet das unternehmensneutrale Gesamtkonzept des fertigungsnahen Kontextinformationssystems, das aus dem Produktionsumgebungsmodell und der Systemarchitektur besteht. Das Produktionsumgebungsmodell beschreibt und vernetzt enthaltene Informationen und Zusammenhänge einer variantenreichen Serienfertigung. Hauptordnungskriterien sind hier die Zugehörigkeit zu einer bestimmten Gruppe (Typ), die Identität eines Gegenstands, dessen Ort und Betriebszustand über die Zeit. Die Systemarchitektur ist modular aufgebaut. Die Module werden in Erfassungsmodule, Kontextverwaltungsmodule, Funktionsmodule zur automatischen und manuellen Informationsfilterung sowie Präsentationsmodule untergliedert und kommunizieren über eine einheitliche Schnittstelle.
Data collected from internet applications are mainly stored in the form of transactions. All transactions of one user form a sequence, which shows the user´s behaviour on the site. Nowadays, it is important to be able to classify the behaviour in real time for various reasons: e.g. to increase conversion rate of customers while they are in the store or to prevent fraudulent transactions before they are placed. However, this is difficult due to the complex structure of the data sequences (i.e. a mix of categorical and continuous data types, constant data updates) and the large amounts of data that are stored. Therefore, this thesis studies the classification of complex data sequences. It surveys the fields of time series analysis (temporal data mining), sequence data mining or standard classification algorithms. It turns out that these algorithms are either difficult to be applied on data sequences or do not deliver a classification: Time series need a predefined model and are not able to handle complex data types; sequence classification algorithms such as the apriori algorithm family are not able to utilize the time aspect of the data. The strengths and weaknesses of the candidate algorithms are identified and used to build a new approach to solve the problem of classification of complex data sequences. The problem is thereby solved by a two-step process. First, feature construction is used to create and discover suitable features in a training phase. Then, the blueprints of the discovered features are used in a formula during the classification phase to perform the real time classification. The features are constructed by combining and aggregating the original data over the span of the sequence including the elapsed time by using a calculated time axis. Additionally, a combination of features and feature selection are used to simplify complex data types. This allows catching behavioural patterns that occur in the course of time. This new proposed approach combines techniques from several research fields. Part of the algorithm originates from the field of feature construction and is used to reveal behaviour over time and express this behaviour in the form of features. A combination of the features is used to highlight relations between them. The blueprints of these features can then be used to achieve classification in real time on an incoming data stream. An automated framework is presented that allows the features to adapt iteratively to a change in underlying patterns in the data stream. This core feature of the presented work is achieved by separating the feature application step from the computational costly feature construction step and by iteratively restarting the feature construction step on the new incoming data. The algorithm and the corresponding models are described in detail as well as applied to three case studies (customer churn prediction, bot detection in computer games, credit card fraud detection). The case studies show that the proposed algorithm is able to find distinctive information in data sequences and use it effectively for classification tasks. The promising results indicate that the suggested approach can be applied to a wide range of other application areas that incorporate data sequences.
Este trabajo se enmarca dentro del vasto contexto de Ciudades Inteligentes, y se centra en el área de la conducción inteligente de vehículos, tanto en zonas urbanas como interurbanas, mediante la recogida de datos en tiempo real, medidos con sensores, por parte de los propios conductores, así como de datos capturados mediante simulación.
El objetivo de este trabajo es doble. Por un lado, el estudio y aplicación de las diferentes técnicas y métodos de detección de valores atípicos en bases de datos multivariantes, además de una comparativa entre ellos mediante las pruebas llevadas a cabo con datos de tráfico real. Y por otro lado, establecer una relación entre las situaciones anómalas de tráfico, como puedan ser atascos o accidentes, con los valores atípicos multivariantes encontrados.
La detección de valores atípicos representa una de las tareas más importantes a la hora de realizar cualquier análisis de datos, sea cual sea el dominio o área de estudio, ya que entre sus funciones primordiales se encuentra el descubrir información útil, que resulta de gran valor, y que por lo general queda oculta por la alta dimensión de los datos.
Con el uso de mecanismos de detección de valores atípicos junto con métodos de clasificación supervisada, se va a poder llevar a cabo el reconocimiento de elementos de la infraestructura vial urbana como pueden ser rotondas, pasos de cebra, cruces o semáforos.
Within the scope of the present cumulative doctoral thesis six scientific papers were published which illustrates that modern reaction model-free (=isoconversional) kinetic analysis (ICKA) methods represents a universal and effective tool for the controlled processing of thermosetting materials. In order to demonstrate the universal applicability of ICKA methods, the thermal cure of different thermosetting materials having a very broad range of chemical composition (melamine-formaldehyde resins, epoxy resins, polyester-epoxy resins, and acrylate/epoxy resins) were analyzed and mathematically modelled. Some of the materials were based on renewable resources (an epoxy resin was made from hempseed oil; linseed oil was modified into an acrylate/epoxy resin). With the aid of ICKA methods not only single-step but also complex multi-step reactions were modelled precisely. The analyzed thermosetting materials were combined with wood, wood-based products, paper, and plant fibers which are processed to various final products. Some of the thermosetting materials were applied as coating (in form of impregnated décor papers or powder and wet coatings respectively) on wood substrates and the epoxy resin from hempseed oil was mixed with plant fibers and processed into bio-based composites for lightweight applications. From the final products mechanical, thermal, and surface properties were determined. The activation energy as function of cure conversion derived from ICKA methods was utilized to predict accurately the thermal curing over the course of time for arbitrary cure conditions. Furthermore the cure models were used to establish correlations between the cross-linking during processing into products and the properties of the final products. Therewith it was possible to derive the process time and temperature that guarantee optimal cross-linking as well as optimal product properties
Increasing concerns regarding the world´s natural resources and sustainability continue to be a major issue for global development. As a result several political initiatives and strategies for green or resource-efficient growth both on national and international levels have been proposed. A core element of these initiatives is the promotion of an increase of resource or material productivity. This dissertation examines material productivity developments in the OECD and BRICS countries between 1980 and 2008. By applying the concept of convergence stemming from economic growth theory to material productivity the analysis provides insights into both aspects: material productivity developments in general as well potentials for accelerated improvements in material productivity which consequently may allow a reduction of material use globally. The results of the convergence analysis underline the importance of policy-making with regard to technology and innovation policy enabling the production of resource-efficient products and services as well as technology transfer and diffusion.
Die Globalisierung hat die Emergenz neuer Formen gesellschaftlicher Steuerung vorangetrieben. Es entstehen sowohl neue Formen von globalen Regeln als auch neue Akteurskonstellationen zur Setzung und Durchsetzung dieser Regeln. Politische, wirtschaftliche und gesellschaftliche Akteure – internationale Organisationen, transnationale Unternehmen und Nichtregierungsorganisationen – gewinnen an Einfluss.
In diesem Kontext werden zunehmend Multistakeholder-Dialoge initiiert, in denen sich relevante Akteure aus Politik, Wirtschaft und Gesellschaft organisieren, um Lösungsansätze für globale Probleme u.a. durch die Erarbeitung von Richtlinien und Standards zu entwickeln. Diese Formen gesellschaftlicher Regulierung zeichnen sich dadurch aus, dass neue Organisationsstrukturen und Verfahrensregeln implementiert, neue Rollen gelernt und neue Akteure integriert werden müssen.
In diesem Buch werden die Governancestrukturen von Multistakeholder-Dialogen zur Führung, Steuerung und Kontrolle solcher Kooperationsprojekte analysiert. Ein aktuelles Beispiel für ein transnationales und transkulturelles Kooperationsprojekt dieser Art ist der von der ‚International Organization for Standardization‘ (ISO) initiierte Prozess zur Erarbeitung einer Norm zur gesellschaftlichen Verantwortung von Organisationen (‚Social Responsibility‘). Die im November 2010 veröffentlichte ISO 26000-Norm richtet sich an alle Arten von Organisationen im öffentlichen und gemeinnützigen Sektor und in der Privatwirtschaft – weltweit und unabhängig von ihrer Größe. Dieser Multistakeholder-Dialog wird theoretisch rekonstruiert und empirisch analysiert. Die theoretische Perspektive ist bestimmt durch eine kulturalistisch informierte Governanceökonomik und -ethik, die auf der Basis eines verallgemeinerten Stakeholderbegriffs operiert. Die empirische Analyse konzentriert sich auf die Mikrogovernance zur Steuerung deliberativer Multistakeholder-Dialoge.
Die interdisziplinär angelegte Studie, ihr argumentativer Gang und ihre Ergebnisse sind sowohl für die strategische Führung von Unternehmen als auch für die Gestaltung politischer Prozesse von großem Interesse. Sie leistet einen Beitrag zur aktuellen gesellschaftlichen Diskussion um die Verantwortlichkeit und Nachhaltigkeit von Unternehmen in der globalisierten Gesellschaft.
Im Fokus der Arbeit steht die Unterstützung der Stentgraftauswahl bei endovaskulärer Versorgung eines infrarenalen Aortenaneurysmas. Im Rahmen der Arbeit wurde eine Methode zur Auswertung von Ergebnissen einer Finite Elemente-Analyse zum Stentgraftverhalten konzipiert, implementiert und im Rahmen einer deutschlandweiten Benutzerstudie mit 16 Chirurgen diskutiert. Die entwickelte Mensch-Maschine-Schnittstelle ermöglicht dem Gefäßmediziner eine interaktive Analyse berechneter Fixierungskräfte und Kontaktzustände mehrerer Stentgrafts im Kontext mit dem zu behandelnden Aortenabschnitt. Die entwickelte Methode ermöglicht eine tiefergehende Auseinandersetzung der Mediziner mit numerischen Simulationen und Stentgraftbewertungsgrößen. Hierdurch konnte im Rahmen der Benutzerstudie das Einsatzpotenzial numerischer Simulationen zur Unterstützung der Stentgraftauswahl ermittelt und eine Anforderungsspezifikation an ein System zur simulationsbasierten Stentgraftplanung definiert werden. Im Ergebnis wurde als wesentliches Einsatzpotenzial die Festlegung eines Mindestmaßes an Überdimensionierung, die Optimierung der Schenkellänge von bifurkativen Stentgrafts sowie der Vergleich unterschiedlicher Stentgraftdesigns ermittelt. Zu den wesentlichen Funktionen eines Systems zur simulationsbasierten Stentgraftauswahl gehören eine Übersichtskarte zu farbkodiertem Migrationsrisiko pro Stentgraft und Landungszone, die Visualisierung des Abdichtungszustandes der Stentkomponenten sowie die Darstellung von Stentgraft- und Gefäßdeformationen im 3D-Modell.
Um wirtschaftlichen Wohlstand dauerhaft zu sichern, wurde bereits vor einigen Jahren die "Bildungsrepublik Deutschland" ausgerufen. Doch eine Erhöhung der öffentlichen Ausgaben für Bildung ist ohne passendes Konzept keine Lösung. Ein zentraler Faktor darf nicht in Vergessenheit geraten: Die Qualität eines Bildungswesens steht und fällt mit der Qualität der Lehrer. Cathrin Sikor analysiert die bestehende Struktur von Angebot und Nachfrage im Lehrerarbeitsmarkt und beschreibt, welche Auswirkungen dies auf Lehrerqualität hat. Während sich die Rahmenbedingungen für Berufswahl und Karriere in anderen Bereichen deutlich verändert haben, gleicht das Lehramt im Wesentlichen seiner im Zuge der Industrialisierung entstandenen Form. Ist es an der Zeit für einen neuen Lehrerberuf?