Refine
Year of publication
Document Type
- Doctoral Thesis (30) (remove)
Has full text
- no (30) (remove)
Is part of the Bibliography
- yes (30) (remove)
Institute
- ESB Business School (11)
- Informatik (8)
- Life Sciences (4)
- Technik (4)
- Texoversum (2)
Publisher
- Fraunhofer Verlag (2)
- Gabler (2)
- Metropolis-Verlag (2)
- Lang (1)
- Logos (1)
- Springer (1)
- Springer Gabler (1)
- Technische Universität Bergakademie Freiberg (1)
- Tectum Verlag (1)
- Tübinger Vereinigung für Volkskunde (1)
Anhand von drei empirischen Studien zeigt Christina Kühnl, wie Unternehmen ihren Innovationsprozess optimieren bzw. wie sie die Adoption einer Innovation in ihrer Organisation sicherstellen können. Dabei vergleicht sie die Erfolgsfaktoren von Produkt- und Dienstleistungsinnovationen unter Berücksichtigung nichtlinearer Effekte, identifiziert unternehmensinterne Erfolgsfaktoren und verdeutlicht, welchen Einfluss das soziale Umfeld auf die individuelle Adoptionsentscheidung ausübt.
Vertrauen ist eine wesentliche Ressource für die Zusammenarbeit zwischen Anbietern und Kunden. In der postmodernen Gesellschaft sind beide Seiten auf Kooperation angewiesen. Ohne Vertrauen führen gemeinsame Beziehungen jedoch selten zu den erwünschten Resultaten. Alexander Rossmann zeigt auf, wie sich das Vertrauen von Kunden stimulieren lässt und welche Verhaltensweisen zu vermeiden sind. Dabei werden personale und organisationale Vertrauensstrategien konzeptionell entwickelt und am Beispiel der IT-Branche empirisch untersucht. Eine Analyse der Auswirkungen von Vertrauen bietet differenzierte Einblicke in die Chancen und Risiken von Vertrauen aus Anbieter- und Kundenperspektive.
Die konzeptionelle Integration von Ethik in die Personalwirtschaftslehre stellt eine bislang ungelöste Herausforderung dar. Daher verwundert es nicht, dass die Diskussion ethischer Fragestellungen in der Personalwirtschaftslehre weitgehend unsystematisch und theoretisch unterbestimmt erfolgt. Auf dieser Erkenntnis aufbauend entwickelt der Autor in seinem Buch das Forschungsprogramm der Personalethik. Dieses Forschungsprogramm geht gerade nicht von einer Integration von Ethik in die Personalwirtschaftslehre aus, sondern nähert sich den ethischen Problemen der Personalwirtschaftslehre aus einer unternehmensethischen Perspektive. Dadurch können bisherige Erkenntnisse zur Ethik in der Personalwirtschaftslehre innerhalb eines systematischen Bezugsrahmens (re-)interpretiert werden. Zudem bietet die Personalethik einen integrierten und theoretisch fundierten Bezugsrahmen für künftige Forschungen.
Die Globalisierung hat die Emergenz neuer Formen gesellschaftlicher Steuerung vorangetrieben. Es entstehen sowohl neue Formen von globalen Regeln als auch neue Akteurskonstellationen zur Setzung und Durchsetzung dieser Regeln. Politische, wirtschaftliche und gesellschaftliche Akteure – internationale Organisationen, transnationale Unternehmen und Nichtregierungsorganisationen – gewinnen an Einfluss.
In diesem Kontext werden zunehmend Multistakeholder-Dialoge initiiert, in denen sich relevante Akteure aus Politik, Wirtschaft und Gesellschaft organisieren, um Lösungsansätze für globale Probleme u.a. durch die Erarbeitung von Richtlinien und Standards zu entwickeln. Diese Formen gesellschaftlicher Regulierung zeichnen sich dadurch aus, dass neue Organisationsstrukturen und Verfahrensregeln implementiert, neue Rollen gelernt und neue Akteure integriert werden müssen.
In diesem Buch werden die Governancestrukturen von Multistakeholder-Dialogen zur Führung, Steuerung und Kontrolle solcher Kooperationsprojekte analysiert. Ein aktuelles Beispiel für ein transnationales und transkulturelles Kooperationsprojekt dieser Art ist der von der ‚International Organization for Standardization‘ (ISO) initiierte Prozess zur Erarbeitung einer Norm zur gesellschaftlichen Verantwortung von Organisationen (‚Social Responsibility‘). Die im November 2010 veröffentlichte ISO 26000-Norm richtet sich an alle Arten von Organisationen im öffentlichen und gemeinnützigen Sektor und in der Privatwirtschaft – weltweit und unabhängig von ihrer Größe. Dieser Multistakeholder-Dialog wird theoretisch rekonstruiert und empirisch analysiert. Die theoretische Perspektive ist bestimmt durch eine kulturalistisch informierte Governanceökonomik und -ethik, die auf der Basis eines verallgemeinerten Stakeholderbegriffs operiert. Die empirische Analyse konzentriert sich auf die Mikrogovernance zur Steuerung deliberativer Multistakeholder-Dialoge.
Die interdisziplinär angelegte Studie, ihr argumentativer Gang und ihre Ergebnisse sind sowohl für die strategische Führung von Unternehmen als auch für die Gestaltung politischer Prozesse von großem Interesse. Sie leistet einen Beitrag zur aktuellen gesellschaftlichen Diskussion um die Verantwortlichkeit und Nachhaltigkeit von Unternehmen in der globalisierten Gesellschaft.
Um wirtschaftlichen Wohlstand dauerhaft zu sichern, wurde bereits vor einigen Jahren die "Bildungsrepublik Deutschland" ausgerufen. Doch eine Erhöhung der öffentlichen Ausgaben für Bildung ist ohne passendes Konzept keine Lösung. Ein zentraler Faktor darf nicht in Vergessenheit geraten: Die Qualität eines Bildungswesens steht und fällt mit der Qualität der Lehrer. Cathrin Sikor analysiert die bestehende Struktur von Angebot und Nachfrage im Lehrerarbeitsmarkt und beschreibt, welche Auswirkungen dies auf Lehrerqualität hat. Während sich die Rahmenbedingungen für Berufswahl und Karriere in anderen Bereichen deutlich verändert haben, gleicht das Lehramt im Wesentlichen seiner im Zuge der Industrialisierung entstandenen Form. Ist es an der Zeit für einen neuen Lehrerberuf?
Compared to diesel or gasoline, using compressed natural gas as a fuel allows for significantly decreased carbon dioxide emissions. With the benefits of this technology fully exploited, substantial increases of engine efficiency can be expected in the near future. However, this will lead to exhaust gas temperatures well below the range required for the catalytic removal of residual methane, which is a strong greenhouse gas. By combination with a countercurrent heat exchanger, the temperature level of the catalyst can be raised significantly in order to achieve sufficient levels of methane conversion with minimal additional fuel penalty. This thesis provides fundamental theoretical background of these so-called heat-integrated exhaust purification systems. On this basis, prototype heat exchangers and appropriate operating strategies for highly dynamic operation in passenger cars are developed and evaluated.
Melamine Formaldehyde (MF) resins are thermosetting synthetic materials. The present work deals with the evaluation of the impregnation process, modification of resin structure and abrasion resistant applications. During the industrial process paper is impregnated by aqueous oligomers. The drying procedure and the corresponding residual volatile content is a crucial step during production, because of its influence on the later surface quality. Standard measurement routines do not differentiate between physical and chemical origin. Using TGA and DSC methods, the evaporation of water could be characterized as a clear separation of solvent evaporation and the release of water during condensation. The method could be used to upgrade current quality control as well as reaction condition tuning. According to the characteristics of duroplastic material, the formed network is very dense but also brittle. Challenging applications require highly modified resins in order to decrease the network density. Substances from bio renewable resources offer chemical possibilities for covalent crosslinking. Several substance classes have been tested for compatibility via hydroxyl groups or amines. The addition of polyols under appropriate reaction conditions showed chemical incorporation into the MF prepolymer. NMR methods have been used to characterize the resins. The synthesized polymers represent a suitable alternative for the usage in challenging furniture and flooring laminate applications. MF applications for scratch and wear resistant surfaces are commonly reinforced by multiple layer setups with inorganic particles. Fulfilling normative requirements a one sheet setup of decorative paper has been developed and tested. The incorporation of special corundum particles directly on the decorative printed paper combined with a new coating system resulted in surfaces of the requested quality for wear resistance surfaces.
Increasing concerns regarding the world´s natural resources and sustainability continue to be a major issue for global development. As a result several political initiatives and strategies for green or resource-efficient growth both on national and international levels have been proposed. A core element of these initiatives is the promotion of an increase of resource or material productivity. This dissertation examines material productivity developments in the OECD and BRICS countries between 1980 and 2008. By applying the concept of convergence stemming from economic growth theory to material productivity the analysis provides insights into both aspects: material productivity developments in general as well potentials for accelerated improvements in material productivity which consequently may allow a reduction of material use globally. The results of the convergence analysis underline the importance of policy-making with regard to technology and innovation policy enabling the production of resource-efficient products and services as well as technology transfer and diffusion.
This thesis studies concurrency control and composition of transactions in computing environments with long living transactions where local data autonomy of transactions is indispensable. This kind of computing architecture is referred to as a Disconnected System where reads are segregated -disconnected- from writes enabling local data autonomy. Disconnecting reads from writes is inspired by Bertrand Meyer's "Command Query Separation" pattern. This thesis provides a simple yet precise definition for a Disconnected System with a focus on transaction management. Concerning concurrency control, transaction management frameworks implement a'one concurrency control mechanism fits all needs strategy'. This strategy, however, does not consider specific characteristics of data access. The thesis shows the limitations of this strategy if transaction load increases, transactions are long lived, local data autonomy is required, and serializability is aimed at isolation level. For example, in optimistic mechanisms the number of aborts suddenly increases if load increases. In pessimistic mechanisms locking causes long blocking times and is prone to deadlocks. These findings are not new and a common solution used by database vendors is to reduce the isolation. This thesis proposes the usage of a novel approach. It suggests choosing the concurrency control mechanism according to the semantics of data access of a certain data item. As a result a transaction may execute under several concurrency control mechanisms. The idea is to introduce lanes similar to a motorway where each lane is dedicated to a certain class of vehicle with the same characteristics. Whereas disconnecting reads and writes sets the traffic's direction, the semantics of data access defines the lanes. This thesis introduces four concurrency control classes capturing the semantics of data access and each of them has an associated tailored concurrency control mechanism. Class O (the optimistic class) implements a first-committer-wins strategy, class R (the reconciliation class) implements a first-n-committers-win strategy, class P (the pessimistic class) implements a first-reader-wins strategy, and class E (the escrow class) implements a first-n-readers-win strategy. In contrast to solutions that adapt the concurrency control mechanism during runtime, the idea is to classify data during the design phase of the application and adapt the classification only in certain cases at runtime. The result of the thesis is a transaction management framework called O|R|P|E. A performance study based on the TPC-C benchmark shows that O|R|P|E has a better performance and a considerably higher commit rate than other solutions. Moreover, the thesis shows that in O|R|P|E aborts are due to application specific limitations, i.e., constraint violations and not due to serialization conflicts. This is a result of considering the semantics.
In dieser Arbeit wird ein Ansatz zur Unterstützung von Werkern, Meistern und Instandhaltern vorgestellt, der es ermöglicht, aus der auftretenden Situation heraus (ad hoc), auf aktuelle notwendige Informationen und die Zusammenhänge in einer variantenreichen Serienfertigung zuzugreifen. Schwerpunkt bildet das unternehmensneutrale Gesamtkonzept des fertigungsnahen Kontextinformationssystems, das aus dem Produktionsumgebungsmodell und der Systemarchitektur besteht. Das Produktionsumgebungsmodell beschreibt und vernetzt enthaltene Informationen und Zusammenhänge einer variantenreichen Serienfertigung. Hauptordnungskriterien sind hier die Zugehörigkeit zu einer bestimmten Gruppe (Typ), die Identität eines Gegenstands, dessen Ort und Betriebszustand über die Zeit. Die Systemarchitektur ist modular aufgebaut. Die Module werden in Erfassungsmodule, Kontextverwaltungsmodule, Funktionsmodule zur automatischen und manuellen Informationsfilterung sowie Präsentationsmodule untergliedert und kommunizieren über eine einheitliche Schnittstelle.
Beschleunigung und Reorientierung des technischen Fortschritts überfordern selbst große Unternehmen im Spannungsfeld zwischen Spezialisierung und interdisziplinärer Konvergenz. So wird die Kombination interner Forschung und Entwicklung mit externem Wissen, vor allem in Hochtechnologien, zur zentralen Voraussetzung langfristigen Unternehmenserfolgs. In diesem Kontext untersucht die vorliegende Dissertation das Potenzial kooperativen Verhaltens zwischen Unternehmen zur Bewältigung technologischer Diskontinuitäten am Beispiel des bevorstehenden Paradigmenwechsels im automobilen Antrieb. Dabei wird Kooperation als superiore Strategie zur Stimulation des explorativen Innovationsmodus identifiziert und in eine übergreifende Dynamik der Koordinationseignung im Verlauf technologischen Fortschritts integriert. Bezogen auf den automobilen Antrieb ist eine nachhaltigkeitsinduzierte Destabilisierung des technologischen Paradigmas des Verbrennungsmotors festzustellen, während sich seine intensiven Möglichkeiten erschöpfen. Konsequenz dessen ist zunehmender Innovationsdruck, der konsistenzorientiert eine systemische Transformation von Kraftwerkstechnik und Energienetz sowie einen Paradigmenwechsel zu elektrischen Antrieben erzwingt. Aufgrund der bisher geringen technologischen Reife und hohen Kosten elektrischer Antriebssysteme zeichnet sich allerdings ein Übergang in Form einer graduellen Rekonfiguration über eine Hybridphase ab, deren Dynamik maßgeblich von der Entwicklung der technoökonomischen Schlüsselmodule Batterie und Brennstoffzelle abhängt. Die dazu erforderliche technologische Transformation birgt existenzielle Gefährdungen für die etablierten Unternehmen der Automobilindustrie, die sich gegenüber ihren Herausforderern explorationsbezogen in einer inferioren Ausgangssituation befinden. Eben hier bieten sich umfangreiche Potenziale kooperativer Exploration elektrischer Antriebe auf Verhaltens-, Innovationsprozess und Wissensebene. In Relation zu diesen erscheint das reale Kooperationsniveau jedoch als gering, volatil und, vor allem in Deutschland, übermäßig intrasektoral fokussiert.
Aus diesen Erkenntnissen ergeben sich Implikationen für Unternehmensführung, Innovationspolitik und Forschung. Managementseitig besteht die zentrale Herausforderung in der Befähigung der Organisation zu Dynamisierung von Wissen und Fähigkeiten durch simultan-heterogene Koordination explorativer und exploitativer Innovationsströme. Insbesondere die Erschließung kooperativer Potenziale setzt allerdings die Bereitschaft zur Einschränkung der eigenen Unabhängigkeit sowie zur Abweichung von bewährten Verhaltensmustern voraus. Innovationspolitisch steht die Überwindung von Beharrungskräften durch Anpassung des sozio-institutionellen Rahmens sowie die Förderung langfristiger Kooperation bei potenzialgeleiteter Intersektorialität im Vordergrund. Forschungsbezogen eröffnet speziell die Kombination von Innovations- Nachhaltigkeits- und Koordinationstheorie ein besseres Verständnis von Triebfedern und Dynamik technischen Fortschritts, das weiter vertieft werden sollte.
Der Zusammenbruch des Systems der Arbeiterselbstverwaltung und der sich daran anschließende Transformationsprozess zogen einen sektoralen Strukturwandel der kroatischen Volkswirtschaft nach sich. Die forcierte Deindustrialisierung und Tertiarisierung führte allerdings zu massiven Fehlentwicklungen, die bis eute die wirtschaftliche Lage des Landes bestimmen.
In der Untersuchung wird daher der Frage nachgegangen, inwieweit ein Tertiarisierungsprozess für ein Transformationsland wie Kroatien als Option für eine erfolgreiche wirtschaftliche Entwicklung zu bewerten ist. Dafür müssen zunächst grundlegende theoretische Ansätze zu den Themengebieten Wachstum und Strukturwandel beschrieben, beurteilt und systematisiert werden. Hierbei zeigt sich, dass neuere modelltheoretische Untersuchungen weiterhin an der demand bias- und productivity bias-Hypothese gemäß Fourastié (1949) und Baumol (1967) ansetzen, um die Triebkräfte der wirtschaftlichen Entwicklung hin zu einer Dienstleistungsgesellschaft zu erklären. Die Autorin identifiziert dabei zwei Theoriestränge: Einerseits wird in der Literatur versucht, die Überlegungen zum strukturellen Wandel mit der Wachstumstheorie "zu versöhnen", d. h. zu verbinden. Andererseits werden "Heilungschancen" der Baumolschen Kostenkrankheit auf Basis der Determinanten der Endogenen Wachstumstheorie und der Innovationsmerkmale von Dienstleistungen formuliert. Empirische Untersuchungen zum sektoralen Strukturwandel in ausgewählten europäischen Wohlfahrtsstaatssystemen zeigen weiterhin auf, dass die wirtschaftliche Entwicklung eines Landes zudem von gesellschaftlichen und politischen Faktoren bestimmt wird.
Im zweiten Teil der Studie werden mithilfe des theoretischen Instrumentariums die drei Entwicklungsstufen der kroatischen Volkswirtschaft seit dem Zweiten Weltkrieg nachgezeichnet. Dabei zeigt sich, dass in der ersten Phase die Mängel der Arbeiterselbstverwaltung einen strukturellen Wandel und Produktivitätswachstum behinderten, während in den 1990er Jahren insbesondere die verfehlte Wirtschafts- und Sozialpolitik zu negativen volkswirtschaftlichen und gesellschaftlichen Folgen führte. Während des forcierten Integrationsprozesses in die EU wirkte sich die in der zweiten Hälfte der 2000er-Jahre einsetzende Wirtschaftskrise negativ auf den kroatischen Arbeitsmarkt aus. Die Analyse der Innovationsfähigkeit der kroatischen Wirtschaft sowie die Zusammenfassung der zentralen Erkenntnisse im letzten Teil der Studie zeigen auf, dass Wachstum und Beschäftigung zukünftig gefördert werden können, wenn in Kroatien der strukturelle und gesellschaftliche Wandel weiter fortgesetzt wird.
Globale Beschaffungsstrukturen, Konsumgüterproduktion in Entwicklungsländern, Unternehmensethik und Sozialstandards - Sachverhalte, die im Zeitalter der Globalisierung an Bedeutung gewinnen und darauf hinweisen, dass Länder der Dritten Welt eine zunehmend wichtige Rolle in weltweiten Wertschöpfungsketten westlicher Unternehmen einnehmen. Dieser wachsende Anteil vieler Entwicklungsländer am Welthandel ist entwicklungspolitisch als großer Fortschritt zu sehen, weil diese stärker als in der Vergangenheit an Wachstum und Wohlstand teilhaben können. Leider verläuft dieser Aufholprozess aber nicht störungsfrei, da der damit einhergehende Verlagerungsprozess arbeitsintensiver Produktion oftmals zur Folge hat, dass westliche Konsumgüter in diesen Ländern unter menschenrechtlich untragbaren Bedingungen hergestellt werden, um Arbeits- und Herstellungskosten auf ein Minimum zu reduzieren sowie arbeitsrechtlichen Regelungen auf globaler Ebene zu entgehen. In einer übergeordneten Sichtweise geht es also um das Spannungsfeld von Ökonomie und Ethik, was seit langem Leitthema der Wirtschaftsethik ist. Dabei stellt sich die Frage, inwieweit diese einen Beitrag zu einer Globalisierung mit menschlichem Antlitz leisten kann. Zu diesem Zweck untersucht das vorliegende Buch, ob das Managementkonzept der Corporate Social Responsibility (CSR) zu einer Lösung und schrittweisen Annäherung von Ökonomie und Ethik im Globalisierungskontext führen kann. Angesichts der mangelnden Durchsetzbarkeit staatlich dirigistischer Strukturen auf internationaler Ebene wird daher die Frage nach dem Ort der Verantwortung neu gestellt und damit beantwortet, dass es vor allem Unternehmen und deren weltweiten Netzwerke sind, die durch ihr ethisch reflektiertes Handeln zu einer sozialeren Globalisierung beitragen können. Um diese jedoch verstärkt dazu zu motivieren, dieser Verantwortung nachzukommen, liegt ein besonderer Schwerpunkt dieses Buches auf der Entwicklung des CSR Business Case und der Frage, welche Faktoren entscheidend sind, wenn es um den betriebswirtschaftlichen Erfolg ethischen Engagements geht. Dafür ist es neben einer prozessorientierten Umsetzung in Produktion und Beschaffung ebenso wichtig, dieses Engagement mit Hilfe CSR-relevanter Marketinginstrumente an die Verbraucher zu kommunizieren und damit in ihr Bewusstsein sowie auf ihren Konsum- und Kaufradar zu bringen. In diesem Sinne werden die jeweils erforderlichen Implementierungsschritte und -instrumente so detailliert ausgearbeitet, dass sie unmittelbare Praxisrelevanz bekommen und zeigen, wie man von der hohen Abstraktionsebene der Globalisierung auf die Umsetzungsebene der Unternehmen gelangt und wie mit der anfänglichen Polarität zwischen Ethik und Ökonomie umgegangen werden kann. Somit soll das, was kurzfristig als Dilemma und Zielkonflikt erscheint, langfristig in ein produktives Handlungsfeld übersetzt werden, indem v.a. mittelständischen Unternehmen konkrete CSR-Handlungskompetenz an die Hand gegeben wird, weil diese aufgrund ihres enormen Stellenwerts in der deutschen Wirtschaft eine wichtige Rolle einnehmen können, CSR auf breiter Ebene durchzusetzen.
Unter der Zielsetzung der multimodalen, ortsaufgelösten optischen Spektroskopie für die markierungsfreie Charakterisierung biologischer Materialien nach Morphologie und Chemie werden vier Themenschwerpunkte behandelt.
1. Theorie der elastischen / inelastischen Lichtstreuung und laterale Auflösung in der Mikroskopie
2. Erweiterung eines Raman Mikroskops zu einem multimodalen spektralen Imaging System (MSIS) mit Photonenmigrations-Technologie
3. Erweiterung des MSIS zu Super-Resolution Raman Mikroskopie mit einer Festkörper-Immersionslinse
4. Anwendung des entwickelten MSIS auf biologische Materialien
Knowledge is an important resource, whose transfer is still not completely understood. The underlying belief of this thesis is that knowledge cannot be transferred directly from one person to another but must be converted for the transfer and therefore is subject to loss of knowledge and misunderstanding. This thesis proposes a new model for knowledge transfer and empirically evaluates this model. The model is based on the belief that knowledge must be encoded by the sender to transfer it to the receiver, who has to decode the message to obtain knowledge.
To prepare for the model this thesis provides an overview about models for knowledge transfer and factors that influence knowledge transfer. The proposed theoretical model for knowledge transfer is implemented in a prototype to demonstrate its applicability. The model describes the influence of the four layers, namely code, syntactic, semantic, and pragmatic layers, on the encoding and decoding of the message. The precise description of the influencing factors and the overlapping knowledge from sender and receiver facilitate its implementation.
The application area of the layered model for knowledge transfer was chosen to be business process modelling. Business processes incorporate an important knowledge resource of an organisation as they describe the procedures for the production of products and services. The implementation in a software prototype allows a precise description of the process by adding semantic to the simple business process modelling language used.
This thesis contributes to the body of knowledge by providing a new model for knowledge transfer, which shows the process of knowledge transfer in greater detail and highlights influencing factors. The implementation in the area of business process modelling reveals the support provided by the model. An expert evaluation indicates that the implementation of the proposed model supports knowledge transfer in business process modelling. The results of the qualitative evaluation are supported by the findings of a qualitative evaluation, performed as a quasi-experiment with a pre-test/post-test design and two experimental groups and one control group. Mann-Whitney U tests indicated that the group that used the tool that implemented the layered model performed significantly better in terms of completeness (the degree of completeness achieved in the transfer) in comparison with the group that used a standard BPM tool (Z = 3.057, p = 0.002, r = 0.59) and the control group that used pen and paper (Z = 3.859, p < 0.001, r = 0.72). The experiment indicates that the implementation of the layered model supports the creation of a business process and facilitates a more precise representation.
Im Fokus der Arbeit steht die Unterstützung der Stentgraftauswahl bei endovaskulärer Versorgung eines infrarenalen Aortenaneurysmas. Im Rahmen der Arbeit wurde eine Methode zur Auswertung von Ergebnissen einer Finite Elemente-Analyse zum Stentgraftverhalten konzipiert, implementiert und im Rahmen einer deutschlandweiten Benutzerstudie mit 16 Chirurgen diskutiert. Die entwickelte Mensch-Maschine-Schnittstelle ermöglicht dem Gefäßmediziner eine interaktive Analyse berechneter Fixierungskräfte und Kontaktzustände mehrerer Stentgrafts im Kontext mit dem zu behandelnden Aortenabschnitt. Die entwickelte Methode ermöglicht eine tiefergehende Auseinandersetzung der Mediziner mit numerischen Simulationen und Stentgraftbewertungsgrößen. Hierdurch konnte im Rahmen der Benutzerstudie das Einsatzpotenzial numerischer Simulationen zur Unterstützung der Stentgraftauswahl ermittelt und eine Anforderungsspezifikation an ein System zur simulationsbasierten Stentgraftplanung definiert werden. Im Ergebnis wurde als wesentliches Einsatzpotenzial die Festlegung eines Mindestmaßes an Überdimensionierung, die Optimierung der Schenkellänge von bifurkativen Stentgrafts sowie der Vergleich unterschiedlicher Stentgraftdesigns ermittelt. Zu den wesentlichen Funktionen eines Systems zur simulationsbasierten Stentgraftauswahl gehören eine Übersichtskarte zu farbkodiertem Migrationsrisiko pro Stentgraft und Landungszone, die Visualisierung des Abdichtungszustandes der Stentkomponenten sowie die Darstellung von Stentgraft- und Gefäßdeformationen im 3D-Modell.
In dieser Arbeit wird ein Modell vorgestellt, das die Planung der direkten Wiederverwendung bei der Vermietung mobiler und langlebiger Investitionsgüter in Closed-Loop Supply Chains optimiert. Insbesondere die Entwicklung von Planungsalgorithmen zur Verbesserung der Vorhersagewahrscheinlichkeit zukünftiger Rücklieferungen und deren betriebswirtschaftliche Auswirkungen für Unternehmen stehen im Vordergrund. Das Optimierungsmodell betrachtet dabei sowohl die Positionierung des Unternehmens im Innen- als auch im Außenverhältnis und liefert die Entscheidungsgrundlage für entsprechende strategische Initiativen.
Data collected from internet applications are mainly stored in the form of transactions. All transactions of one user form a sequence, which shows the user´s behaviour on the site. Nowadays, it is important to be able to classify the behaviour in real time for various reasons: e.g. to increase conversion rate of customers while they are in the store or to prevent fraudulent transactions before they are placed. However, this is difficult due to the complex structure of the data sequences (i.e. a mix of categorical and continuous data types, constant data updates) and the large amounts of data that are stored. Therefore, this thesis studies the classification of complex data sequences. It surveys the fields of time series analysis (temporal data mining), sequence data mining or standard classification algorithms. It turns out that these algorithms are either difficult to be applied on data sequences or do not deliver a classification: Time series need a predefined model and are not able to handle complex data types; sequence classification algorithms such as the apriori algorithm family are not able to utilize the time aspect of the data. The strengths and weaknesses of the candidate algorithms are identified and used to build a new approach to solve the problem of classification of complex data sequences. The problem is thereby solved by a two-step process. First, feature construction is used to create and discover suitable features in a training phase. Then, the blueprints of the discovered features are used in a formula during the classification phase to perform the real time classification. The features are constructed by combining and aggregating the original data over the span of the sequence including the elapsed time by using a calculated time axis. Additionally, a combination of features and feature selection are used to simplify complex data types. This allows catching behavioural patterns that occur in the course of time. This new proposed approach combines techniques from several research fields. Part of the algorithm originates from the field of feature construction and is used to reveal behaviour over time and express this behaviour in the form of features. A combination of the features is used to highlight relations between them. The blueprints of these features can then be used to achieve classification in real time on an incoming data stream. An automated framework is presented that allows the features to adapt iteratively to a change in underlying patterns in the data stream. This core feature of the presented work is achieved by separating the feature application step from the computational costly feature construction step and by iteratively restarting the feature construction step on the new incoming data. The algorithm and the corresponding models are described in detail as well as applied to three case studies (customer churn prediction, bot detection in computer games, credit card fraud detection). The case studies show that the proposed algorithm is able to find distinctive information in data sequences and use it effectively for classification tasks. The promising results indicate that the suggested approach can be applied to a wide range of other application areas that incorporate data sequences.
Primäres Ziel und Aufgabe dieser Arbeit ist ... die Entwicklung einer neuen Recyclingmethode für PET, die die Nachteile der bisherigen Verwertungsmethoden vermeidet und unter weitgehendem Erhalt der bereits erbrachten Syntheseleistung definierte Oligomere liefert. Aus diesen können in Folge hochwertige Produkte hergestellt werden.
Pendeln im Alter : eine Fallstudie zu transnationaler Migration zwischen Deutschland und der Türkei
(2016)
Alter und Migration sind bisher kaum in Bezug zueinander gesetzt worden. Wie wirken sich migrationsspezifische Faktoren auf Alltag und Lebensplanung von Rentner/innen aus? Inwiefern beeinflussen Alter und Altern das Pendeln zwischen Herkunfts- und Einwanderungsland? Diese Fragen beantwortet Felicia Sparacio am Beispiel von Rentner/innen, die zwischen Deutschland und der Türkei pendeln. Sie untersucht deren soziale Netzwerke, konzentriert sich auf Alter in Verbindung mit Gesundheit, fragt nach Zugehörigkeiten und arbeitet die jeweils spezifische Prägung durch transnationale Migration und Alter heraus. Die Fallstudie erläutert zunächst Kontexte und Theorien zu Migration und Alter(n), bevor die beiden Felder gestützt durch empirische Ergebnisse analytisch verbunden werden.
Within the scope of the present cumulative doctoral thesis six scientific papers were published which illustrates that modern reaction model-free (=isoconversional) kinetic analysis (ICKA) methods represents a universal and effective tool for the controlled processing of thermosetting materials. In order to demonstrate the universal applicability of ICKA methods, the thermal cure of different thermosetting materials having a very broad range of chemical composition (melamine-formaldehyde resins, epoxy resins, polyester-epoxy resins, and acrylate/epoxy resins) were analyzed and mathematically modelled. Some of the materials were based on renewable resources (an epoxy resin was made from hempseed oil; linseed oil was modified into an acrylate/epoxy resin). With the aid of ICKA methods not only single-step but also complex multi-step reactions were modelled precisely. The analyzed thermosetting materials were combined with wood, wood-based products, paper, and plant fibers which are processed to various final products. Some of the thermosetting materials were applied as coating (in form of impregnated décor papers or powder and wet coatings respectively) on wood substrates and the epoxy resin from hempseed oil was mixed with plant fibers and processed into bio-based composites for lightweight applications. From the final products mechanical, thermal, and surface properties were determined. The activation energy as function of cure conversion derived from ICKA methods was utilized to predict accurately the thermal curing over the course of time for arbitrary cure conditions. Furthermore the cure models were used to establish correlations between the cross-linking during processing into products and the properties of the final products. Therewith it was possible to derive the process time and temperature that guarantee optimal cross-linking as well as optimal product properties
Product-Service Systems (PSS) in the fashion industry : an analysis of intra-organizational factors
(2018)
The fashion industry is a vast industry that has grown tremendously over the last decades. This growth causes significant environmental impact since the production of clothes involves high input of energy, water, chemicals and generates great volumes of waste. Even though fashion firms have started to address this challenge by adopting environmental standards, it has turned out that the sole use of eco-friendly material and new manufacturing techniques is insufficient. Instead, sustainable business models are increasingly gaining attention to solve the environmental problems. Offers to rent, swap, repair or redesign clothes are among the most prominent and promising examples. For analytical purposes, these concepts can be assigned to the growing research stream of Product-Service Systems (PSS) that shift the focus from the pure sale of a product toward complementary or substitutional service offers. This decouples customer satisfaction from material consumption, prolongs the garments' lifetime and thus diminishes both material input and appertaining waste. Besides environmental sustainability, PSS imply potential economic benefits for organizations. Particularly in highly competitive industries like the fashion industry, PSS allow firms to differentiate, better compete with cost pressure and mitigate the risk of being imitated by rivels since service is more difficult to replicate. However, fashion PSS are still mainly operated in a niche market by small firms and have yet to be anchored in the mainstream fashion industry.
Este trabajo se enmarca dentro del vasto contexto de Ciudades Inteligentes, y se centra en el área de la conducción inteligente de vehículos, tanto en zonas urbanas como interurbanas, mediante la recogida de datos en tiempo real, medidos con sensores, por parte de los propios conductores, así como de datos capturados mediante simulación.
El objetivo de este trabajo es doble. Por un lado, el estudio y aplicación de las diferentes técnicas y métodos de detección de valores atípicos en bases de datos multivariantes, además de una comparativa entre ellos mediante las pruebas llevadas a cabo con datos de tráfico real. Y por otro lado, establecer una relación entre las situaciones anómalas de tráfico, como puedan ser atascos o accidentes, con los valores atípicos multivariantes encontrados.
La detección de valores atípicos representa una de las tareas más importantes a la hora de realizar cualquier análisis de datos, sea cual sea el dominio o área de estudio, ya que entre sus funciones primordiales se encuentra el descubrir información útil, que resulta de gran valor, y que por lo general queda oculta por la alta dimensión de los datos.
Con el uso de mecanismos de detección de valores atípicos junto con métodos de clasificación supervisada, se va a poder llevar a cabo el reconocimiento de elementos de la infraestructura vial urbana como pueden ser rotondas, pasos de cebra, cruces o semáforos.
After more than three decades of electronic design automation, most layouts for analog integrated circuits are still handcrafted in a laborious manual fashion today. Obverse to the highly automated synthesis tools in the digital domain (coping with the quantitative difficulty of packing more and more components onto a single chip – a desire well known as More Moore), analog layout automation struggles with the many diverse and heavily correlated functional requirements that turn the analog design problem into a More than Moore challenge. Facing this qualitative complexity, seasoned layout engineers rely on their comprehensive expert knowledge to consider all design constraints that uncompromisingly need to be satisfied. This usually involves both formally specified and nonformally communicated pieces of expert knowledge, which entails an explicit and implicit consideration of design constraints, respectively.
Existing automation approaches can be basically divided into optimization algorithms (where constraint consideration occurs explicitly) and procedural generators (where constraints can only be taken into account implicitly). As investigated in this thesis, these two automation strategies follow two fundamentally different paradigms denoted as top-down automation and bottom-up automation. The major trait of top-down automation is that it requires a thorough formalization of the problem to enable a self-intelligent solution finding, whereas a bottom-up automatism –controlled by parameters– merely reproduces solutions that have been preconceived by a layout expert in advance. Since the strengths of one paradigm may compensate the weaknesses of the other, it is assumed that a combination of both paradigms –called bottom-up meets top-down– has much more potential to tackle the analog design problem in its entirety than either optimization-based or generator-based approaches alone.
Against this background, the thesis at hand presents Self-organized Wiring and Arrangement of Responsive Modules (SWARM), an interdisciplinary methodology addressing the design problem with a decentralized multi-agent system. Its basic principle, similar to the roundup of a sheep herd, is to let responsive mobile layout modules (implemented as context-aware procedural generators) interact with each other inside a user-defined layout zone. Each module is allowed to autonomously move, rotate and deform itself, while a supervising control organ successively tightens the layout zone to steer the interaction towards increasingly compact (and constraint compliant) layout arrangements. Considering various principles of self-organization and incorporating ideas from existing decentralized systems, SWARM is able to evoke the phenomenon of emergence: although each module only has a limited viewpoint and selfishly pursues its personal objectives, remarkable overall solutions can emerge on the global scale.
Several examples exhibit this emergent behavior in SWARM, and it is particularly interesting that even optimal solutions can arise from the module interaction. Further examples demonstrate SWARM’s suitability for floorplanning purposes and its application to practical place-and-route problems. The latter illustrates how the interacting modules take care of their respective design requirements implicitly (i.e., bottom-up) while simultaneously paying respect to high level constraints (such as the layout outline imposed top-down by the supervising control organ). Experimental results show that SWARM can outperform optimization algorithms and procedural generators both in terms of layout quality and design productivity. From an academic point of view, SWARM’s grand achievement is to tap fertile virgin soil for future works on novel bottom-up meets top-down automatisms. These may one day be the key to close the automation gap in analog layout design.
Service robots need to be aware of persons in their vicinity in order to interact with them. People tracking enables the robot to perceive persons by fusing the information of several sensors. Most robots rely on laser range scanners and RGB cameras for this task. The thesis focuses on the detection and tracking of heads. This allows the robot to establish eye contact, which makes interactions feel more natural.
Developing a fast and reliable pose invariant head detector is challenging. The head detector that is proposed in this thesis works well on frontal heads, but is not fully pose-invariant. This thesis further explores adaptive tracking to keep track of heads that do not face the robot. Finally, head detector and adaptive tracker are combined within a new people tracking framework and experiments show its effectiveness compared to a state-of the-art system.
After more than three decades of electronic design automation, most layouts for analog integrated circuits are still handcrafted in a laborious manual fashion today. This book presents Self-organized Wiring and Arrangement of Responsive Modules (SWARM), a novel interdisciplinary methodology addressing the design problem with a decentralized multi-agent system. Its basic approach, similar to the roundup of a sheep herd, is to let autonomous layout modules interact with each other inside a successively tightened layout zone. Considering various principles of self-organization, remarkable overall solutions can result from the individual, local, selfish actions of the modules. Displaying this fascinating phenomenon of emergence, examples demonstrate SWARM’s suitability for floorplanning purposes and its application to practical place-and-route problems. From an academic point of view, SWARM combines the strengths of procedural generators with the assets of optimization algorithms, thus paving the way for a new automation paradigm called bottom-up meets top-down.
Gegenstand dieser Arbeit ist die Darstellung und Charakterisierung einheitlicher, mesoporöser Silica-Partikel (MPSM) im Mikrometerbereich mit maßgeschneiderten Partikel- und Porendesign für die Hochleistungsflüssigkeitschromatographie. Die Synthese umfasst die Einlagerung von Silica-Nanopartikeln (SNP) in poröse organische Template, welche anschließend bei 600°C zersetzt werden. Die Impfsuspensionspolymerisation von Polystyrol-Partikeln, unter Verwendung von Glycidylmethacrylat, Ethylenglycoldimethacrylat und Porogenen, ermöglicht die Herstellung hochgradig einheitlicher, poröser p(GMA-co-EDMA)-Template. Der Einfluss wesentlicher Faktoren, einschließlich des Monomer-Porogen-Verhältnisses, des Monomerverhältnisses und der Porogenzusammensetzung, werden systematisch untersucht sowie ihre Auswirkungen auf die Porengröße, das Porenvolumen und die spezifische Oberfläche erläutert. Die Anbindung aminofunktionalisierter Substanzen erfolgt durch die Ringöffnung der Epoxidgruppe. Im anschließenden basischen Sol-Gel-Prozess werden die Silica-Nanopartikel aufgrund der Ladungsunterschiede in die funktionalisierten p(GMA-co-EDMA)-Template eingebaut. Die Partikelgröße der SNP beeinflusst wesentlich die Poreneigenschaften der MPSM und hängt von drei Faktoren ab: (i) der Wachstumsgeschwindigkeit in der kontinuierlichen Phase, die durch die Einstellungen des Sol-Gel-Prozesses gesteuert wird, (ii) der Diffusionsrate, die durch elektrostatische Anziehung reguliert wird und vom Grad der Funktionalisierung abhängt und (iii) der Porosität des Polymer-Templats. Die gezielte Anpassung der Poreneigenschaften durch die Prozesseinstellungen erlaubt die präzise Herstellung von MPSM, die auf spezifische Trennherausforderungen zugeschnitten werden und somit die Qualität der HPLC verbessern. Die vorgestellte Synthesestrategie ermöglicht, aufgrund des stufenweisen molekularen Aufbaus, eine bessere Adaption der stationären Phase an spezifische Trennherausforderungen.