Refine
Year of publication
- 2014 (222) (remove)
Document Type
- Journal article (82)
- Conference proceeding (74)
- Book chapter (31)
- Book (22)
- Doctoral Thesis (6)
- Anthology (3)
- Working Paper (2)
- Patent / Standard / Guidelines (1)
- Review (1)
Is part of the Bibliography
- yes (222)
Institute
- ESB Business School (78)
- Informatik (50)
- Technik (44)
- Life Sciences (42)
- Texoversum (8)
Publisher
- Elsevier (15)
- Hochschule Reutlingen (12)
- IEEE (12)
- Universitätsbibliothek Tübingen (11)
- Springer (10)
- Erich Schmidt (7)
- Wiley (7)
- Arbeitsgemeinschaft Simulation (ASIM) (6)
- Haufe (6)
- IARIA (5)
Der lokale Bekleidungseinzelhandel steht unter immer stärkerem Konkurrenzdruck durch Versandunternehmen. Zusätzlich bestehen durch gewachsene Architekturen eine Reihe von Wachstumshemmnissen. Daher sollen hier eine Reihe von Ansätzen zur Gestaltung datenzentrierter Unternehmensarchitekturen für den Bekleidungseinzelhandel vorgestellt werden. Sie basieren auf dem Einsatz von RFID zur Gewinnung von Kundenprofilen in den Niederlassungen und dem Einsatz von Big-Data basierten Auswertungs- und Analysemechanismen. Mit den vorgestellten Konzepten ist es Unternehmen des Bekleidungseinzelhandels möglich, ähnlich wie Versandunternehmen, individuelle Ansprachen des Kunden und Angebote zu entwickeln
Big Data und Cloud Systeme werden zunehmend von mobilen, benutzerzentrierten und agil veränderbaren Informationssystemen im Kontext von digitalen sozialen Netzwerken genutzt. Metaphern aus der Biologie für lebendige und selbstheilende Systeme und Umgebungen liefern die Basis für intelligente adaptive Informationssysteme und für zugehörige serviceorientierte digitale Unternehmensarchitekturen. Wir berichten über unsere Forschungsarbeiten über Strukturen und Mechanismen adaptiver digitaler Unternehmensarchitekturen für die Entwicklung und Evolution von serviceorientierten Ökosystemen und deren Technologien wie Big Data, Services & Cloud Computing, Web Services und Semantikunterstützung. Für unsere aktuellen Forschungsarbeiten nutzen wir praxisrelevante SmartLife Szenarien für die Entwicklung, Wartung und Evolution zukunftsgerechter serviceorientierter Informationssysteme. Diese Systeme nutzen eine stark wachsende Zahl externer und interner Services und fokussieren auf die Besonderheiten der Weiterentwicklung der Informationssysteme für integrierte Big Data und Cloud Kontexte. Unser Forschungsansatz beschäftigt sich mit der systematischen und ganzheitlichen Modellbildung adaptiver digitaler Unternehmensarchitekturen - gemäß standardisierter Referenzmodelle und auf Standards aufsetzenden Referenzarchitekturen, die für besondere Einsatzszenarien auch bei kleineren Anwendungskontexten oder an neue Kontexte einfacher adaptiert werden können. Um Semantik-gestützte Analysen zur Entscheidungsunterstützung von System- und Unternehmensarchitekten zu ermöglichen, erweitern wir unser bisheriges Referenzmodell für ITUnternehmensarchitekturen ESARC – Enterprise Services Architecture Reference Cube – um agile Mechanismen der Adaption und Konsistenzbehandlung sowie die zugehörigen Metamodelle und Ontologien für Digitale Enterprise Architekturen um neue Aspekte wie Big Data und Cloud Kontexte.
SmartLife ecosystems are emerging as intelligent user-centered systems that will shape future trends in technology and communication. Biological metaphors of living adaptable ecosystems provide the logical foundation for self-optimizing and self-healing run-time environments for intelligent adaptable business services and related information systems with service-oriented enterprise architectures. The present research in progress work investigates mechanisms for adaptable enterprise architectures for the development of service-oriented ecosystems with integrated technologies like Semantic Technologies, Web Services, Cloud Computing and Big Data Management. With a large and diverse set of ecosystem services with different owners, our scenario of service-based SmartLife ecosystems can pose challenges in their development, and more importantly, for maintenance and software evolution. Our research explores the use of knowledge modeling using ontologies and flexible metamodels for adaptable enterprise architectures to support program comprehension for software engineers during maintenance and evolution tasks of service-based applications. Our previous reference enterprise architecture model ESARC -- Enterprise Services Architecture Reference Cube -- and the Open Group SOA Ontology was extended to support agile semantic analysis, program comprehension and software evolution for a SmartLife applications scenario. The Semantic Browser is a semantic search tool that was developed to provide knowledge-enhanced investigation capabilities for service-oriented applications and their architectures.
DMOS transistors are often subject to high power dissipation and thus substantial self-heating. This limits their safe operating area because very high device temperatures can lead to thermal runaway and subsequent destruction. Because the peak temperature usually occurs only in a small region in the device, it is possible to redistribute part of the dissipated power from the hot region to the cooler device areas. In this way, the peak temperature is reduced, whereas the total power dissipation is still the same. Assuming that a certain temperature must not be exceeded for safe operation, the improved device is now capable of withstanding higher amounts of energy with an unchanged device area. This paper presents two simple methods to redistribute the power dissipation density and thus lower the peak device temperature. The presented methods only require layout changes. They can easily be applied to modern power technologies without the need of process modifications. Both methods are implemented in test structures and investigated by simulations and measurements.
Vehicles have been so far improved in terms of energy-efficiency and safety mainly by optimising the engine and the power train. However, there are opportunities to increase energy-efficiency and safety by adapting the individual driving behaviour in the given driving situation. In this paper, an improved rule match algorithm is introduced, which is used in the expert system of a human-centred driving system. The goal of the driving system is to optimise the driving behaviour in terms of energy-efficiency and safety by giving recommendations to the driver. The improved rule match algorithm checks the incoming information against the driving rules to recognise any breakings of a driving rule. The needed information is obtained by monitoring the driver, the current driving situation as well as the car, using in-vehicle sensors and serial-bus systems. On the basis of the detected broken driving rules, the expert system will create individual recommendations in terms of energy-efficiency and safety, which will allow eliminating bad driving habits, while considering the driver needs.
Besides the optimisation of the car, energy-efficiency and safety can also be increased by optimising the driving behaviour. Based on this fact, a driving system is in development whose goal is to educate the driver in energy-efficient and safe driving. It monitors the driver, the car and the environment and gives energy-efficiency and safety relevant recommendations. However, the driving system tries not to distract or bother the driver by giving recommendations for example during stressful driving situations or when the driver is not interested in that recommendation. Therefore, the driving system monitors the stress level of the driver as well as the reaction of the driver to a given recommendation and decides whether to give a recommendation or not. This allows to suppress recommendations when needed and, thus, to increase the road safety and the user acceptance of the driving system.
This review gives a short overview of the physical processes involved in the formation of the polyelectrolyte multilayers (PEMs) and their destruction. These two processes are vital for the formation of PEMs with desired physical and chemical structures, and for loading them with active substances and their spatial controlled release. It includes a survey of the physical and chemical properties that are key points for controlling film nanostructure in relation to biological processes and different possibilities for controlling cell behavior by means of film composition, bioactivity, mechanical properties, and three-dimensional organization.
Powder coating of engineered wood panels such as medium density fibreboards (MDF) is gaining industrial interest due to ecological and economic advantages of powder coating technology. For transferring powder coating technology to temperature-sensitive substrates like MDF, a thorough understanding of the melting, flowing and curing behaviour of the used low-bake resins is required. In the present study, thermo-analysis in combination with iso-conversional kinetic data analysis as well as rheometry is applied to characterise the properties of an epoxy-based powder coating. Neat resin and cured powder coating films are examined in order to define an ideal production window within which the resin is preferably applied and processed to yield satisfactory surface performance on the one hand and without exposing the carrier MDF too high a temperature load on the other hand to prevent the panel from deteriorating in mechanical strength. In order to produce powder coated films of high surface gloss – a feature that has not yet successfully been realized on MDF with powder coatings – a new curing technology, in-mould surface finishing, has been applied.
A millimeter-wave power amplifier concept in an advanced silicon germanium (SiGe) BiCMOS technology is presented. The goal of the concept is to investigate the impact of physical limitations of the used heterojunction bipolar transistors (HBT) on the performance of a 77 GHz power amplifier. High current behavior, collectorbase breakdown and transistor saturation can be forced with the presented design. The power amplifier is manufactured in an advanced SiGe BiCMOS technology at Infineon Technologies AG with a maximum transit frequency fT of around 250 GHz for npn HBT’s [1]. The simulation results of the power amplifier show a saturated output power of 16 dBm at a power added efficiency of 13%. The test chip is designed for a supply voltage of 3.3 V and requires a chip size of 1.448 x 0.930 mm².
Rats are commonly used in medical research as they enable a high grade of standardization. The exhalome of ventilated rats has not as yet been investigated using an ion mobility spectrometer coupled with a multi-capillary column (MCC-IMS). As a first step, a rat model has to be established to measure potential biomarkers in the exhale with long-term settings, allowing constant and continuous analysis of exhaled air in time series. Therefore, eight animals were anaesthetized, prepared and ventilated for 1 h. A total of 73 peaks were directly detected with the IMS chromatogram. Thirty five of them were assigned to the ventilator system and 38 to the animals. Peak intensity varied within three measurements. The intensity of analytes of individual rats varied by a factor of up to 18. This new model will also enable continuous measurements of volatile organic compounds (VOCs) from rat's breath in long-term experiments. It is hoped that, in the future, variability and progression of VOCs can be monitored in different models of diseases using this set-up.
Size and cost of a switched mode power supply can be reduced by increasing the switching frequency. This leads especially at a high input voltage to a decreasing efficiency caused by switching losses. Conventional calculations are not suitable to predict the efficiency as parasitic capacitances have a significant loss contribution. This paper presents an analytical efficiency model which considers parasitic capacitances separately and calculates the power loss contribution of each capacitance to any resistive element. The proposed model is utilized for efficiency optimization of converters with switching frequencies >10MHz and input voltages up to 40V. For experimental evaluation a DCDC converter was manufactured in a 180 nm HV BiCMOS technology. The model matches a transistor level simulation and measurement results with an accuracy better than 3.5 %. The accuracy of the parasitic capacitances of the high voltage transistor determines the overall accuracy of the efficiency model. Experimental capacitor measurements can be fed into the model. Based on the model, different architectures have been studied.
Size and cost of a switched mode power supply can be reduced by increasing the switching frequency. The maximum switching frequency and the maximum input voltage range, respectively, is limited by the minimum propagated on-time pulse, which is mainly determined by the level shifter speed. At switching frequencies above 10 MHz, a voltage conversion with an input voltage range up to 50 V and output voltages below 5 V requires an on-time of a pulse width modulated signal of less than 5 ns. This cannot be achieved with conventional level shifters. This paper presents a level shifter circuit, which controls an NMOS power FET on a high-voltage domain up to 50 V. The level shifter was implemented as part of a DCDC converter in a 180 nm BiCMOS technology. Experimental results confirm a propagation delay of 5 ns and on-time pulses of less than 3 ns. An overlapping clamping structure with low parasitic capacitances in combination with a high-speed comparator makes the level shifter also very robust against large coupling currents during high-side transitions as fast as 20 V/ns, verified by measurements. Due to the high dv/dt, capacitive coupling currents can be two orders of magnitude larger than the actual signal current. Depending on the conversion ratio, the presented level shifter enables an increase of the switching frequency for multi-MHz converters towards 100 MHz. It supports high input voltages up to 50 V and it can be applied also to other high-speed applications.
An operation room is a stressful work environment. Nevertheless, all involved persons have to work safely as there is no space for making mistakes. To ensure a high level of concentration and seamless interaction, all involved persons have to know their own tasks and tasks of their colleagues. The entire team must work synchronously at all times. However, the operation room (OR) is a noisy environment and the actors have to set their focus on their work. To optimize the overall workflow, a task manager supporting the team was developed. Each actor is equipped with a client terminal showing a summary of their own tasks. Moreover, a big screen displays all tasks of all actors. The architecture is a distributed system based on a communication framework that supports the interaction of all clients with the task manager. A prototype of the task manager and several clients have been developed and implemented. The system represents a proof-of-concept for further development. This paper describes the concept of the task manager.
Hardboards (HBs) (wet-process high-density fibreboards) were made in an industrial trial using a binder system consisting of cationic mimosa tannin and laccase or just cationic tannin without any thermosetting adhesive. The boards displayed superior mechanical strength compared to reference boards made with phenol–formaldehyde, easily exceeding the European standards for general-purpose HBs. The thickness swell of most of the boards was slightly greater than the standards would allow, so some optimisation is required in this area. The improved board properties appear to be mainly associated with ionic interactions involving quaternary amino groups in cationic tannin and negatively charged wood fibres rather than to cross-linking of fibres via laccase-assisted formation and coupling of radicals in tannin and fibre lignin.
Beim Language Oriented Programming (LOP) erstellt der Entwickler eine Programmiersprache, um ein Problem oder eine Aufgabe in einer bestimmten Domäne zu lösen. Dabei wird die Sprache so entwickelt, dass sie das konzeptuelle Modell des Entwicklers ohne Umdenken umsetzen kann. Diese Sprachen nennt man domänenspezifische Sprachen (DSL). Zur Entwicklung dieser Sprachen werden sogenannte Language Workbenches (LWB) verwendet. Diese Arbeit befasst sich mit der Entwicklung von DSLs als ein Mittel zur Umsetzung von LOP. Durch die Nutzung der LWBs kann man DSLs mit relativ kleinem Aufwand erstellen und einsetzen. Im Fokus dieser Arbeit steht die Entwicklung von "Modularen DSLs". Hierbei werden Kriterien und Voraussetzungen für die Modularisierung betrachtet. Zum Abschluss werden drei Konzepte bestehender Systeme anhand dieser Kriterien betrachtet und bewertet.
Today’s cars are characterized by many functional variants. There are many reasons for the underlying variability, from the adaptation to diverse markets to different technical aspects, which are based on a cross platform reuse of software functions. Inevitably, this variability is reflected in the model-based automotive software development. A modeling language, which is widely used for modeling embedded software in the automotive industry, is MATLAB/Simulink. There are concepts facing the high demand for a systematic handling of variability in Simulinkmodels. However, not every concept is suitable for every automotive application. In order to present a classification of concepts for modeling variability in Simulink, this paper first has to determine the relevant use cases for variant handling in modelbased automotive software development. Existing concepts for modeling variability in Simulink will then be presented before being classified in relation to the previously determined use cases.
Die ideale Ergänzung zum Lehrbuch. Anhand von Übungen und Fallstudien lassen sich in diesem Band die zentralen Kapitel und Themen des erfolgreichen Lehrbuchs "Einführung in das Controlling" optimal wiederholen und vertiefen. Der Aufbau des Übungsbuchs orientiert sich an den wichtigsten im Lehrbuch vorgestellten Controlling-Instrumenten. Zu jedem Werkzeug bietet es Aufgaben und Fragestellungen aus der Praxis. Mithilfe der umfangreichen Fallstudie der X-presso AG, die jetzt auch in Englisch dargestellt wird, können die Studierenden sich die englische Terminologie und Fachsprache aneignen. Zusätzlich werden zusammenhängende und anspruchsvollere Aufgabenstellungen auf Prüfungsniveau angeboten. Hier können die Studierenden trainieren, das gesamte Controlling-Instrumentarium sicher zu beherrschen und anzuwenden. Zur Überprüfung gibt es ausführliche Lösungsvorschläge zu jeder Aufgabe.
Functionally impaired people have problems with choosing and finding the right clothing. So, they need help in their daily life to wash and manage the clothing. The goal of this work is to support the user by giving recommendations to choose the right clothing, to find the clothing and how to wash the clothing. The idea behind eKlarA is to generate a gateway based system that uses sensors to identify the clothing and their state in the clothing cycle. The clothing cycle consists of (one and more) closet, laundry basket and washing machine in one or several places. The gateway uses the information about the clothing, weather and calendar to support the user in the different steps of the clothing cycle. This allows to give more freedom to the functionally impaired people in their daily life.
Die sogenannte Systemsimulation, bei der mehrere physikalische Domänen gemeinsam simuliert werden, erlaubt die Analyse komplexer und damit realitätsnaher Systeme und spielt eine zunehmend größere Rolle bei der Auslegung von Komponenten. Enthält das System Teile, die durch Feldgrößen aus unterschiedlichen physikalischen Domänen beschrieben werden müssen, kann man Co-Simulationen einsetzen, die allerdings zeitaufwändig sind. Für die Auslegung des Systems ist es dagegen notwendig, Systemsimulationen schnell durchzuführen zu können. Hierfür können für ausgewählte Bauteile oder Domänen schnellere reduzierte Ersatzmodelle (ROM) eingesetzt werden. In dieser Arbeit stellen wir ein reduziertes Modell für elektromechanische Bauteile mit Berücksichtigung von Wirbelströmen vor. Wirbelstromeffekte hängen nicht nur vom aktuellen Zustand, sondern auch von der Geschichte der elektromagnetischen Domäne ab. Das vorgestellte Ersatzmodell basiert auf Daten, die mit einer Reihe von stationären Feldsimulationen vorab erzeugt werden. Für die Modellierung der geschichtsabhängigen Wirbelstromeffekte wird ein Konvolutionsansatz (Faltungsansatz) verwendet. Vergleiche mit entsprechenden Co-Simulationen in ANSYS Maxwell und Simplorer zeigen am Beispiel eines Hubankers, dass das Ersatzmodell in der Lage ist, die wesentlichen Eigenschaften des Bauteils physikalisch korrekt abzubilden.
Allyls
(2014)
This chapter addresses the importance and usage of the commercially low volume thermoset plastics group known as allyls. The three significant sub-elements of this group are poly(diallylphthalates), poly(diallylisophthalates), and poly(allyldiglycol carbonate). Chemistry, processing, and properties are also described. Allyl polymers are synthesized by radical polymerizations of allyl monomers that usually do not produce high-molecular-mass macromolecules. Therefore, only a few specific monomers can produce thermosetting materials. Diallyldiglycolcarbonate (CR-39) and diallylphthalates are the most significant examples that have considerably improved our everyday life.
The interaction between lipid bilayers in water has been intensively studied over the last decades. Osmotic stress was applied to evaluate the forces between two approaching lipid bilayers in aqueous solution. The force–distance relation between lipid mono- or bilayers deposited on mica sheets using a surface force apparatus (SFA) was also measured. Lipid stabilised foam films offer another possibility to study the interactions between lipid monolayers. These films can be prepared comparatively easy with very good reproducibility. Foam films consist usually of two adsorbed surfactant monolayers separated by a layer of the aqueous solution from which the film is created. Their thickness can be conveniently measured using microinterferometric techniques. Studies with foam films deliver valuable information on the interactions between lipid membranes and especially their stability and permeability. Presenting inverse black lipid membrane (BLM) foam films supply information about the properties of the lipid self-organisation in bilayers. The present paper summarises results on microscopic lipid stabilised foam films by measuring their thickness and contact angle. Most of the presented results concern foam films prepared from dispersions of the zwitterionic lipid 1,2-dimyristoyl-sn-glycero-3-phosphorylcholine (DMPC) and some of its mixtures with the anionic lipid — 1,2-dimyristoyl-sn-glycero-3-[phospho-rac-(1-glycerol)] (DMPG).
The strength of the long range and short range forces between the lipid layers is discussed. The van der Waals attractive force is calculated. The electrostatic repulsive force is estimated from experiments at different electrolyte concentrations (NaCl, CaCl2) or by modification of the electrostatic double layer surface potential by incorporating charged lipids in the lipid monolayers. The short range interactions are studied and modified by using small carbohydrates (fructose and sucrose), ethanol (EtOH) or dimethylsulfoxide (DMSO). Some results are compared with the structure of lipid monolayers deposited at the liquid/air interface (monolayers spread in Langmuir trough), which are one of most studied biomembrane model system. The comparison between the film thickness and the free energy of film formation is used to estimate the contribution of the different components of the disjoining pressure to the total interaction in the film and their dependence on the composition of the film forming solution.
Enhancing the undergraduate educational experience : development of a micro-gas turbine laboratory
(2014)
A Capstone C30 MicroTurbine has been installed, instrumented, and utilized in a junior-level laboratory course at Valparaiso University. The C30 MicroTurbine experiment enables Valparaiso University to educate students interested in power generation and turbine technology. The first goal of this experiment is for students to explore a gas turbine generator and witness the discrepancies between idealized models and real thermodynamic systems. Secondly, students measure and analyze data to determine where losses occur in a real gas turbine. The third educational goal is for students to recognize the true costs associated with natural gas use, i.e. the hidden costs of transporting the gas to the consumer. Overall, the gas turbine experiment has garnered positive feedback from students. The twenty-six students who performed the lab in Spring 2014 rated the quality and usefulness of the gas turbine experiment as 4.28 and 4.19, respectively, on a 1-5 Likert scale, where 1 is low and 5 is high.
Since November 2011 the standard DIN 4709 stipulates performance tests for Micro-CHP units in Germany. In contrast to steady state measurements of the CHP unit itself, the test according to DIN 4709 includes the thermal storage tank as well as the internal control unit, and it is based on a 24 h test cycle following a specified thermal load profile. Hence, heat losses from the storage tank are as well taken into account as transient losses of the CHP unit. In addition, the control strategy for loading and unloading the storage tank affects the test results.
The DIN 4709 test cycle has been applied at the test stand for Micro-CHP units at Reutlingen University, and results for the Micro-CHP unit WhisperGen and the EC Power units XRGI 15® and XRGI 20® are available. During the analysis a method has been developed to evaluate the results in case the test cycle does not end in a time slot between 24 and 24.5 h after the starting as demanded by DIN 4709. Since this method has been successfully applied to the test of various CHP units of different size and technology so far, it is suggested to incorporate it to DIN 4709 during the next revision of the standard.
The performance numbers obtained reveal the differences in efficiencies measured at steady-state on the one hand and following the DIN 4709 test cycle on the other hand. While the deviations in electrical efficiencies are small, thermal efficiencies according to DIN 4709 fall below steady state data by 3–6 percentage points. This is attributed to transient thermal losses and heat losses from the storage tank, which are not included in steady state and separate testing of the CHP unit, only.
Ein wirtschaftlicher Betrieb von KWK-Anlagen ist erreichbar, wenn Geräte mit gutem elektrischen Wirkungsgrad und geringen Anschaffungs- und Wartungskosten eingesetzt werden und der im BHKW erzeugte Strom zum größtmöglichen Anteil im Objekt verbraucht wird. Der Pufferspeicher einer KWK-Anlage sollte ausreichend groß bemessen sein (Flexibilität, Eigenstromoptimierung...). Ein größeres BHKW ist nicht automatisch unwirtschaftlicher aufgrund der geringeren Betriebszeit. Es bietet dagegen ein höheres Potenzial für eine bedarfsgerechte Stromeinspeisung in das Netz.
Die Wirkungsgrade ("Normnutzungsgrade") nach DIN 4709 bilden den praktischen Betrieb von Mikro-Blockheizkraftwerken besser ab. Insbesondere bei den thermischen Wirkungsgraden ergeben sich nach DIN 4709 geringere Werte im Vergleich zu stationären Messungen aufgrund der An-/Abfahrverluste und der Speicherverluste. Der Betrieb des Zusatzkessels führt zu einer Reduktion der Primärenergieeinsparung der Gesamtanlage.
Der elektrische Wirkungsgrad stellt eines der wichtigsten Bewertungskriterien für BHKW dar, da über diese Größe ausgedrückt wird, wie viel des Wertproduktes „elektrische Energie“ bezogen auf die eingesetzte oder aufzuwendende Brennstoffenergie produziert werden kann. Ein hoher elektrischer Wirkungsgrad ist somit gleichbedeutend mit hohen Erlösen aus dem Verkauf der erzeugten elektrischen Energie und damit eine grundlegende Voraussetzung für einen wirtschaftlichen Betrieb eines BHKWs. Folglich sind die Hersteller von BHKW bestrebt, den elektrischen Wirkungsgrad ihrer Geräte kontinuierlich zu verbessern und nach oben zu treiben. Dieses Bemühen zeigt sich eindrucksvoll an der Entwicklung der mechanischen Effizienz von Gasmotoren der Firma GE Jenbacher. Während mit Motoren der Baureihe 6 im Leistungsbereich 1,8 – 4,4 MWel im Jahr 1988 eine mechanische Effizienz von 34% erreichbar war, liegt dieser Wert mittlerweile bei etwa 47,5%. Diese enorme Steigerung konnte im Wesentlichen durch eine Erhöhung des mittleren effektiven Zylinderarbeitsdrucks von etwa 10 bar im Jahr 1988 auf derzeit 24 bar erzielt werden. Dabei hilft der Magerbetrieb, der gleichzeitig ein Zurückdrängen der NOx-Emissionen bewirkt, die Klopfgrenze zu höheren Drücken hin zu verschieben. Eine sichere Zündung des Gas-Luft-Gemisches wird durch die Vorkammerzündung erreicht.
Die Verwaltung tritt uns als altruistische Institution gegenüber: Sie dient in der Regel nicht sich selbst, sie ist kein "Selbstzweck", sondern verfolgt regelmäßig andere, meist übergeordnete Ziele. Als der ausführende Arm der Politik soll sie deren politische Zwecke umsetzen, gleichzeitig aber, so zumindest in modernen, rechtsstaatlich organisierten Demokratien und unter dem Stichwort "public governance" Recht und Gesetz achten sowie Gemeinwohlinteressen wie Nachhaltigkeit und/oder soziale Gerechtigkeit durchsetzen.
Die Verwaltung ist über die Zuordnung zu den Systemen Recht und Politik hinaus in weitere soziale Funktionssysteme eingebunden. Sofern es sich z.B. um Verwaltung in Wissenschaft und Forschung handelt, wird sie sich mit dem Code und dem Kommunikationsmedium der Wissenschaft konfrontiert sehen. Die Wirtschaftsverwaltung muss sich dem binären Code "Zahlung/keine Zahlung" der Wirtschaft stellen.
Dieser Ausgleich zwischen den Systemen macht es notwendig, dass ethisch-moralische Werte in den Dilemma-Situationen in die Entscheidungsfindung einbezogen werden. Die entscheidende Orientierung liefern dabei die materialen Werte der Tugendethik. Der Mitarbeiter der Verwaltung darf sich in gravierenden Konfliktsituationen den Anforderungen der Tugendethik nicht entziehen, sondern muss sein Handeln an Hand ihrer Werte überprüfen. Im Ergebnis führt dieses Verfahren zu einem harmonischen Ausgleich zwischen der Systemtheorie und werteorientierten Ansätzen.
Unternehmen arbeiten in Netzwerken mit vielfältigen Lieferanten- und Kundenbeziehungen und an unterschiedlichen Stellen der Wertschöpfungsketten. Dem Supply-Chain-Controlling kommt daher eine sehr hohe Bedeutung im Unternehmen zu. Es unterstützt das Management bei der Gestaltung und Steuerung unternehmensübergreifender Material-, Informations- und Geldflüsse. Dabei soll es die Effizienz und die Effektivität des unternehmerischen Handelns bzw. Entscheidens gewährleisten.
Die Erwartungen an Management Reporting sind hoch. Es soll immer effizienter und effektiver werden, dabei zugleich stark wachsende Datenmengen und neue komplexe Strukturen berücksichtigen. Unternehmen können auf diese Veränderungen mit unterschiedlichen Strategien reagieren. Drei Szenarien zeigen, wie das Management Reporting der Zukunft aussehen kann.
Increasing concerns regarding the world´s natural resources and sustainability continue to be a major issue for global development. As a result several political initiatives and strategies for green or resource-efficient growth both on national and international levels have been proposed. A core element of these initiatives is the promotion of an increase of resource or material productivity. This dissertation examines material productivity developments in the OECD and BRICS countries between 1980 and 2008. By applying the concept of convergence stemming from economic growth theory to material productivity the analysis provides insights into both aspects: material productivity developments in general as well potentials for accelerated improvements in material productivity which consequently may allow a reduction of material use globally. The results of the convergence analysis underline the importance of policy-making with regard to technology and innovation policy enabling the production of resource-efficient products and services as well as technology transfer and diffusion.
Mass-customization is a megatrend that also affects the wood industry. To obtain individually designed laminates in batch size one efficient printing and processing technologies are required. Digital printing was envisaged as it does not depend on highly costly printing cylinders (as used in rotogravure printing) and allows rapid exchange of the printing designs. In the present work, two wellestablished digital printing approaches, the multi-pass and the single-pass technique, were investigated and evaluated for their applicability in decorating engineered wood and low-pressure melamine films. Three different possibilities of implementing digital printing in the decorative laminates manufacturing process were studied: (1) digital printing on coated chipboard and subsequently applying a lacquered top-coat or melamine overlay (designated as “direct printing”, since the LPM was the printing substrate), (2) digital printing on decorative paper which was subsequently impregnated before hot pressing (designated as “indirect printing, variant A”) and (3) digital printing on decorative paper with subsequent interlamination of the paper between impregnated under- and overlay paper layers during the pressing process (designated as “indirect printing, variant B”). Due to various advantages of the resulting cured melamine resin surfaces including a much better technological performance and flexibility in surface texture design, it was decided to industrially further pursue only the indirect digital printing process comprising interlamination and the direct printing process with a melamine overlay-finishing. Basis for the successful trials on production and laboratory scales were the identification of applicable inks (in terms of compatibility with melamine resin) and of appropriate printing paper quality (in terms of impregnation and imprinting ability). After selection and fine tuning of suitable materials, the next challenge to overcome was the initially insufficient bond strength between impregnated overlay and the ink layers which led to unsatisfactory quality of the print appearance and delamination effects. However, the optimization of the pressing program and the development of a modified impregnation procedure for the underlay and overlay papers allowed the successful implementation of digital printing in the production line of our industrial partner FunderMax.
The purpose of this paper is to review, compare and contrast the body of published literature regarding consumer related emotions in fashion shopping behavior. This paper analyses 39 academic articles which focus on emotions in fashion shopping behavior between 2000 and 2013. Therefore articles which examine the influence of environmental stimuli in a retail setting as well as articles which focus on the impact of factors affecting individuals especially in shopping for fashion were analysed. Most of the articles are based on the SOR paradigm. A larger focus is recently placed on the research of emotions and consumers’ behavior in online fashion environments. The influence of stimuli, occurring in endogenous and exogenous ways, on consumers’ emotion and resulting behavior could be confirmed in most studies. However the determination of addressed emotions is already widely researched, the impact on consumers’ shopping behavior has to be analysed more detailed.
Einkaufsverhalten in Warenhäusern in Deutschland und USA : Zusammenfassung der Studienergebnisse
(2014)
Die Studie "Einkaufsverhalten in Warenhäusern in Deutschland und USA" unter der Leitung von Prof. Dr. Jochen Strähle (39), International Fashion Management, Hochschule Reutlingen, untersucht die Unterschiede im digitalen Nutzungsverhalten von Warenhauskunden in Deutschland und den USA. In einer Befragung wurden im Jahr 2013 Stationärkäufer in Deutschland und in den USA befragt. Es zeigte ich, dass die amerikanischen Kunden digitale Medien deutlich stärker für ihren Kauf im Warenhaus einsetzen als die deutschen. Signifikante Unterscheide zeigen sich in der Art und Weise des Informationsverhaltens. Deutsche Kunden informieren sich deutlich weniger im Vorfeld über die Produkte als amerikanische Kunden. So gaben über 70 Prozent der Deutschen an, dass sie sich nie oder selten vorab informierten. Bei den Amerikanern informierte sich knapp die Hälfte bereits vorher über die Produkte. Amerikaner nutzen dabei stärker mobile Quellen als Deutsche. So nutzen nur 15 Prozent ihr Smartphone häufig zur Vorabinformationen, wohingegen dies bei mehr als 28 Prozent der Amerikaner der Fall ist. Während in Deutschland noch knapp ein Fünftel gelegentlich bis häufig einen Katalog zur Hand nehmen, nutzt in Amerika nur noch jeder zehnte ein Printkatalog zur Informationssuche. Knapp 30 Prozent der Amerikaner prüfen die Verfügbarkeit der Ware vorab. In Deutschland hingegen sind es nur knapp 15 Prozent.
Hochschulabsolventen sind für Unternehmen eine der wichtigsten Quellen für die Nachwuchsrekrutierung. Doch wie erreichen Sie die jungen Studenten am Besten? Eine bloße Ausschreibung einer Stelle auf der Unternehmenswebseite reicht nicht mehr aus. Wir zeigen Ihnen, wie Sie bereits vor dem Bewerbungsprozess in der Lebenswirklichkeit (Relevant Set) der Studierenden präsent werden, um überhaupt als Arbeitgeber in Betracht gezogen zu werden.
Positively charged metallic oxides prevent blood coagulation whereas negatively charged metallic oxides are thrombogenic. This study was performed to examine whether this effect extends to metallic oxide nanoparticles. Oscillation shear rheometry was used to study the effect of zinc oxide and silicon dioxide nanoparticles on thrombus formation in human whole blood. Our data show that oscillation shear rheometry is a sensitive and robust technique to analyze thrombogenicity induced by nanoparticles. Blood without previous contact with nanoparticles had a clotting time (CT) of 16.7 ± 1.0 min reaching a maximal clot strength (CS) of 16 ± 14 Pa (G') after 30 min. ZnO nanoparticles (diameter 70 nm, +37 mV zeta-potential) at a concentration of 1 mg/mL prolonged CT to 20.8 ± 3.6 min and provoked a weak clot (CS 1.5 ± 1.0 Pa). However, at a lower concentration of 100 µg/mL the ZnO particles dramatically reduced CT to 6.0 ± 0.5 min and increased CS to 171 ± 63 Pa. This procoagulant effect decreased at lower concentrations reaching the detection limit at 10 ng/mL. SiO2 nanoparticles (diameter 232 nm, −28 mV zeta-potential) at high concentrations (1 mg/mL) reduced CT (2.1 ± 0.2 min) and stimulated CS (249 ± 59 Pa). Similar to ZnO particles, this procoagulant effect reached a detection limit at 10 ng/mL. Nanoparticles in high concentrations reproduce the surface charge effects on blood coagulation previously observed with large particles or solid metal oxides. However, nanoparticles with different surface charges equally well stimulate coagulation at lower concentrations. This stimulation may be an effect which is not directly related to the surface charge.
Im dritten Jahr der Rezession drehte sich in Mailand alles um die italienische Lebensart und um das Erbe der großen Designer. Die spektakulären Inszenierungen fehlten weitgehend auf der Messe und in den Schauräumen rund um die Via Durini, dafür hatte man sich auf das Produkt konzentriert. Wiederbelebung der Erfolgsmodelle, Überarbeitung in Material und Farbe, Fokus auf große Namen, das waren die Botschaften in Mailand. Eine menschlich existentielle Antwort auf die Krise der letzten Jahre, aber auch Hoffnung und Aufbruchsstimmung waren zu spüren. Die Eurozone erholt sich, politischer Neubeginn und selbstbewusste Kommunikation italienischer Kultur in Stil und Design, das waren die Botschaften, die die Messe und auch die Aussteller des "Fuorisalone" vermittelten.
This paper presents the design and simulation processes of an Equiangular Spiral Antenna for the extremely high frequencies between 65 GHz and 170 GHz. A new approach for the analysis of the antenna’s electrical parameters is described. This approach is based on formalism proposed by Rumsey to determine the EM field produced by an equiangular spiral antenna. Analytical expressions of the electrical parameters such as the gain or the directivity are then calculated using well sustained mathematical approximations. The comparison of obtained results with those from numerical integration methods shows a good agreement.
In this paper, research projects with 30 meter balanced cabling and data rates up to 25 Gbps over one single pair are described. The project aim is to achieve 100 Gbps via a four pair balanced cabling channel. In the following, spectral characteristics of the used prototype twisted pair are presented. Therefore, the insertion loss of the single cable in comparison to the insertion loss of the cable in combination with an equalizing amplifier, as well as the group delay of the cable and the cable connected to the equalizing amplifier is shown. Furthermore, a carrierless Pulse Amplitude Modulation with 32 different levels (PAM-32) as an approach for a possible line encoding is presented. Finally, research measurements of the data transmission with a data rate up to 25 Gbps via shielded twisted pair is shown.
Dass sich durch die vierte industrielle Revolution etwas ändern wird, steht außer Frage. Nur was genau? Fakt ist: Unternehmen der neuen und alten Ökonomie treffen aufeinander und müssen sich vernetzen. Isoliertes Handeln ist keine Option, Unternehmen müssen sich vernetzen. Die Effizienz der Produktionsprozesse kann durch den Einsatz von intelligenter Software und Sensortechnologie sowie die Vernetzung mit Zulieferern und Kunden gesteigert werden. Die Stärke der neuen Ökonomien wird auch in der "alten" Industrie einen Wandel der Arbeitswelt nach sich ziehen.
Bootstrap circuits are mainly used for supplying a gate driver circuit to provide the gate overdrive voltage for a high-side NMOS transistor. The required charge has to be provided by a bootstrap capacitor which is often too large for integration if an acceptable voltage dip at the capacitor has to be guaranteed. Three options of an area efficient bootstrap circuit for a high side driver with an output stage of two NMOS transistors are proposed. The key idea is that the main bootstrap capacitor is supported by a second bootstrap capacitor, which is charged to a higher voltage and connected when the gate driver turns on. A high voltage swing at the second capacitor leads to a high charge allocation. Both bootstrap capacitors require up to 70% less area compared to a conventional bootstrap circuit. This enables compact power management systems with fewer discrete components and smaller die size. A calculation guideline for optimum bootstrap capacitor sizing is given. The circuit was manufactured in a 180nm high-voltage BiCMOS technology as part of a high-voltage gate driver. Measurements confirm the benefit of high-voltage charge storing. The fully integrated bootstrap circuit including two stacked 75.8pF and 18.9pF capacitors results in a voltage dip lower than 1V. This matches well with the theory of the calculation guideline.
Die Wahl einer Klinik ist typischerweise dem stellvertretenden Kaufverhalten zuzuordnen – Kunden suchen vertrauenswürdige, persönliche Quellen zur Unterstützung der Entscheidung. Weiterempfehlungsverhalten kann durch Anreize unterstützt werden – grundlegende Voraussetzung für ehrliche Weiterempfehlung ist jedoch Kundenzufriedenheit. Kundenzufriedenheit entsteht durch den Abgleich zwischen erwarteter und empfundener Leistung – das erwartete Leistungsniveau wird häufig durch Unternehmen anderer Branchen determiniert. Individuen sind nicht in der Lage, die Bestandteile einer Erfahrung isoliert zu bewerten, sondern vermengen sie (Halo-Effekt) - Inkonsistenzen führen zu einer Abwertung der Gesamterfahrung. Darum ist im ersten Schritt die Identifikation der Gesamterfahrung (Kundenreise) erforderlich – diese beginnt vor und endet nach der unmittelbaren Interaktion des Kunden mit dem Unternehmen / der Klinik. Im zweiten Schritt sind die Zufriedenheitstreiber und die Interdependenzen zwischen den Einzelerfahrungen zu ermitteln um dann die Optimierung der Kundenreise zu planen und umzusetzen.
Der vorliegende Beitrag stellte die beiden Verfahrensklassen parameterbasierte Verfahren und Suchverfahren für eine energieeffiziente Betriebsführung von Asynchronmaschinen im stationären Zustand kurz vor und zeigte das Potential zur Reduktion der Verlustleistung in stationären Arbeitspunkten für zwei Motoren unterschiedlicher Baugröße. Dabei wurde deutlich, dass insbesondere im unteren Teillastbereich eine erhebliche Verringerung der Verlustleistung erzielt werden kann.
In diesem Beitrag wurde gezeigt, wie ein bereits bekanntes Verfahren zur modellprädiktiven Regelung zur Optimierung der Energieeffizienz einer Asynchronmaschine im dynamischen Betrieb eingesetzt werden kann. Dazu wurden zunächst die Beziehungen für die Verlustleistung bei alleiniger Berücksichtigung der Kupferverluste im dynamischen Betrieb hergeleitet. Ausgehend davon wurde das Optimierungsproblem formuliert, der Einfluss von Parametern des modellprädiktiven Verfahrens auf das Optimierungsergebnis untersucht und damit Vorschlagswerte für diese Parameter ermittelt. Der Vergleich mit zwei weiteren Verfahren ohne Optimierung bzw. mit Optimierung allein für stationäre Arbeitspunkte zeigt die Vorteile des modellprädiktiven Verfahrens.
In the period from the 1950s to 2013, the American Food and Drug Administration (FDA) approved 1346 new molecular entities (NMEs) or new biologics entities (NBEs). On average, the approval rate was 20 NMEs per year. In the past 40 years, the number of new drugs launched into the market increased slightly from 15 NMEs in the 1970s to 25–30 NMEs since the 1990s. The highest number of new drugs approved by FDA was in 1996 and 1997, which might be related to the enactment of the Prescription Drug User Fee Act (PDUFA) in 1993.
Die Regulierung von Banken, Finanzinstituten und Ratingagenturen ist nicht zuletzt seit der letzten Finanzkrise wieder in den Fokus von Politik und Wissenschft geraten. Zahlreiche Banken sind noch aufgrund staatlicher Beteiligungen unter besonderer Aufsicht und gerade in den europäischen Staaten mit hoher Verschuldung wird den Banken eine Mitschuld an der Krise gegeben. Im Fokus sind immer wieder auch die Ratingagenturen, die durch angebliche Fehlurteile und intransparente Methoden und Modelle Unternehmen und Staaten mit ihren Bonitätsurteilen vermeintlich diskriminieren und deren Finanzierungsspielräume einengen. Der Wunsch nach stärkerer Regulierung und Transparenz ist auch im Wahlkampf zum Europaparlament die letzten Wochen erneut spürbar gewesen. Der folgende Beitrag will die historischen Entwicklungen der Regulierungsstufen von Basel I bis Basel III aufzeigen und gleichzeitig die relevanten Institutionen und Normen vorstellen, um auf Basis dieser Übersicht eine kritische Würdigung und Diskussion anzustoßen.
Global acting rating agencies were held responsible for the latest financial market crisis. False estimations in rating, non-transparent methods, processes and systems as well as a lack of qualification of rating analysts have been points of criticism. The level of the tightened regulation of the agencies in the USA and in Europe is pointed out in this article. All relevant institutions and norms as well as the international and national standards from the German point of view are presented and exhaustively analyzed. In doing so it is illustrated, that in this olio-political market one can definitely speak about protection with regard to the admission and accreditation of the agencies.
Current approaches for enterprise architecture lack analytical instruments for cyclic evaluations of business and system architectures in real business enterprise system environments. This impedes the broad use of enterprise architecture methodologies. Furthermore, the permanent evolution of systems desynchronizes quickly model representation and reality. Therefore we are introducing an approach for complementing the existing top-down approach for the creation of enterprise architecture with a bottom approach. Enterprise Architecture Analytics uses the architectural information contained in many infrastructures to provide architectural information. By applying Big Data technologies it is possible to exploit this information and to create architectural information. That means, Enterprise Architectures may be discovered, analyzed and optimized using analytics. The increased availability of architectural data also improves the possibilities to verify the compliance of Enterprise Architectures. Architectural decisions are linked to clustered architecture artifacts and categories according to a holistic EAM Reference Architecture with specific architecture metamodels. A special suited EAM Maturity Framework provides the base for systematic and analytics supported assessments of architecture capabilities.
Knowledge transfer is very important to our knowledge-based society and many approaches have been proposed to describe this transfer. However, these approaches take a rather abstract view on knowledge transfer, which makes implementation difficult. In order to address this issue, we introduce a layered model for knowledge transfer that structures the individual steps of knowledge transfer in more detail. This paper gives a description of the process and also an example of the application of the layered model for knowledge transfer. The example is located in the area of business process modelling. Business processes contain the important knowledge describing the procedures of the company to produce products and services. Knowledge transfer is the fundamental basis in the modelling and usage of Business processes, which makes it an interesting use case for the layered model for knowledge transfer.
Learning and teaching requires the transfer of knowledge from one person to another. Due to the relevance of knowledge many models have been developed for knowledge transfer. However, the process of knowledge transfer has not yet been described completely and the approaches are too vague to facilitate its implementation. This paper contributes to a better understanding of knowledge transfer to support knowledge transfer in teaching. To address this challenge, we depict a layered model for knowledge transfer. The model structures the transfer in several steps and thus identifies major influencing factors. The paper describes the knowledge transfer from one person to another step by step. An example in the area of teaching business process management illuminates the process. The main contribution of this paper is the development of a layered model and its application in teaching.
The recent years and especially the Internet have changed the way on how data is stored. We now often store data together with its creation time-stamp. These data sequences potentially enable us to track the change of data over time. This is quite interesting, especially in the e-commerce area, in which classification of a sequence of customer actions, is still a challenging task for data miners. However, before Standard algorithms such as Decision Trees, Neuronal Nets, Naive Bayes or Bayesian Belief Networks can be applied on sequential data, preparations need to be done in order to capture the information stored within the sequences. Therefore, this work presents a systematic approach on how to reveal sequence patterns among data and how to construct powerful features out of the primitive sequence attributes. This is achieved by sequence aggregation and the incorporation of time dimension into the Feature construction step. The proposed algorithm is described in detail and applied on a real life data set, which demonstrates the ability of the proposed algorithm to boost the classification performance of well known data mining algorithms for classification tasks.
Online credit card fraud presents a significant challenge in the field of eCommerce. In 2012 alone, the total loss due to credit card fraud in the US amounted to $ 54 billion. Especially online games merchants have difficulties applying standard fraud detection algorithms to achieve timely and accurate detection. This paper describes the Special constrains of this domain and highlights the reasons why conventional algorithms are not quite effective to deal with this problem. Our suggested solution for the problem originates from the fields of feature construction joined with the field of temporal sequence data mining. We present Feature construction techniques, which are able to create discriminative features based on a sequence of transaction and are able to incorporate the time into the classification process. In addition to that, a framework is presented that allows for an automated and adaptive change of features in case the underlying pattern is changing.
The recent years and especially the Internet have changed the ways in which data is stored. It is now common to store data in the form of transactions, together with ist creation time-stamp. These transactions can often be attributed to Logical units, e.g., all transactions that belong to one customer. These groups, we refer to them as data sequences, have a more complex structure than tuple-based data. This makes it more difficult to find discriminatory patterns for classification purposes. However, the complex structure potentially enables us to track behaviour and its change over the course of time. This is quite interesting, especially in the e-commerce area, in which classification of a sequence of customer actions is still a challenging task for data miners. However, before standard algorithms such as Decision Trees, Neural Nets, Naive Bayes or Bayesian Belief Networks can be applied on sequential data, preparations are required in order to capture the information stored within the sequences. Therefore, this work presents a systematic approach on how to reveal sequence patterns among data and how to construct powerful features out of the primitive sequence attributes. This is achieved by sequence aggregation and the incorporation of time dimension into the feature construction step. The proposed algorithm is described in detail and applied on a real-life data set, which demonstrates the ability of the proposed algorithm to boost the classification performance of well-known data mining algorithms for binary classification tasks.
Increasing number of studies are focused on how adherent cells respond, in vitro, to different properties of a material. Typical properties are the surface chemistry, topographical cues (at the nano- and micro-scale) of the surface, and the substrate stiffness. Cell Response studies are of importance for designing new biomaterials with applications in cell culture technologies, regenerative medicine, or for medical implants. However, only very few studies take the cell age factor, respectively the donor age, into account. In this work, we tested two types of human vascular cells (smooth muscle and endothelial cells) from old and young donors on (a) micro-structured surfaces made of pol (dimethylsiloxane) or on (b) flat polyacrylamide hydrogels with varying stiffnesses. These experiments reveal age-dependent and cell typedependent differences in the cell response to the topography and stiffness, and may establish the Basis for further studies focusing on cell age-dependent responses.
Stent graft visualization and planning tool for endovascular surgery using finite element analysis
(2014)
Purpose: A new approach to optimize stent graft selection for endovascular aortic repair is the use of finite element analysis. Once the finite element model is created and solved, a software module is needed to view the simulation results in the clinical work environment. A new tool for Interpretation of simulation results, named Medical Postprocessor, that enables comparison of different stent graft configurations and products was designed, implemented and tested. Methods Aortic endovascular stent graft ring forces and sealing states in the vessel landing zone of three different configurations were provided in a surgical planning software using the Medical Imaging Interaction Tool Kit (MITK) Software system. For data interpretation, software modules for 2D and 3D presentations were implemented. Ten surgeons evaluated the software features of the Medical Postprocessor. These surgeons performed usability tests and answered questionnaires based on their experience with the system.
Results: The Medical Postprocessor visualization system enabled vascular surgeons to determine the configuration with the highest overall fixation force in 16 ± 6 s, best proximal sealing in 56±24 s and highest proximal fixation force in 38 ± 12 s. The majority considered the multiformat data provided helpful and found the Medical Postprocessor to be an efficient decision support system for stent graft selection. The evaluation of the user interface results in an ISONORMconform user interface (113.5 points).
Conclusion: The Medical Postprocessor visualization Software tool for analyzing stent graft properties was evaluated by vascular surgeons. The results show that the software can assist the interpretation of simulation results to optimize stent graft configuration and sizing.
Der Beitrag zeigt, welche grundlegenden Managementmethoden und -instrumente sich identifizieren lassen, um den Unterschied zwischen dauerhaft erfolgreichen und nicht erfolgreichen Unternehmen zu erklären. In diesem Konext wird ein Ansatz für einen Leistungsmanagement-Gesamtprozess entwickelt, in dem die zentralen Problemquellen bei der Einführung von Performance Management eingeordnet und erläutert werden.
Der Beitrag stellt ein zentrales Denkraster für die Konzeption eines ganzheitlichen und langfristigen Performance-Management vor. Darin werden fünf gleichberechtigte Teildisziplinen erläutert, die, in ihrer Ausprägung und Kombination, die Themen- und Gestaltungskomplexität eines Leistungsmanagements aufzeigen. Ziel ist es, durch eine leicht verständliche Systematik das komplexe Thema Performance-Management und seine Zusammenhänge begreifbar und kommunizierbar zu machen, ohne dabei ein allgemeingültiges Rezept zu liefern.
Many companies practice performance management in the framework of a heterogeneous, grown mix of numerous separate decisions, instruments, processes and systems and not in terms of a strategically and systematically planned management system. Due to the inefficiency of the above mentioned performance management style, a holistic and integrated approach is a key factor. Performance management must be able to meet central objectives and requirements and set the groundwork for long-term corporate success. This article presents a central approach of the conception of holistic and long-term performance management. The five equal part disciplines are illustrated and demonstrate the issue and composition complexity of a performance management due to their characteristics and combination. The objective of this article is to display and communicate the performance management issue and its context through an easily comprehensible system without following a general recipe.
This paper addresses the following four research questions: 1. How should customer service quality in social media channels be conceptualized on multiple levels? 2. Which aspects of customer service quality are important in enhancing customer satisfaction? 3. What outcomes are effected by customer service quality and customer satisfaction? 4. How effective are customer services delivered through social media channels (as compared to customer services delivered through other channels)?
Compared to diesel or gasoline, using compressed natural gas as a fuel allows for significantly decreased carbon dioxide emissions. With the benefits of this technology fully exploited, substantial increases of engine efficiency can be expected in the near future. However, this will lead to exhaust gas temperatures well below the range required for the catalytic removal of residual methane, which is a strong greenhouse gas. By combination with a countercurrent heat exchanger, the temperature level of the catalyst can be raised significantly in order to achieve sufficient levels of methane conversion with minimal additional fuel penalty. This thesis provides fundamental theoretical background of these so-called heat-integrated exhaust purification systems. On this basis, prototype heat exchangers and appropriate operating strategies for highly dynamic operation in passenger cars are developed and evaluated.
Durch schnell schaltende Leistungsendstufen werden durch kapazitive Umladeströme Störungen ins Substrat und in empfindliche Schaltungselemente eingekoppelt, die dort zur Störung der Funktion führen können. In dieser Arbeit werden Substratstrukturen zur gezielten Ableitung dieser Störungen vorgestellt und ihre Wirksamkeit mit Hilfe von Device Simulation evaluiert. Ohne Ableitstrukturen kann eine Potentialanhebung des Substrats bis zu 20 V entstehen. Die Untersuchungen belegen, dass die Potentialanhebung durch p-Typ Guard-Ringe um 75 %, durch leitende Trenches um 88 % sowie durch Rückseitenmetallisierung um nahezu 100 % reduziert werden kann.
Lean Management ist eine weit verbreitete Methode zur Optimierung der gesamten Wertschöpfungskette industrieller Güter. Die hier untersuchte Methode ergänzt die bestehenden Kennzahlen um einen ökologischen Aspekt und hebt bislang verborgene Potenziale in ungeahnter Höhe. Kunden profitieren von reduzierten Energiekosten und können bereits für anstehende ökologische Richtlinien, zum Beispiel einen PCF (Product Carbon Footprint), entscheidende Vorleistungen treffen.
System- und Schnittstellenbeherrschung, Ideen- und Innovationsmanagement sowie die virtuell integrierte Produkt- und Prozessplanung sind zu entwickelnde Kompetenzen, die der veränderten Rolle des Menschen in der Industrie 4.0 Rechnung tragen. Dezidiert adressiert werden können diese in zukunftsweisend ausgerüsteten Lernfabriken.
In visual adaptive tracking, the tracker adapts to the target, background, and conditions of the image sequence. Each update introduces some error, so the tracker might drift away from the target over time. To increase the robustness against the drifting problem, we present three ideas on top of a particle filter framework: An optical-flow-based motion estimation, a learning strategy for preventing bad updates while staying adaptive, and a sliding window detector for failure detection and finding the best training examples. We experimentally evaluate the ideas using the BoBoT dataseta. The code of our tracker is available online.
An improved gate drive circuit is provided for a power device, such as a transistor. Tue gate driver circuit may in -clude: a current control circuit; a first secondary current source that is used to control the switching transient during turn off of the power transistor and a second secondary current source that is used to control the switching transient during turn on of the power transistor. In operation, the current control circuit operates, during turn on ofthe power transistor, to source a gate drive current to a control node ofthe power transistor and, during turn off ofthe power transistor, to sink a gate drive current from the control node of the power transistor. The first and second secondary current sources adjust the gate drive current to control the voltage or current rate of change and thereby the overshoot during the switching transient.
DMOS transistors in integrated power technologies are often subject to significant self-heating and thus high temperatures, which can lead to device failure and reduced lifetime. Hence, it must be ensured that the device temperature does not rise too much. For this, the influence of the on-chip metallization must be taken into account because of the good thermal conductivity and significant thermal capacitance of the metal layers on top of the active DMOS area. In this paper, test structures with different metal layers and vias configurations are presented that can be used to determine the influence of the onchip metallization on the temperature caused by self-heating. It will be shown how accurate results can be obtained to determine even the influence of small changes in the metallization. The measurement results are discussed and explained, showing how on-chip metallization helps to lower the device temperature. This is further supported by numerical simulations. The obtained insights are valuable for technology optimization, but are also useful for calibration of temperature simulators.
Advanced power semiconductors such as DMOS transistors are key components of modern power electronic systems. Recent discrete and integrated DMOS technologies have very low area-specific on-state resistances so that devices with small sizes can be chosen. However, their power dissipation can sometimes be large, for example in fault conditions, causing the device temperature to rise significantly. This can lead to excessive temperatures, reduced lifetime, and possibly even thermal runaway and subsequent destruction. Therefore, it is required to ensure already in the design phase that the temperature always remains in an acceptable range. This paper will show how self-heating in DMOS transistors can be experimentally determined with high accuracy. Further, it will be discussed how numerical electrothermal simulations can be carried out efficiently, allowing the accurate assessment of self-heating within a few minutes. The presented approach has been successfully verified experimentally for device temperatures exceeding 500 ◦C up to the onset of thermal runaway.
Crosslinked thermoplastics
(2014)
Cross-linked thermoplastics represent an important class of materials for numerous applications such as heat-shrinkable tubing, rotational molded parts, and polyolefin foams. By cross-linking olefins, their mechanical performance can be significantly enhanced. This chapter covers the three main methods for the cross-linking of thermoplastics: radiation cross-linking, chemical cross-linking with organic peroxides, and cross-linking using silane-grafting agents. It also considers the major effects of the cross-linking procedure on the performance of the thermoplastic materials discussed.
Das Buch beinhaltet Übungsaufgaben, die im Rahmen der Vorlesung Fluidmechanik im 3. Semester des Bachelorstudiengangs Maschinenbau an der Fakultät Technik der Hochschule Reutlingen behandelt werden. Diese Übungsaufgaben sind zum größten Teil alte Prüfungsaufgaben und betreffen vier Kapitel aus der Vorlesung Fluidmechanik. Diese sind "Fluidstatik", "Fluiddynamik", "Impulssatz" und "verlustbehaftete Strömungen". Anhand der angegebenen ausführlichen Lösungen sind die Studierenden in der Lage, den Lösungsweg einzelner Aufgaben zu verifizieren und können sich so optimal auf die Prüfung vorbereiten.
Today 40 Gbps is in development at IEEE 802.3bq over four pair balanced cabling. In this paper, we describe a transmission experiment of 25 Gbps enabling either a single pair transmission of 25 Gbps over a 30 meter balanced cabling channel, or a 100 Gbps transmission via a four-pair balanced channel. A scalable matrix modeling tool is introduced which allows the prediction of transmission characteristics of a channel taking mode conversion into account . We applied this tool to characterize PCB-channels including the magnetics and PCB for a four-pair 100 Gbps transmission. We evaluated prototype cables and connecting hardware for frequencies up to 2 GHz and beyond. Finally we investigated possible line encoding schemes and provide measurement results of a transmission over 30 m with a data rate of 25 Gbps per twisted pair.
Marketing mit Facebook
(2014)
Die Integration von Facebook in ein bestehendes Marketingkonzept avanciert zunehmend zum Erfolgsfaktor innovativer Unternehmen. Das Marketing mit diesem sozialen Netzwerk ist dabei nicht auf die Kommunikationspolitik determiniert, sondern bietet die Möglichkeit, einen nachhaltigen Mehrwert im gesamten Marketing-Mix zu generieren. Vor diesem Hintergrund stellt Facebook aktuell das meist eingesetzte Social Marketing Instrument in Deutschland dar. Im Kontrast zum steigenden Bewusstsein der Vorteile dieses Marketingkanals bleiben die Risiken einer inadäquaten Nutzung von Social Media oftmals ungeachtet. Die übereilte und unsachgemäße Implementierung von Facebook in den Marketing-Mix kann sowohl in enormen ökonomischen Schäden als auch in einem Reputationsverlust münden. Um das beschriebene Risiko zu minimieren, besteht das Ziel dieser wissenschaftlichen Arbeit in der erläuternden Darstellung notwendiger und hinreichender Bedingungen eines erfolgreichen Facebook-Marketing. Die herausgearbeiteten Erfolgsfaktoren fußen auf Best-Practice-Beispielen und geben einen detaillierten Aufschluss über die Ursachen erfolgreicher Marketing-Kampagnen. Dabei wird zwischen den einzelnen Instrumenten des Marketing-Mix unterschieden. Infolgedessen können dieser Arbeit in Abhängigkeit vom Grad der angestrebten Facebook-Integration elementare Handlungsempfehlungen für die Produkt-, Preis-, Kommunikations- und Distributionspolitik entnommen werden.
Musik, Filme und Eintrittskarten im Internet zu kaufen, ist für einen Großteil der deutschen Bevölkerung schon seit vielen Jahren ganz alltäglich geworden. Auch elektronische Geräte und Bücher finden häufig ihren Käufer per Mausklick. Selbst Bekleidung und Schuhe aus dem Internet erfreuen sich zunehmender Beliebtheit. Nur ein sehr kleiner Teil aller Deutschen hat jedoch bereits einmal seinen Lebensmitteleinkauf im Netz getätigt. Noch weniger kaufen ihre Lebensmittel regelmäßig oder ausschließlich online. So erscheint der Lebensmitteleinzelhandel wie eine der letzten stationären Bastionen.
Seit der Jahrtausendwende versuchen Anbieter in Deutschland, Konsumenten vom Mehrwert des Lebensmittel-Onlinekaufs zu überzeugen – bislang nahezu erfolglos. Dennoch, im Ausland, speziell in England, Frankreich und Südkorea, hat der Lebensmittel-Onlinehandel bereits eine signifikante Größe erreicht. Auch in Deutschland zeigen Untersuchungen mittlerweile ein gestiegenes Interesse der Verbraucher an diesem Angebot. Dies führte zu einer regelrechten Flut neuer Anbieter im Lebensmittel-Onlinehandel in den letzten Jahren. Das Thema E-Commerce ist damit ganz oben auf der Prioritätenliste deutscher Lebensmitteleinzelhändler angekommen.
Männer und Frauen sind unterschiedlich und handeln unterschiedlich. Diese Erkenntnis bildet das Fundament des Gender Marketing, das sowohl in der Theorie als auch in der Praxis zu-nehmend an Bedeutung gewinnt. Eine erfolgreiche Umsetzung dieser Disziplin ist für Unter-nehmen eine wichtige Herausforderung für die Zukunft und kann darüber hinaus ein entschei-dendes Differenzierungsmerkmal im Wettbewerb sein.
Im Rahmen dieser Arbeit wird zunächst auf aktuelle Entwicklungen und Erkenntnisse aus der Theorie des Gender Marketing eingegangen. Im Anschluss werden Umsetzungsbeispiele aus der Handelspraxis vorgestellt. Hierbei werden sowohl Best Practices als auch mögliche Risi-ken aufgezeigt. Es folgt die Vorstellung der Aktivitäten von ALDI SÜD im Bereich des Gen-der Marketing. Abschließend werden die gesammelten Erkenntnisse zusammengefasst und Handlungsempfehlungen ausgesprochen.
Ambush Marketing im Sport : wie Nicht-Sponsoren Sportveranstaltungen zur Markenkommunikation nutzen
(2014)
Insbesondere internationale sportliche Großereignisse wie Fußball-Welt- und Europameisterschaften oder Olympische Spiele bilden für zahlreiche Unternehmen die ideale Plattform, um ihr Markenmanagement und ihre kommunikative Zielgruppenansprache in ein attraktives sportliches Umfeld einzubetten. Sport-Event-Veranstalter verkaufen deshalb privilegierte Vermarktungsrechte ihres Events an offizielle Sponsoren, die im Gegenzug exklusive Möglichkeiten erwerben, das Event werblich für sich zu nutzen. Ambush Marketing dagegen kennzeichnet die Vorgehensweise von Unternehmen, die keine Vermarktungsrechte an einer Veranstaltung besitzen, aber dennoch durch ihre Marketingmaßnahmen in unterschiedlicher Art und Weise eine Verbindung zu diesem Event aufbauen. Der Grat zwischen der Verletzung von Sponsorenrechten und kreativ-innovativer Kommunikationspolitik ist dabei oft sehr schmal, weswegen Ambush Marketing kontrovers diskutiert…diskutiert wird.
Ambush marketing in sports
(2014)
A sports event organizer sells exclusive marketing rights for his event to official sponsors, who, in return, acquire exclusive options to utilize the event for their own advertising purposes. Ambush marketing is the practice by companies of using their own marketing, particularly marketing communications activities, to create an impression of an association with the event to the event audience, although the companies in question have no legal or only underprivileged or non-exclusive marketing rights for this event sponsored by third parties. So, the objective of ambush marketing is to benefit from the success of sports sponsorship without having the duties of an official sponsor.
It is fine line between creative marketing communication and infringing on sponsorship rights. From the perspective of the event organizers and sports sponsors ambush marketing represents an understandable threat, while from the perspective of the ambushers it offers the opportunity to reach the target audience in an attractive environment and at affordable cost. The paper defines and structures the phenomenon of ambush marketing and analyses the impacts of ambush marketing in sports. The results of an empirical study on the effects of ambush marketing in the frame of the FIFA Soccer World cup are presented and discussed.
Im März dieses Jahres fand der Steuerprozess gegen Uli Hoeneß statt, der mit einer Verurteilung des damaligen Präsidenten und Aufsichtsratsvorsitzenden des FC Bayern München endete. Vor, während und nach dem mit Spannung erwarteten Prozess stellte das Deutsche Institut für Sportmarketing (DISM) in Kooperation mit dem Felddienstleister Norstat Germany über 7.000 Probanden in Deutschland im Rahmen einer Online-Befragung verschiedene Fragen zum Sportmarketing in Verbindung mit der Steueraffäre. Auf die zentralen Ergebnisse dieser Befragung wird im vorliegenden Forschungsreport eingegangen.
Bruno Banani hatte sportlich bei den Olympischen Winterspielen 2014 in Sotschi im Wettkampf der Rennrodler nichts zu melden. Dennoch erregt die exotische Kunstfigur aus Tonga nahezu so viel Aufmerksamkeit wie Olympiasieger im selben Wettbewerb, Felix Loch – dank der umstrittenen Werbestrategie Ambush Marketing. Ambush Marketing ist die Vorgehensweise von Unternehmen, dem direkten und indirekten Publikum eines (Sport-)Events durch eigene Marketing-, insbesondere Kommunikationsmaßnahmen den Eindruck einer Verbindung zum Event zu signalisieren, obwohl die betreffenden Unternehmen keine legalisierten oder lediglich unterprivilegierte Vermarktungsrechte an dieser von Dritten gesponserten Veranstaltung besitzen. Auf diese Weise wollen Ambusher analog offiziellen Sponsoren über eine Assoziation mit dem Event in der Wahrnehmung der Rezipienten Produkte bewerben und verkaufen.
Im März 2014 fand der Steuerprozess gegen Uli Hoeneß statt, der mit einer Verurteilung des damaligen Präsidenten und Aufsichtsratsvorsitzenden des FC Bayern München endete. Im Vorfeld des mit Spannung erwarteten Prozesses stellte das Deutsche Institut für Sportmarketing (DISM) in Kooperation mit Felddienstleister Norstat Germany 1.014 internetrepräsentativen Personen in Deutschland im Rahmen einer Online-Befragung verschiedene Fragen aus Sicht des Sportmarketing. Auf die zentralen Ergebnisse dieser Befragung wird im vorliegenden Beitrag eingegangen.
Am 12. Juni beginnt mit dem Eröffnungspiel Brasilien gegen Kroation die Fußball-Weltmeisterschaft 2014 in Brasilien. Doch ein anderer Wettstreit begann schon viel früher: die Schlacht der Ausrüster. Adidas und Nike liefern sich einen erbitterten Kampf um Trikots und Schuhe der Stars. Fairness wird dabei oftmals nur klein geschrieben. Der vorliegenden Beitrag gibt einen Einblick in den "Krieg der Schuhe und Trikots".
Rund ein Drittel seiner Erlöse investiert Red Bull Medienberichten zufolge in sein Marketing - der allergrößte Teil davon landet im Sport. Red Bull hat damit die meisten Konkurrenten im Sportsponsoring längst abgehängt. Um jedoch Coca-Cola als Weltmarke zu verdrängen, schwenkt der Konzern von seiner bewährten Strategie ab. Ob das funktioniert, wird im vorliegenden Beitrag analysiert.
Gesundheit ist ein Megatrend und zugleich ein wesentlicher Motor des Sportmarktes. Es fließt nicht nur Schweiß, sondern auch viel Geld. Mit immer mehr Fashion und dem Streben nach einem Must-have-Status bringen sich die Sportmarken in Stellung. Dabei setzen sie verstärkt auf stationäre und virtuelle Direktvermarktung. Insbesondere Sportmerchandisingartikel waren im Jahr der Fußball-Weltmeisterschaft 2014 ein Erfolgsgarant.
Fußball-Weltmeisterschaften sind immer auch Materialschlachten der Ausrüster. Manchmal ist sogar die Rede vom "Krieg der Triktos und Schuhe". Der vorliegende Beitrag zeigt, welcher Sportartikelhersteller bei der WM 2014 in Brasilien und im globalen Kampf um die Vorherrschaft auf die richtigen Mannschaften und Verkaufsstrategien setzt.
Die wirtschaftliche Rolle des Sportmerchandisings wird in Zukunft eine noch größere Rolle spielen
(2014)
2004 veröffentlichten Mark Zuckerberg und seine Mitbegründer Dustin Moskovitz, Chris Hughes und Eduardo Saverin "The Facebook" von ihrem Harvard-Wohnheimzimmer aus. In nur einem Jahr konnte Facebook seine Nutzerzahl auf eine Million steigern. Im Juli 2010 knackte das soziale Netzwerk bereits die 500-Millionen-Grenze.
The spreading area of cells has been shown to play a central role in the determination of cell fate and tissue morphogenesis; however, a clear understanding of how spread cell area is determined is still lacking. The observation that cell area and force generally increase with substrate rigidity suggests that cell area is dictated mechanically, by means of a force-balance between the cell and the substrate. A simple mechanical model, corroborated by experimental measurements of cell area and force is presented to analyze the temporal force balance between the cell and the substrate during spreading. The cell is modeled as a thin elastic disc that is actively pulled by lamellipodia protrusions at the cell front. The essential molecular mechanisms of the motor activity at the cell front, including, actin polymerization, adhesion kinetics, and the actin retrograde flow, are accounted for and used to predict the dynamics of cell spreading on elastic substrates; simple, closed-form expressions for the evolution of cell size and force are derived. Time-resolved, traction force microscopy, combined with measurements of cell area are performed to investigate the simultaneous variations of cell size and force. We find that cell area and force increase simultaneously during spreading but the force develops with an apparent delay relative to the increase in cell area. We demonstrate that this may reflect the strain-stiffening property of the cytoskeleton. We further demonstrate that the radial cell force is a concave function of spreading speed and that this may reflect the strengthening of cell–substrate adhesions during spreading.
To improve the energy conversion efficiency of solar organic cells, the clue may lie in the development of devices inspired by an efficient light harvesting mechanism of some aquatic photosynthetic microorganisms that are adapted to low light intensity. Consequently, we investigated the pathways of excitation energy transfer (EET) from successive light harvesting pigments to the low energy level inside the phycobiliprotein antenna system of Acaryochloris marina, a cyanobacterium, using a time resolved absorption difference spectroscopy with a resolution time of 200 fs. The objective was to understand the actual biochemical process and pathways that determine the EET mechanism. Anisotropy of the EET pathway was calculated from the absorption change trace in order to determine the contribution of excitonic coupling. The results reveal a new electron energy relaxation pathway of 14 ps inside the phycocyanin component, which runs from phycocyanin to the terminal emitter. The bleaching of the 660 nm band suggests a broader absorption of the terminal emitter between 660 nm and 675 nm. Further, there are trimer depolarization kinetics of 450 fs and 500 fs in high and low ionic strength, respectively, which arise from the relaxation of the β84 and α84 in adjacent monomers of phycocyanin. Under conditions of low ionic strength buffer solution, the evolution of the kinetic amplitude during the depolarization of the trimer is suggestive of trimer conservation within the phycocyanin hexamer. The anisotropy values were 0.38 and 0.40 in high and in low ionic strength, respectively, indicating that there is no excitonic delocalization in the high energy level of phycocyanin hexamers.
We investigated the excitation modes of the light-harvesting protein phycocyanin (PC) from Thermosynechococcus vulcanus in the crystalline state using UV and near-infrared Raman spectroscopy. The spectra revealed the absence of a hydrogen out-of-plane wagging (HOOP) mode in the PC trimer, which suggests that the HOOP mode is activated in the intact PC rod, while it is not active in the PC trimer. Furthermore, in the PC trimer an intense mode at 984 cm−1 is assigned to the C–C stretching vibration while the mode at 454 cm−1 is likely due to ethyl group torsion. In contrast, in the similar chromophore phytochromobilin the C5,10,15-D wag mode at 622 cm−1 does not come from a downshift of the HOOP. Additionally, the absence of modes between 1200 and 1300 cm−1 rules out functional monomerization. A correlation between phycocyanobilin (PCB) and phycoerythrobilin (PEB) suggests that the PCB cofactors of the PC trimer appear in a conformation similar to that of PEB. The conformation of the PC rod is consistent with that of the allophycocyanin (APC) trimer, and thus excitonic flow is facilitated between these two independent light harvesting compounds. This excitonic flow from the PC rod to APC appears to be modulated by the vibration channels during HOOP wagging, C = C stretching, and the N–H rocking in-plan vibration.
Dynamik beim Schleifen
(2014)
Schleifen ist ein Bearbeitungsverfahren zur Erzeugung höchster Oberflächengenauigkeiten. In vielen Fällen sind geschliffene Oberflächen Funktionsflächen der späteren Bauteile, bei denen es nicht nur auf die Maß- und Formhaltigkeit, sondern auch auf die Rauheit und das optische Erscheinungsbild ankommt. Doch viele Einflussgrößen aller an der Zerspanung beteiligten Komponenten können das Schleifergebnis trüben. An der FH Reutlingen forscht man daran, diese Einflussgrößen in den Griff zu bekommen.
Die Hochschule Reutlingen hat eine vergleichende Untersuchung an Spannfuttern für Schaftfräser vorgenommen. Fazit: Die Steifigkeit einer Aufnahme hat einen stärkeren Einfluss auf das Schwingverhalten als das Dämpfungsvermögen.
Das dynamische Verhalten von Werkzeugmaschinen besitzt entscheidenden Einfluss auf die Bearbeitungsergebnisse. Zusammen mit dem Eigenverhalten der Maschine und dem Werkstück ergibt dies die für die Bearbeitungsgenauigkeit entscheidende statische Steifigkeit und die dynamische Nachgiebigkeit. Im Folgenden wird das Zusammenspiel dieser Komponenten im System näher dargestellt.
Bei der Zerspanung mit geometrisch definierter Schneide (z.B. Drehen, Fräsen, Bohren, Reiben, Sägen, Hobeln, Stoßen, Räumen) werden Zerspanwerkzeuge mit einer definierten Schneidengeometrie verwendet. Die Werte der einzelnen geometrischen Maße basieren auf Richt- und Erfahrungswerten. Die Definition der einzelnen Geometriemerkmale (z.B. Winkel) sind in DIN 6581 enthalten. In den letzten Jahren wurden zur Ermittlung des Prozessverhaltens unterschiedlicher Geometrieparameter Forschungsprojekte durchgeführt, die die Einflüsse der Schneidengestaltung untersuchen (z.B. Zabel 2010). Die Schneidengeometrie wird in der Regel mit den Verfahren Schleifen, Erodieren oder Laserbearbeitung erzeugt. Die Werkzeuge werden auf Universal- oder Spezial(werkzeugschleif)maschinen hergestellt und aufbereitet. Die Ausstattung und der Automatisierungsgrad richtet sich nach den zu bearbeitenden Merkmalen der Werkzeuge und deren Häufigkeit.
Die Diskussion um Nachhaltigkeit und Ressourcenschonung hat die gesamte Industrie erreicht. Das Interesse an Naturfasern und Recyclingmaterialien ist gestiegen. An der Fakultät Textil und Design der Hochschule Reutlingen befasst sich die Forschungsgruppe Textile Verfahrenstechnik und Produktentwicklung in enger Kooperation mit mittelständischen Unternehmen mit Naturfasern und Recyclingmaterialien.
The use of Wireless Sensor and Actuator Networks (WSAN) as an enabling technology for Cyber-Physical Systems has increased significantly in recent past. The challenges that arise in different application areas of Cyber- Physical Systems, in general, and in WSAN in particular, are getting the attention of academia and industry both. Since reliability issues for message delivery in wireless communication are of critical importance for certain safety related applications, it is one of the areas that has received significant focus in the research community. Additionally, the diverse needs of different applications put different demands on the lower layers in the protocol stack, thus necessitating such mechanisms in place in the lower layers which enable them to dynamically adapt. Another major issue in the realization of networked wirelessly communicating cyber-physical systems, in general, and WSAN, in particular, is the lack of approaches that tackle the reliability, configurability and application awareness issues together. One could consider tackling these issues in isolation. However, the interplay between these issues create such challenges that make the application developers spend more time on meeting these challenges, and that too not in very optimal ways, than spending their time on solving the problems related to the application being developed. Starting from some fundamental concepts, general issues and problems in cyber-physical systems, this chapter discusses such issues like energy-efficiency, application and channel-awareness for networked wirelessly communicating cyber-physical systems. Additionally, the chapter describes a middleware approach called CEACH, which is an acronym for Configurable, Energy-efficient, Application- and Channel-aware Clustering based middleware service for cyber-physical systems. The state of-the art in the area of cyberphysical systems with a special focus on communication reliability, configurability, application- and channel-awareness is described in the chapter. The chapter also describes how these features have been considered in the CEACH approach. Important node level and network level characteristics and their significance vis-àvis the design of applications for cyber physical systems is also discussed. The issue of adaptively controlling the impact of these factors vis-à-vis the application demands and network conditions is also discussed. The chapter also includes a description of Fuzzy-CEACH which is an extension of CEACH middleware service and which uses fuzzy logic principles. The fuzzy descriptors used in different stages of Fuzzy-CEACH have also been described. The fuzzy inference engine used in the Fuzzy-CEACH cluster head election process is described in detail. The Rule-Bases used by fuzzy inference engine in different stages of Fuzzy-CEACH is also included to show an insightful description of the protocol. The chapter also discusses in detail the experimental results validating the authenticity of the presented concepts in the CEACH approach. The applicability of the CEACH middleware service in different application scenarios in the domain of cyberphysical systems is also discussed. The chapter concludes by shedding light on the Publish-Subscribe mechanisms in distributed event-based systems and showing how they can make use of the CEACH middleware to reliably communicate detected events to the event-consumers or the actuators if the WSAN is modeled as a distributed event-based system.