Refine
Document Type
- Journal article (1244)
- Conference proceeding (1039)
- Book chapter (381)
- Book (223)
- Doctoral Thesis (54)
- Working Paper (38)
- Anthology (32)
- Report (25)
- Patent / Standard / Guidelines (24)
- Issue of a journal (19)
Is part of the Bibliography
- yes (3088)
Institute
- ESB Business School (1107)
- Informatik (875)
- Technik (509)
- Life Sciences (343)
- Texoversum (220)
- Zentrale Einrichtungen (16)
Publisher
- Springer (473)
- IEEE (252)
- Elsevier (243)
- Hochschule Reutlingen (191)
- MDPI (99)
- Wiley (72)
- Gesellschaft für Informatik e.V (69)
- Universität Tübingen (65)
- De Gruyter (60)
- VDE Verlag (48)
Zwar war die Dramapädagogik nicht Konferenzschwerpunkt und eine eigene Sektion zum Thema wurde nicht – wie etwa 2009 – angeboten, dennoch gab es auf dem 26. DGFF Kongress meiner Ansicht nach für am Thema interessierte Lehrende und Forschende gute Impulse und Einblicke in einige derzeit im deutschsprachigen Raum laufende dramapädagogische Forschungsprojekte. Als mögliche Themen für weitere Forschung und/oder dramapädagogische 'Lobbyarbeit' schienen sich jedoch zwei Bereiche besonders herauszukristallieren: Wie können dramapädagogischer Elemente sinnvoll in den regulären Unterrichtsablauf eingebettet werden, so, dass diese Elemente von Lehrkräften und Schülern nicht nur als dekoratives 'nice to have' (etwa für die letzten 10 Minuten der Stunde) empfunden werden? Und sind dramapädagogische Elemente tatsächlich nur etwas für Lehrkräfte und Lernende mit besonderem 'Talent' und/oder 'Neigung', wie es offenbar diverse KongressteilnehmerInnen empfanden, oder können sie von allen Lehrkräften für alle Lernenden angewendet werden? In diesem Zusammenhang wäre eine weitere Etablierung der Vermittlung von dramapädagogischen Methoden als regulärem Bestandteil einer Lehramtsausbildung sicherlich wünschenswert.
This paper develops a linear and tractable model of financial bubbles. I demonstrate the application of the linear model and study the root causes of financial bubbles. Moreover, I derive leading properties of bubbles. This model enables investors and regulators to react to market dynamics in a timely manner. In conclusion, the linear model is helpful for the empirical verification and detection of financial bubbles.
Usually financial crises go along with bubbles in asset prices, such as the housing bubble in the US in 2007. This paper attempts to build a mathematical model of financial bubbles from an econophysics, and thus a new perspective. I find that agents identify bubbles only with a time delay. Furthermore, I demonstrate that the detection of bubbles is different on either the individual or collective point of view. Second, I utilize the findings for a new definition of asset bubbles in finance. Finally, I extend the model to the study of asset price dynamics with news. In conclusion, the model provides unique insights into the properties and developments of financial bubbles.
Besides the optimisation of the car, energy-efficiency and safety can also be increased by optimising the driving behaviour. Based on this fact, a driving system is in development whose goal is to educate the driver in energy-efficient and safe driving. It monitors the driver, the car and the environment and gives energy-efficiency and safety relevant recommendations. However, the driving system tries not to distract or bother the driver by giving recommendations for example during stressful driving situations or when the driver is not interested in that recommendation. Therefore, the driving system monitors the stress level of the driver as well as the reaction of the driver to a given recommendation and decides whether to give a recommendation or not. This allows to suppress recommendations when needed and, thus, to increase the road safety and the user acceptance of the driving system.
Functionally impaired people have problems with choosing and finding the right clothing. So, they need help in their daily life to wash and manage the clothing. The goal of this work is to support the user by giving recommendations to choose the right clothing, to find the clothing and how to wash the clothing. The idea behind eKlarA is to generate a gateway based system that uses sensors to identify the clothing and their state in the clothing cycle. The clothing cycle consists of (one and more) closet, laundry basket and washing machine in one or several places. The gateway uses the information about the clothing, weather and calendar to support the user in the different steps of the clothing cycle. This allows to give more freedom to the functionally impaired people in their daily life.
The impact of stress of every human being has become a serious problem. Reported impact on persons are a higher rate or health disorders like heart problems, obesity, asthma, diabetes, depressions and many others. An individual in a stressful situation has to deal with altered cognition as well as an affected decision making skill and problem solving. This could lead to a higher risk for accidents in dynamic environments such as automotive. Different papers faced the estimation as well as prediction of drivers’ stress level during driving. Another important question is not only the stress level of the driver himself, but also the influence on and of a group of other drivers in the near area. This paper proposes a system, which determines a group of drivers in a near area as clusters and it derives or computes the individual stress level. This information will be analyzed to generate a stress map, which represents a graphical view about road section with a higher stress influence. Aggregated data can be used to generate navigation routes with a lower stress influence as well as recommend driving behavior to decrease stress influenced driving as well as improve road safety.
Ein wirtschaftlicher Betrieb von KWK-Anlagen ist erreichbar, wenn Geräte mit gutem elektrischen Wirkungsgrad und geringen Anschaffungs- und Wartungskosten eingesetzt werden und der im BHKW erzeugte Strom zum größtmöglichen Anteil im Objekt verbraucht wird. Der Pufferspeicher einer KWK-Anlage sollte ausreichend groß bemessen sein (Flexibilität, Eigenstromoptimierung...). Ein größeres BHKW ist nicht automatisch unwirtschaftlicher aufgrund der geringeren Betriebszeit. Es bietet dagegen ein höheres Potenzial für eine bedarfsgerechte Stromeinspeisung in das Netz.
Equations for fast and exact calculation of a simple model for heat transfer from a bond wire to a cylindrical finite mold package including nonideal heat transfer from wire to mold are presented. These allow for a characterization of an arbitrary mold/bond wire combination. The real mold geometry is approximated using the mold model cylinder radius and the thermal contact conductance of the mold/bond wire interface. For changes in bond and mold material, wire length, diameter, and current transient profiles, the resulting temperature transients can then be predicted. As the method is based on numerical integration of differential equations, arbitrary pulse shapes, which are industrially relevant, can be calculated. Very high thermal contact conductance values (above 40 000 W/m2K heat transfer) have been detected in real package/bond systems. The method was validated by successful comparison with finite element method simulations and alternative calculation methods and measurements.
This paper establishes a unique linkage between economic and sociological theories. I study the root causes of the euro crisis from both perspectives. I find that resolving the euro crisis requires economic and sociological insights, particularly in respect to the design of European institutions, rules, and regulations. I develop a new paradigm in attempt to tackle the euro crisis. This paper demonstrates the importance of an interdisciplinary dialogue and how this may safeguard the future of the Economic and Monetary Union.
Um wirtschaftlichen Wohlstand dauerhaft zu sichern, wurde bereits vor einigen Jahren die "Bildungsrepublik Deutschland" ausgerufen. Doch eine Erhöhung der öffentlichen Ausgaben für Bildung ist ohne passendes Konzept keine Lösung. Ein zentraler Faktor darf nicht in Vergessenheit geraten: Die Qualität eines Bildungswesens steht und fällt mit der Qualität der Lehrer. Cathrin Sikor analysiert die bestehende Struktur von Angebot und Nachfrage im Lehrerarbeitsmarkt und beschreibt, welche Auswirkungen dies auf Lehrerqualität hat. Während sich die Rahmenbedingungen für Berufswahl und Karriere in anderen Bereichen deutlich verändert haben, gleicht das Lehramt im Wesentlichen seiner im Zuge der Industrialisierung entstandenen Form. Ist es an der Zeit für einen neuen Lehrerberuf?
This paper analyzes governance mechanisms for different group sizes. The European sovereign debt crisis has demonstrated the need of efficient governance for different group sizes. I find that self-governance only works for sufficiently homogenous and small neighbourhoods. Second, as long as the union expands, the effect of credible self-governance decreases. Third, spill-over effects amplify the size effect. Fourth, I show that sufficiently large monetary unions, are better off with costly but external governance or a free market mechanism. Finally, intermediate-size unions are most difficult to govern efficiently.
The paper designs a quantum model of decision-making (QMDM) that utilizes neuroscientific evidence. The new model provides both normative and positive implications to economics. First, it enhances the study of decision-making which is an extension of the expected utility theory (EUT) in mathematical economics. Second, we demonstrate how the quantum model mitigates drawbacks of the expected utility theory of today.
Die ideale Ergänzung zum Lehrbuch. Anhand von Übungen und Fallstudien lassen sich in diesem Band die zentralen Kapitel und Themen des erfolgreichen Lehrbuchs "Einführung in das Controlling" optimal wiederholen und vertiefen. Der Aufbau des Übungsbuchs orientiert sich an den wichtigsten im Lehrbuch vorgestellten Controlling-Instrumenten. Zu jedem Werkzeug bietet es Aufgaben und Fragestellungen aus der Praxis. Mithilfe der umfangreichen Fallstudie der X-presso AG, die jetzt auch in Englisch dargestellt wird, können die Studierenden sich die englische Terminologie und Fachsprache aneignen. Zusätzlich werden zusammenhängende und anspruchsvollere Aufgabenstellungen auf Prüfungsniveau angeboten. Hier können die Studierenden trainieren, das gesamte Controlling-Instrumentarium sicher zu beherrschen und anzuwenden. Zur Überprüfung gibt es ausführliche Lösungsvorschläge zu jeder Aufgabe.
Der elektrische Wirkungsgrad stellt eines der wichtigsten Bewertungskriterien für BHKW dar, da über diese Größe ausgedrückt wird, wie viel des Wertproduktes „elektrische Energie“ bezogen auf die eingesetzte oder aufzuwendende Brennstoffenergie produziert werden kann. Ein hoher elektrischer Wirkungsgrad ist somit gleichbedeutend mit hohen Erlösen aus dem Verkauf der erzeugten elektrischen Energie und damit eine grundlegende Voraussetzung für einen wirtschaftlichen Betrieb eines BHKWs. Folglich sind die Hersteller von BHKW bestrebt, den elektrischen Wirkungsgrad ihrer Geräte kontinuierlich zu verbessern und nach oben zu treiben. Dieses Bemühen zeigt sich eindrucksvoll an der Entwicklung der mechanischen Effizienz von Gasmotoren der Firma GE Jenbacher. Während mit Motoren der Baureihe 6 im Leistungsbereich 1,8 – 4,4 MWel im Jahr 1988 eine mechanische Effizienz von 34% erreichbar war, liegt dieser Wert mittlerweile bei etwa 47,5%. Diese enorme Steigerung konnte im Wesentlichen durch eine Erhöhung des mittleren effektiven Zylinderarbeitsdrucks von etwa 10 bar im Jahr 1988 auf derzeit 24 bar erzielt werden. Dabei hilft der Magerbetrieb, der gleichzeitig ein Zurückdrängen der NOx-Emissionen bewirkt, die Klopfgrenze zu höheren Drücken hin zu verschieben. Eine sichere Zündung des Gas-Luft-Gemisches wird durch die Vorkammerzündung erreicht.
Die zunehmende erneuerbare Stromerzeugung erfordert Anstrengungen, um den Angebotsschwankungen und der Verteilungsproblematik entgegen zu wirken. Eine dezentrale und am Bedarf orientierte Stromerzeugung mittels Kraft-Wärme-Kopplung (KWK) kann einen wesentlichen Beitrag leisten, um diese Schwankungen auszugleichen und die Netze zu entlasten. Zu diesem Zweck ist aber ein Steuerungssystem für die KWK-Anlagen erforderlich, das sowohl für die Deckung des Wärmebedarfs im Objekt sorgt, als auch gewährleistet, dass die elektrische Energie genau zu den Zeiten erzeugt wird, zu denen sie im Objekt benötigt wird. Die Entkopplung von Stromerzeugung und Deckung des Wärmebedarfs kann dabei über den standardmäßig vorhandenen Wärmespeicher erfolgen. Dieser stellt damit das zentrale Element der Gesamtanlage dar, für die das Steuerungssystem zur Eigenstromoptimierung im Rahmen des Forschungsvorhabens entwickelt und erprobt werden soll.
Im Rahmen des vorliegenden Zwischenberichtes werden die Ergebnisse des 2. des auf insgesamt drei Jahre angelegten Forschungsprojektes vorgestellt. Im Einzelnen sind die Themen Prognose, Bestimmung des Energieinhaltes im Wärmespeicher, stromoptimiertes Steuerungssystem, Aufbau der Feldtestanlagen, Simulation und sozialwissenschaftliche Begleitforschung beschrieben.
Bei den umfangreichen Arbeiten zur Wärme- und Strombedarfsprognose hat sich gezeigt, dass die naive Prognose, die auf der Übernahme der Daten der Vortage beruht, aufgrund des starken Einflusses des individuellen Nutzerverhaltens eine nur schwer zu verbessernde Vorhersagegüte aufweist. Zur Bestimmung des Energieinhaltes im Wärmespeicher wird eine Sigmoidfunktion zur Beschreibung des Temperaturverlaufs über der Speicherhöhe verwendet. Schwierig ist dabei die Anpassung der vier Funktionsparameter mit nur drei Temperaturmesswerten, was jedoch durch geeignete Randbedingungen erreicht werden kann. Das stromoptimierte Steuerungssystem verwendet die Wärmebedarfskurven bei minimalem und maximalem Energieinhalt des Wärmespeichers als Begrenzungen des Optimierungsbereiches, um so die Deckung des Wärmebedarfs zu jeder Zeit zu gewährleisten. Die zwei im Projekt zur Verfügung stehenden Feldtestanlagen wurden mit zusätzlicher Mess- und Steuerungstechnik nachgerüstet, um das entwickelte Steuerungssystem implementieren und testen zu können. Das Simulationsmodell ist im Hinblick auf verschiedene Speicherkonfigurationen erweitert und auf Basis am BHKW-Prüfstand der Hochschule gewonnener Versuchsdaten verifiziert worden, und im Zuge der sozialwissenschaftlichen Begleitforschung werden die Ergebnisse einer im Rahmen des Projektes angefertigten Studie zu den Hemmnissen der KWK vorgestellt.
Im dritten Jahr der Rezession drehte sich in Mailand alles um die italienische Lebensart und um das Erbe der großen Designer. Die spektakulären Inszenierungen fehlten weitgehend auf der Messe und in den Schauräumen rund um die Via Durini, dafür hatte man sich auf das Produkt konzentriert. Wiederbelebung der Erfolgsmodelle, Überarbeitung in Material und Farbe, Fokus auf große Namen, das waren die Botschaften in Mailand. Eine menschlich existentielle Antwort auf die Krise der letzten Jahre, aber auch Hoffnung und Aufbruchsstimmung waren zu spüren. Die Eurozone erholt sich, politischer Neubeginn und selbstbewusste Kommunikation italienischer Kultur in Stil und Design, das waren die Botschaften, die die Messe und auch die Aussteller des "Fuorisalone" vermittelten.
New storage technologies, such as Flash and Non- Volatile Memories, with fundamentally different properties are appearing. Leveraging their performance and endurance requires a redesign of existing architecture and algorithms in modern high performance databases. Multi-Version Concurrency Control (MVCC) approaches in database systems, maintain multiple timestamped versions of a tuple. Once a transaction reads a tuple the database system tracks and returns the respective version eliminating lock-requests. Hence under MVCC reads are never blocked, which leverages well the excellent read performance (high throughput, low latency) of new storage technologies. Upon tuple updates, however, established implementations of MVCC approaches (such as Snapshot Isolation) lead to multiple random writes – caused by (i) creation of the new and (ii) in-place invalidation of the old version – thus generating suboptimal access patterns for the new storage media. The combination of an append based storage manager operating with tuple granularity and snapshot isolation addresses asymmetry and in-place updates. In this paper, we highlight novel aspects of log-based storage, in multi-version database systems on new storage media. We claim that multi-versioning and append-based storage can be used to effectively address asymmetry and endurance. We identify multi-versioning as the approach to address dataplacement in complex memory hierarchies. We focus on: version handling, (physical) version placement, compression and collocation of tuple versions on Flash storage and in complex memory hierarchies. We identify possible read- and cacherelated optimizations.
This work presents a disconnected transaction model able to cope with the increased complexity of longliving, hierarchically structured, and disconnected transactions. Wecombine an Open and Closed Nested Transaction Model with Optimistic Concurrency Control and interrelate flat transactions with the aforementioned complex nature. Despite temporary inconsistencies during a transaction’s execution our model ensures consistency.
This paper presents a concurrency control mechanism that does not follow a ‘one concurrency control mechanism fits all needs’ strategy. With the presented mechanism a transaction runs under several concurrency control mechanisms and the appropriate one is chosen based on the accessed data. For this purpose, the data is divided into four classes based on its access type and usage (semantics). Class O (the optimistic class) implements a first-committer-wins strategy, class R (the reconciliation class) implements a first-n-committers-win strategy, class P (the pessimistic class) implements a first reader-wins strategy, and class E (the escrow class) implements a firsnreaderswin strategy. Accordingly, the model is called OjRjPjE. Under this model the TPC-C benchmark outperforms other CC mechanisms like optimistic Snapshot Isolation.
The Third International Conference on Advances in Databases, Knowledge, and Data Applications (DBKDA 2011) held on January 23-27, 2011 in St. Maarten, The Netherlands Antilles, continued a series of international events covering a large spectrum of topics related to advances in fundamentals on databases, evolution of relation between databases and other domains, data base technologies and content processing, as well as specifics in applications domains databases. Advances in different technologies and domains related to databases triggered substantial improvements for content processing, information indexing, and data, process and knowledge mining. The push came from Web services, artificial intelligence, and agent technologies, as well as from the generalization of the XML adoption. High-speed communications and computations, large storage capacities, and load-balancing for distributed databases access allow new approaches for content processing with incomplete patterns, advanced ranking algorithms and advanced indexing methods. Evolution on e-business, ehealth and telemedicine, bioinformatics, finance and marketing, geographical positioning systems put pressure on database communities to push the ‘de facto’ methods to support new requirements in terms of scalability, privacy, performance, indexing, and heterogeneity of both content and technology. We take this opportunity to thank all the members of the DBKDA 2011 Technical Program Committee as well as the numerous reviewers. The creation of such a broad and high-quality conference program would not have been possible without their involvement. We also kindly thank all the authors who dedicated much of their time and efforts to contribute to the DBKDA 2011. We truly believe that, thanks to all these efforts, the final conference program consists of top quality contributions. This event could also not have been a reality without the support of many individuals, organizations, and sponsors. We are grateful to the members of the DBKDA 2011 organizing committee for their help in handling the logistics and for their work to make this professional meeting a success. We hope that DBKDA 2011 was a successful international forum for the exchange of ideas and results between academia and industry and for the promotion of progress in database research. We are convinced that the participants found the event useful and communications very open. The beautiful places of St. Maarten surely provided a pleasant environment during the conference and we hope you had a chance to visit the surroundings.
Increasing concerns regarding the world´s natural resources and sustainability continue to be a major issue for global development. As a result several political initiatives and strategies for green or resource-efficient growth both on national and international levels have been proposed. A core element of these initiatives is the promotion of an increase of resource or material productivity. This dissertation examines material productivity developments in the OECD and BRICS countries between 1980 and 2008. By applying the concept of convergence stemming from economic growth theory to material productivity the analysis provides insights into both aspects: material productivity developments in general as well potentials for accelerated improvements in material productivity which consequently may allow a reduction of material use globally. The results of the convergence analysis underline the importance of policy-making with regard to technology and innovation policy enabling the production of resource-efficient products and services as well as technology transfer and diffusion.
Melamine Formaldehyde (MF) resins are thermosetting synthetic materials. The present work deals with the evaluation of the impregnation process, modification of resin structure and abrasion resistant applications. During the industrial process paper is impregnated by aqueous oligomers. The drying procedure and the corresponding residual volatile content is a crucial step during production, because of its influence on the later surface quality. Standard measurement routines do not differentiate between physical and chemical origin. Using TGA and DSC methods, the evaporation of water could be characterized as a clear separation of solvent evaporation and the release of water during condensation. The method could be used to upgrade current quality control as well as reaction condition tuning. According to the characteristics of duroplastic material, the formed network is very dense but also brittle. Challenging applications require highly modified resins in order to decrease the network density. Substances from bio renewable resources offer chemical possibilities for covalent crosslinking. Several substance classes have been tested for compatibility via hydroxyl groups or amines. The addition of polyols under appropriate reaction conditions showed chemical incorporation into the MF prepolymer. NMR methods have been used to characterize the resins. The synthesized polymers represent a suitable alternative for the usage in challenging furniture and flooring laminate applications. MF applications for scratch and wear resistant surfaces are commonly reinforced by multiple layer setups with inorganic particles. Fulfilling normative requirements a one sheet setup of decorative paper has been developed and tested. The incorporation of special corundum particles directly on the decorative printed paper combined with a new coating system resulted in surfaces of the requested quality for wear resistance surfaces.
Die Wahl einer Klinik ist typischerweise dem stellvertretenden Kaufverhalten zuzuordnen – Kunden suchen vertrauenswürdige, persönliche Quellen zur Unterstützung der Entscheidung. Weiterempfehlungsverhalten kann durch Anreize unterstützt werden – grundlegende Voraussetzung für ehrliche Weiterempfehlung ist jedoch Kundenzufriedenheit. Kundenzufriedenheit entsteht durch den Abgleich zwischen erwarteter und empfundener Leistung – das erwartete Leistungsniveau wird häufig durch Unternehmen anderer Branchen determiniert. Individuen sind nicht in der Lage, die Bestandteile einer Erfahrung isoliert zu bewerten, sondern vermengen sie (Halo-Effekt) - Inkonsistenzen führen zu einer Abwertung der Gesamterfahrung. Darum ist im ersten Schritt die Identifikation der Gesamterfahrung (Kundenreise) erforderlich – diese beginnt vor und endet nach der unmittelbaren Interaktion des Kunden mit dem Unternehmen / der Klinik. Im zweiten Schritt sind die Zufriedenheitstreiber und die Interdependenzen zwischen den Einzelerfahrungen zu ermitteln um dann die Optimierung der Kundenreise zu planen und umzusetzen.
The implementation of a web based portal QA solution will lead to a high acceptance of the staff as the usage of commonly known standard software (e.g. web browser) allows intuitive handling. In the daily use a significant simplification of the workflow and Performance enhancement can be achieved by easy access to the check documents. As the data is now saved in a database it can easily be processed and long-term trends can be displayed. Therefore possible errors can be detected much easier and earlier. By the usage of time stamps and user authentication procedures and user responsibilities are comprehensibly documented. As the software is browser based, integration into an existing software Environment is not critical. As only technical QA data is processed, no further data security measures are necessary. A certification as a medical product is not required.
In this work, a web-based software architecture and framework for management and diagnosis of large amounts of medical data in an ophthalmologic reading center is proposed. Data management for multi-center studies requires merging of standing data and repeatedly gathered clinical evidence such as vital signs and raw data. If ophthalmologic questions are involved the data acquisition is often provided by non-medical staff at the point of care or a study center, whereas the medical finding is mostly provided by an ophthalmologist in a specialized reading center. The study data such as participants, cohorts and measured values are administrated at a single data center for the entire study. Since a specialized reading center maintains several studies, the medical staff must learn the different data administration for the different data center. With respect to the increasing number and sizes of clinical studies, two aspects must be considered. At first, an efficient software framework is required to support the data management, processing and diagnosis by medical experts at the reading center. In the second place, this software needs a standardized user-interface that has not to be trained/taylore /adapted for each new study. Furthermore different aspects of quality and security controls have to be included. Therefore, the objective of this work is to establish a multi purpose ophthalmologic reading center, which can be connected to different data centers via configurable data interfaces in order to treat various topics simultaneously.
In diesem Beitrag wurde gezeigt, wie mit Hilfe von Verfahren zur Analyse von Petri–Netzen ein in der Programmiersprache Kontaktplan erstelltes SPS–Programm analysiert werden kann. Das Ziel des Verfahrens ist dabei nicht eine Verifikation im eigentlichen Sinne sondern das Aufdecken von verbotenen oder unerwünschten Zuständen. Im Beitrag wurden Regeln zur Transformation des im Kontaktplan erstellten Ablaufs in ein Petri–Netz angegeben und anhand der Analyse eines fehlerhaft implementierten Ablaufs die Leistungsfähigkeit des Ansatzes vorgestellt. Das Beispiel zeigt, dass Programmfehler bereits vor einem Test an der realen Anlage erkannt werden können. Bei der weiteren Entwicklung des Verfahrens liegt ein Schwerpunkt auf der Verallgemeinerung auf im Kontaktplan entwickelte Programmorganisationseinheiten, die nicht nur reine
Abläufe implementieren. Ein weiterer wichtiger Entwicklungsschritt ist die graphische Unterstützung der Fehlersuche im Erreichbarkeitsgraphen, so dass insgesamt ein leistungsfähiges Werkzeug zur Unterstützung der Implementierung von Ablaufsteuerungen im Kontaktplan zur Verfügung steht.
In diesem Beitrag wurde gezeigt, wie ein bereits bekanntes Verfahren zur modellprädiktiven Regelung zur Optimierung der Energieeffizienz einer Asynchronmaschine im dynamischen Betrieb eingesetzt werden kann. Dazu wurden zunächst die Beziehungen für die Verlustleistung bei alleiniger Berücksichtigung der Kupferverluste im dynamischen Betrieb hergeleitet. Ausgehend davon wurde das Optimierungsproblem formuliert, der Einfluss von Parametern des modellprädiktiven Verfahrens auf das Optimierungsergebnis untersucht und damit Vorschlagswerte für diese Parameter ermittelt. Der Vergleich mit zwei weiteren Verfahren ohne Optimierung bzw. mit Optimierung allein für stationäre Arbeitspunkte zeigt die Vorteile des modellprädiktiven Verfahrens.
Ion Mobility Spectrometry (IMS) is a widely used and `well-known’ technique of ion separation in the gaseous phase based on the differences in ion mobilities under an electric field. All IMS instruments operate with an electric field that provides space separation, but some IMS instruments also operate with a drift gas flow that provides also a temporal separation. In this review we will summarize the current IMS instrumentation. IMS techniques have received an increased interest as new instrumentation and have become available to be coupled with mass spectrometry (MS). For each of the eight types of IMS instruments reviewed it is mentioned whether they can be hyphenated with MS and whether they are commercially available. Finally, out of the described devices, the six most-consolidated ones are compared. The current review article is followed by a companion review article which details the IMS hyphenated techniques (mainly gas chromatography and mass spectrometry) and the factors that make the data from an IMS device change as a function of device parameters and sampling conditions. These reviews will provide the reader with an insightful view of the main characteristics and aspects of the IMS technique.
The Fourth International Conference on Advances in Databases, Knowledge, and Data Applications [DBKDA 2012], held between February 29th and March 5th, 2012 in Saint Gilles, Reunion Island, continued a series of international events covering a large spectrum of topics related to advances in fundamentals on databases, evolution of relation between databases and other domains, data base technologies and content processing, as well as specifics in applications domains databases. Advances in different technologies and domains related to databases triggered substantial improvements for content processing, information indexing, and data, process and knowledge mining. The push came from Web services, artificial intelligence, and agent technologies, as well as from the generalization of the XML adoption. High-speed communications and computations, large storage capacities, and loadbalancing for distributed databases access allow new approaches for content processing with incomplete patterns, advanced ranking algorithms and advanced indexing methods. Evolution on e-business, e-health and telemedicine, bioinformatics, finance and marketing, geographical positioning systems put pressure on database communities to push the ‘de facto’ methods to support new requirements in terms of scalability, privacy, performance, indexing, and heterogeneity of both content and technology. We take here the opportunity to warmly thank all the members of the DBKDA 2012 Technical Program Committee, as well as the numerous reviewers. The creation of such a broad and high quality conference program would not have been possible without their involvement. We also kindly thank all the authors who dedicated much of their time and efforts to contribute to DBKDA 2012. We truly believe that, thanks to all these efforts, the final conference program consisted of top quality contributions. Also, this event could not have been a reality without the support of many individuals, organizations, and sponsors. We are grateful to the members of the DBKDA 2012 organizing committee for their help in handling the logistics and for their work to make this professional meeting a success. We hope that DBKDA 2012 was a successful international forum for the exchange of ideas and results between academia and industry and for the promotion of progress in the fields of databases, knowledge, and data applications. We are convinced that the participants found the event useful and communications very open. We also hope the attendees enjoyed the charm of Saint Gilles, Reunion Island.
An improved gate drive circuit is provided for a power device, such as a transistor. Tue gate driver circuit may in -clude: a current control circuit; a first secondary current source that is used to control the switching transient during turn off of the power transistor and a second secondary current source that is used to control the switching transient during turn on of the power transistor. In operation, the current control circuit operates, during turn on ofthe power transistor, to source a gate drive current to a control node ofthe power transistor and, during turn off ofthe power transistor, to sink a gate drive current from the control node of the power transistor. The first and second secondary current sources adjust the gate drive current to control the voltage or current rate of change and thereby the overshoot during the switching transient.
The Fifth International Conference on Advances in Databases, Knowledge, and Data Applications [DBKDA 2013], held between January 27th- February 1st, 2013 in Seville, Spain, continued a series of international events covering a large spectrum of topics related to advances in fundamentals on databases, evolution of relation between databases and other domains, data base technologies and content processing, as well as specifics in applications domains databases. Advances in different technologies and domains related to databases triggered substantial improvements for content processing, information indexing, and data, process and knowledge mining. The push came from Web services, artificial intelligence, and agent technologies, as well as from the generalization of the XML adoption. High-speed communications and computations, large storage capacities, and loadbalancing for distributed databases access allow new approaches for content processing with incomplete patterns, advanced ranking algorithms and advanced indexing methods. Evolution on e-business, ehealth and telemedicine, bioinformatics, finance and marketing, geographical positioning systems put pressure on database communities to push the ‘de facto’ methods to support new requirements in terms of scalability, privacy, performance, indexing, and heterogeneity of both content and technology. We take here the opportunity to warmly thank all the members of the DBKDA 2013 Technical Program Committee, as well as the numerous reviewers. The creation of such a high quality conference program would not have been possible without their involvement. We also kindly thank all the authors who dedicated much of their time and efforts to contribute to DBKDA 2013. We truly believe that, thanks to all these efforts, the final conference program consisted of top quality contributions. Also, this event could not have been a reality without the support of many individuals, organizations, and sponsors. We are grateful to the members of the DBKDA 2013 organizing committee for their help in handling the logistics and for their work to make this professional meeting a success. We hope that DBKDA 2013 was a successful international forum for the exchange of ideas and results between academia and industry and for the promotion of progress in the fields of databases, knowledge and data applications. We are convinced that the participants found the event useful and communications very open. We also hope the attendees enjoyed the charm of Seville, Spain.
SmartLife ecosystems are emerging as intelligent user-centered systems that will shape future trends in technology and communication. Biological metaphors of living adaptable ecosystems provide the logical foundation for self-optimizing and self-healing run-time environments for intelligent adaptable business services and related information systems with service-oriented enterprise architectures. The present research in progress work investigates mechanisms for adaptable enterprise architectures for the development of service-oriented ecosystems with integrated technologies like Semantic Technologies, Web Services, Cloud Computing and Big Data Management. With a large and diverse set of ecosystem services with different owners, our scenario of service-based SmartLife ecosystems can pose challenges in their development, and more importantly, for maintenance and software evolution. Our research explores the use of knowledge modeling using ontologies and flexible metamodels for adaptable enterprise architectures to support program comprehension for software engineers during maintenance and evolution tasks of service-based applications. Our previous reference enterprise architecture model ESARC -- Enterprise Services Architecture Reference Cube -- and the Open Group SOA Ontology was extended to support agile semantic analysis, program comprehension and software evolution for a SmartLife applications scenario. The Semantic Browser is a semantic search tool that was developed to provide knowledge-enhanced investigation capabilities for service-oriented applications and their architectures.
Nowadays the software development plays an important role in the entire value chain in production machine and plant engineering. An important component for rapid development of high quality software is the virtual commissioning. The real machine is described on the basis of simulation models. Therefore, the control software can be verified at an early stage using the simulation models. Since production machines are produced highly individual or in very small series, the challenge of virtual commissioning is to reduce the effort to the development of simulation models. Therefore, a systematic reuse of the simulation models and the control software for different variants of a machine is essential for an economic use. This necessarily requires a consideration of the variability which may occur between the production machines. This paper analyzes the question of how to systematically deal with the software-related variability in the context of virtual commissioning. For this purpose, first the characteristics of the virtual commissioning and variability handling are considered. Subsequently, the requirements to a so-called variant infrastructure for virtual commissioning are analyzed and possible solutions are discussed.
Social and environmental risk management in supply chains : a survey in the clothing industry
(2015)
Almost daily, news indicates that there are environmental and social problems in globally fragmented supply chains. Even though conceptualisations of sustainable supply chain management suggest supplier-related risk management for sustainable products and processes as substantial for companies, research on how risk management for environmental and social issues in supply chains is performed has so far been neglected. This study aims at analysing both why companies in the clothing industry are performing management of social and environmental risks in their supply chain and what kind of action they are taking. Based on the literature on sustainable supply chain management and supply chain risk management as well as 10 expert interviews, a conceptual model for risk management in sustainable supply chains was developed. This model was tested in an empirical study in the clothing industry. The data were analysed by structural equation modelling. Results of the research show high statistical significance for the respective conceptual model. The main driver to perform risk management in environmental and social affairs is pressures and incentives from stakeholders. While companies’ corporate orientation mainly drives social actions, top management drives environmental affairs for differentiating themselves from competitors.
Quest 3C : an integrative simulation game used to encourage cross-disciplinary thinking and action
(2014)
Interdisciplinary, complex problem-solving and the necessity to communicate effectively in global Teams characterise today’s rapidly changing Business environment. Employers consistently stress the need for business engineering graduates to demonstrate technical expertise, methodological competences and diverse soft skills. The "silo effect" in higher education has partially created a gap between what industry wants and what academia provides. Here we examine how interdisciplinary team teaching and shared ICT might be more effective in bringing higher education teaching in sync with industry and its demands.
Der vorliegende Beitrag stellte die beiden Verfahrensklassen parameterbasierte Verfahren und Suchverfahren für eine energieeffiziente Betriebsführung von Asynchronmaschinen im stationären Zustand kurz vor und zeigte das Potential zur Reduktion der Verlustleistung in stationären Arbeitspunkten für zwei Motoren unterschiedlicher Baugröße. Dabei wurde deutlich, dass insbesondere im unteren Teillastbereich eine erhebliche Verringerung der Verlustleistung erzielt werden kann.
Die Wirkungsgrade ("Normnutzungsgrade") nach DIN 4709 bilden den praktischen Betrieb von Mikro-Blockheizkraftwerken besser ab. Insbesondere bei den thermischen Wirkungsgraden ergeben sich nach DIN 4709 geringere Werte im Vergleich zu stationären Messungen aufgrund der An-/Abfahrverluste und der Speicherverluste. Der Betrieb des Zusatzkessels führt zu einer Reduktion der Primärenergieeinsparung der Gesamtanlage.
Ion Mobility Spectrometry (IMS) is a widely used and ‘well-known’ technique of ion separation in the gaseous phase based on the differences of ion mobilities under an electric field. This technique has received increased interest over the last several decades as evidenced by the pace and advances of new IMS devices available. In this review we explore the hyphenated techniques that are used with IMS, specifically mass spectrometry as an identification approach and a multi-capillary column as a pre-separation approach. Also, we will pay special attention to the key figures of merit of the ion mobility spectrum and how data sets are treated, and the influences of the experimental parameters on both conventional drift time IMS (DTIMS) and miniaturized IMS also known as high Field Asymmetric IMS (FAIMS) in the planar configuration. The present review article is preceded by a companion review article which details the current instrumentation and contains the sections that configure both conventional DTIMS and FAIMS devices. These reviews will give the reader an insightful view of the main characteristics and aspects of the IMS technique.
The purpose of this paper is to review, compare and contrast the body of published literature regarding consumer related emotions in fashion shopping behavior. This paper analyses 39 academic articles which focus on emotions in fashion shopping behavior between 2000 and 2013. Therefore articles which examine the influence of environmental stimuli in a retail setting as well as articles which focus on the impact of factors affecting individuals especially in shopping for fashion were analysed. Most of the articles are based on the SOR paradigm. A larger focus is recently placed on the research of emotions and consumers’ behavior in online fashion environments. The influence of stimuli, occurring in endogenous and exogenous ways, on consumers’ emotion and resulting behavior could be confirmed in most studies. However the determination of addressed emotions is already widely researched, the impact on consumers’ shopping behavior has to be analysed more detailed.
Background
Alzheimer’s disease (AD) is diagnosed based upon medical history, neuropsychiatric examination, cerebrospinal fluid analysis, extensive laboratory analyses and cerebral imaging. Diagnosis is time consuming and labour intensive. Parkinson’s disease (PD) is mainly diagnosed on clinical grounds.
Objective
The primary aim of this study was to differentiate patients suffering from AD, PD and healthy controls by investigating exhaled air with the electronic nose technique. After demonstrating a difference between the three groups the secondary aim was the identification of specific substances responsible for the difference(s) using ion mobility spectroscopy. Thirdly we analysed whether amyloid beta (Aβ) in exhaled breath was causative for the observed differences between patients suffering from AD and healthy controls.
Methods
We employed novel pulmonary diagnostic tools (electronic nose device/ion-mobility spectrometry) for the identification of patients with neurodegenerative diseases. Specifically, we analysed breath pattern differences in exhaled air of patients with AD, those with PD and healthy controls using the electronic nose device (eNose). Using ion mobility spectrometry (IMS), we identified the compounds responsible for the observed differences in breath patterns. We applied ELISA technique to measure Aβ in exhaled breath condensates.
Results
The eNose was able to differentiate between AD, PD and HC correctly. Using IMS, we identified markers that could be used to differentiate healthy controls from patients with AD and PD with an accuracy of 94%. In addition, patients suffering from PD were identified with sensitivity and specificity of 100%. Altogether, 3 AD patients out of 53 participants were misclassified. Although we found Aβ in exhaled breath condensate from both AD and healthy controls, no significant differences between groups were detected.
Conclusion
These data may open a new field in the diagnosis of neurodegenerative disease such as Alzheimer’s disease and Parkinson’s disease. Further research is required to evaluate the significance of these pulmonary findings with respect to the pathophysiology of neurodegenerative disorders.
In der Mikroelektronik werden Chips häufig in Mold-Gehäusen verpackt. Die elektrischen Verbindungen vom Chip zu den Anschlussbeinchen des Gehäuses werden mit Bonddrähten realisiert. Für die Berechnung der Gleichgewichtstemperatur in einem Bonddraht bei konstantem Strom sowie von Temperaturverläufen bei transienten Strömen ist die herkömmliche FEM-Methode langsam und unhandlich. Daher wurde der Bondrechner entwickelt, der ein zylindersymmetrisches Ersatz-Modell für das Package in geeigneten mathematischen Gleichungen abbildet.
Im Gegensatz zum Bondrechner der ersten Generation [1], der auf den Gleichungen von [2] basiert, bietet ein neuer mathematischer Ansatz die Möglichkeit, eine endliche effektive Package-Größe, sowie einen endlichen Wärmeübergang zwischen Bonddraht und Mold-Masse zu berücksichtigen. Ebenso wurde die Berechnung der Interaktion von mehreren benachbarten Drähten verfeinert. Die Berechnung von beliebigen transienten Pulsformen mittlerer Länge wurde ebenfalls verbessert. Eine quadratische Komponente in der Temperaturabhängigkeit des spezifischen Widerstandes des Drahtmaterials kann jetzt ebenfalls berücksichtigt werden.
Die Ergebnisse wurden erfolgreich mit FEM-Berechnungen verglichen und die Geschwindigkeit der Berechnung ist um Größenordnungen schneller als mit kommerziellen FEM-Programmen.
Influence of the respirator on volatile organic compounds : an animal study in rats over 24 hours
(2015)
Long-term animal studies are needed to accomplish measurements of volatile organic compounds (VOCs) for medical diagnostics. In order to analyze the time course of VOCs, it is necessary to ventilate these animals. Therefore, a total of 10 male Sprague–Dawley rats were anaesthetized and ventilated with synthetic air via tracheotomy for 24 h. An ion mobility spectrometry coupled to multi-capillary columns (MCC–IMS) was used to analyze the expired air. To identify background contaminations produced by the respirator itself, six comparative measurements were conducted with ventilators only. Overall, a number of 37 peaks could be detected within the positive mode. According to the ratio peak intensity rat/ peak intensity ventilator blank, 22 peaks with a ratio >1.5 were defined as expired VOCs, 12 peaks with a ratio between 0.5 and 1.5 as unaffected VOCs, and three peaks with a ratio <0.5 as resorbed VOCs. The peak intensity of 12 expired VOCs changed significantly during the 24 h measurement. These results represent the basis for future intervention studies. Notably, online VOC analysis with MCC–IMS is possible over 24 h in ventilated rats and allows different experimental approaches.
Current approaches for enterprise architecture lack analytical instruments for cyclic evaluations of business and system architectures in real business enterprise system environments. This impedes the broad use of enterprise architecture methodologies. Furthermore, the permanent evolution of systems desynchronizes quickly model representation and reality. Therefore we are introducing an approach for complementing the existing top-down approach for the creation of enterprise architecture with a bottom approach. Enterprise Architecture Analytics uses the architectural information contained in many infrastructures to provide architectural information. By applying Big Data technologies it is possible to exploit this information and to create architectural information. That means, Enterprise Architectures may be discovered, analyzed and optimized using analytics. The increased availability of architectural data also improves the possibilities to verify the compliance of Enterprise Architectures. Architectural decisions are linked to clustered architecture artifacts and categories according to a holistic EAM Reference Architecture with specific architecture metamodels. A special suited EAM Maturity Framework provides the base for systematic and analytics supported assessments of architecture capabilities.
Unternehmen arbeiten in Netzwerken mit vielfältigen Lieferanten- und Kundenbeziehungen und an unterschiedlichen Stellen der Wertschöpfungsketten. Dem Supply-Chain-Controlling kommt daher eine sehr hohe Bedeutung im Unternehmen zu. Es unterstützt das Management bei der Gestaltung und Steuerung unternehmensübergreifender Material-, Informations- und Geldflüsse. Dabei soll es die Effizienz und die Effektivität des unternehmerischen Handelns bzw. Entscheidens gewährleisten.
Computational breath analysis is a growing research area aiming at identifying volatile organic compounds (VOCs) in human breath to assist medical diagnostics of the next generation. While inexpensive and non-invasive bioanalytical technologies for metabolite detection in exhaled air and bacterial/fungal vapor exist and the first studies on the power of supervised machine learning methods for profiling of the resulting data were conducted, we lack methods to extract hidden data features emerging from confounding factors. Here, we present Carotta, a new cluster analysis framework dedicated to uncovering such hidden substructures by sophisticated unsupervised statistical learning methods. We study the power of transitivity clustering and hierarchical clustering to identify groups of VOCs with similar expression behavior over most patient breath samples and/or groups of patients with a similar VOC intensity pattern. This enables the discovery of dependencies between metabolites. On the one hand, this allows us to eliminate the effect of potential confounding factors hindering disease classification, such as smoking. On the other hand, we may also identify VOCs associated with disease subtypes or concomitant diseases. Carotta is an open source software with an intuitive graphical user interface promoting data handling, analysis and visualization. The back-end is designed to be modular, allowing for easy extensions with plugins in the future, such as new clustering methods and statistics. It does not require much prior knowledge or technical skills to operate. We demonstrate its power and applicability by means of one artificial dataset. We also apply Carotta exemplarily to a real-world example dataset on chronic obstructive pulmonary disease (COPD). While the artificial data are utilized as a proof of concept, we will demonstrate how Carotta finds candidate markers in our real dataset associated with confounders rather than the primary disease (COPD) and bronchial carcinoma (BC). Carotta is publicly available at http://carotta.compbio.sdu.dk.
Chronic obstructive pulmonary disease (COPD) is a chronic airway inflammatory disease characterized by incompletely reversible airway obstruction. This clinically heterogeneous group of patients is characterized by different phenotypes. Spirometry and clinical parameters, such as severity of dyspnea and exacerbation frequency, are used to diagnose and assess the severity of COPD. The purpose of this study was to investigate whether volatile organic compounds (VOCs) could be detected in the exhaled breath of patients with COPD and whether these VOCs could distinguish COPD patients from healthy subjects. Moreover, we aimed to investigate whether VOCs could be used as biomarkers for classifying patients into different subgroups of the disease. Ion mobility spectrometry was used to detect VOCs in the exhaled breath of COPD patients. One hundred and thirty-seven peaks were found to have a statistically significant difference between the COPD group and the combined healthy smokers and nonsmoker group. Six of these VOCs were found to correctly discriminate COPD patients from healthy controls with an accuracy of 70%. Only 15 peaks were found to be statistically different between healthy smokers and healthy nonsmokers. Furthermore, by determining the cutoff levels for each VOC peak, it was possible to classify the COPD patients into breathprint subgroups. Forced expiratory volume in 1 second, body mass index, and C-reactive protein seem to play a role in the discrepancies observed in the different breathprint subgroups.
When forecasting sales figures, not only the sales history but also the future price of a product will influence the sales quantity. At first sight, multivariate time series seem to be the appropriate model for this task. Nontheless, in real life history is not always repeatable, i.e. in the case of sales history there is only one price for a product at a given time. This complicates the design of a multivariate time series. However, for some seasonal or perishable products the price is rather a function of the expiration date than of the sales history. This additional information can help to design a more accurate and causal time series model. The proposed solution uses an univariate time series model but takes the price of a product as a parameter that influences systematically the prediction. The price influence is computed based on historical sales data using correlation analysis and adjustable price ranges to identify products with comparable history. Compared to other techniques this novel approach is easy to compute and allows to preset the price parameter for predictions and simulations. Tests with data from the Data Mining Cup 2012 demonstrate better results than established sophisticated time series methods.
The fashion retail environment is changing faster than ever. This book shows the latest state of the art in both theory and practice in how to attract customers, turn them into shoppers and to develop them into lovers of any fashion business.
The key-focus lies on a deep understanding of the emotional part during the buying-process. It clearly shows the potential of new digital and social media, and the integration of the on- and offline world within the fashion retail world.
Der lokale Bekleidungseinzelhandel steht unter immer stärkerem Konkurrenzdruck durch Versandunternehmen. Zusätzlich bestehen durch gewachsene Architekturen eine Reihe von Wachstumshemmnissen. Daher sollen hier eine Reihe von Ansätzen zur Gestaltung datenzentrierter Unternehmensarchitekturen für den Bekleidungseinzelhandel vorgestellt werden. Sie basieren auf dem Einsatz von RFID zur Gewinnung von Kundenprofilen in den Niederlassungen und dem Einsatz von Big-Data basierten Auswertungs- und Analysemechanismen. Mit den vorgestellten Konzepten ist es Unternehmen des Bekleidungseinzelhandels möglich, ähnlich wie Versandunternehmen, individuelle Ansprachen des Kunden und Angebote zu entwickeln
Big Data und Cloud Systeme werden zunehmend von mobilen, benutzerzentrierten und agil veränderbaren Informationssystemen im Kontext von digitalen sozialen Netzwerken genutzt. Metaphern aus der Biologie für lebendige und selbstheilende Systeme und Umgebungen liefern die Basis für intelligente adaptive Informationssysteme und für zugehörige serviceorientierte digitale Unternehmensarchitekturen. Wir berichten über unsere Forschungsarbeiten über Strukturen und Mechanismen adaptiver digitaler Unternehmensarchitekturen für die Entwicklung und Evolution von serviceorientierten Ökosystemen und deren Technologien wie Big Data, Services & Cloud Computing, Web Services und Semantikunterstützung. Für unsere aktuellen Forschungsarbeiten nutzen wir praxisrelevante SmartLife Szenarien für die Entwicklung, Wartung und Evolution zukunftsgerechter serviceorientierter Informationssysteme. Diese Systeme nutzen eine stark wachsende Zahl externer und interner Services und fokussieren auf die Besonderheiten der Weiterentwicklung der Informationssysteme für integrierte Big Data und Cloud Kontexte. Unser Forschungsansatz beschäftigt sich mit der systematischen und ganzheitlichen Modellbildung adaptiver digitaler Unternehmensarchitekturen - gemäß standardisierter Referenzmodelle und auf Standards aufsetzenden Referenzarchitekturen, die für besondere Einsatzszenarien auch bei kleineren Anwendungskontexten oder an neue Kontexte einfacher adaptiert werden können. Um Semantik-gestützte Analysen zur Entscheidungsunterstützung von System- und Unternehmensarchitekten zu ermöglichen, erweitern wir unser bisheriges Referenzmodell für ITUnternehmensarchitekturen ESARC – Enterprise Services Architecture Reference Cube – um agile Mechanismen der Adaption und Konsistenzbehandlung sowie die zugehörigen Metamodelle und Ontologien für Digitale Enterprise Architekturen um neue Aspekte wie Big Data und Cloud Kontexte.
In dieser Arbeit wird eine optimierte Bandgap-Referenz zur Erzeugung einer temperaturstabilen Spannung und eines Referenzstroms vorgestellt. Für Low-Power-Anwendungen wurde die Bandgap-Referenz, basierend auf der Brokaw-Zelle, mit minimaler Stromaufnahme und optimierter Chipfläche durch Multi-Emitter-Layout der Bipolartransistoren implementiert. Zusätzliches Merkmal ist ein verbreiteter Versorgungsspannungsbereich von 2,5 bis 5,5 V. Simulationen zeigen, dass eine stabile Ausgangsspannung von 1,218 V und ein Referenzstrom von 1,997 μA realisiert wird. Im Temperaturbereich -40 °C … 50 °C sowie dem gesamten Bereich der Versorgungsspannung beträgt die Genauigkeit der Referenzspannung ± 0,04 % mit einer Gesamtstromaufnahme zwischen 3,5 und 10 μA. Es wird eine Temperaturdrift von 2,18 ppm/K erreicht. Durch das elektronische Trimmen von Widerständen wird der Offset der Ausgangsspannung, bedingt durch Herstellungstoleranzen, auf ±3,5 mV justiert. Die Referenz wird in einer 0,18 μm BiCMOS-Technologie implementiert.
Die Nachfrage nach kompakten Spannungsversorgungen ist in den letzten Jahren stark gestiegen. Vor allem im Bereich der mobilen Geräte wachsen die Anforderung an die Spannungsversorgung hinsichtlich Bauvolumen und Batterielaufzeit. Für die Vollintegration von DC-DC- Wandlern als „Power Supply on Chip“ ist der SC-Wandler (Switched-Capacitor-Wandler) besonders geeignet. Insbesondere für Low-Power-Anwendungen im Bereich 10 mW kann ein SC-Wandler sehr gut, ohne externe Bauelemente, integriert werden. Während es für niedrige Eingangsspannungen (bis zu 5 V) eine Vielzahl an Topologien und Konzepten gibt, wurden SC-Wandler für höhere Eingangsspannungen (> 8 V) bisher nur wenig untersucht. Dieser Beitrag untersucht die wichtigsten Grundlagen für SC-Wandler mit Schwerpunkt auf hoher und zugleich variabler Eingangsspannung im Bereich 5 - 20 V. Am Beispiel eines Multi-Ratio-Wandlers (Wandler mit mehreren Übersetzungsverhältnissen), dem rekursiven SC-Wandler (RSC- Wandler), werden die Anforderungen eines SC- Wandler für hohe Eingangsspannungen herausgearbeitet und diskutiert.
Many future Services Oriented Architecture (SOA) systems may be pervasive SmartLife applications that provide real-time support for users in everyday tasks and situations. Development of such applications will be challenging, but in this position paper we argue that their ongoing maintenance may be even more so. Ontological modelling of the application may help to ease this burden, but maintainers need to understand a system at many levels, from a broad architectural perspective down to the internals of deployed components. Thus we will need consistent models that span the range of views, from business processes through system architecture to maintainable code. We provide an initial example of such a modelling approach and illustrate its application in a semantic browser to aid in software maintenance tasks.
A millimeter-wave power amplifier concept in an advanced silicon germanium (SiGe) BiCMOS technology is presented. The goal of the concept is to investigate the impact of physical limitations of the used heterojunction bipolar transistors (HBT) on the performance of a 77 GHz power amplifier. High current behavior, collectorbase breakdown and transistor saturation can be forced with the presented design. The power amplifier is manufactured in an advanced SiGe BiCMOS technology at Infineon Technologies AG with a maximum transit frequency fT of around 250 GHz for npn HBT’s [1]. The simulation results of the power amplifier show a saturated output power of 16 dBm at a power added efficiency of 13%. The test chip is designed for a supply voltage of 3.3 V and requires a chip size of 1.448 x 0.930 mm².
Es wird das Ziel verfolgt, eine Möglichkeit für die sichere Wiederverwendbarkeit von Schaltungen aus der OTA-Schaltungsklasse bereitzustellen. Hierfür werden ausgewählte OTA-Schaltungstopologien für die "Copy-and-Paste"-Methode vorgestellt. Es wurde im industriellen Umfeld gezeigt, dass sie sich unter der Voraussetzung einer repräsentativen Topologieauswahl – vordimensioniert für den typischen Anwendungsbereich – schon in dieser Form für die Wiederverwendung eignen.
Durch schnell schaltende Leistungsendstufen werden durch kapazitive Umladeströme Störungen ins Substrat und in empfindliche Schaltungselemente eingekoppelt, die dort zur Störung der Funktion führen können. In dieser Arbeit werden Substratstrukturen zur gezielten Ableitung dieser Störungen vorgestellt und ihre Wirksamkeit mit Hilfe von Device Simulation evaluiert. Ohne Ableitstrukturen kann eine Potentialanhebung des Substrats bis zu 20 V entstehen. Die Untersuchungen belegen, dass die Potentialanhebung durch p-Typ Guard-Ringe um 75 %, durch leitende Trenches um 88 % sowie durch Rückseitenmetallisierung um nahezu 100 % reduziert werden kann.
Today’s cars are characterized by many functional variants. There are many reasons for the underlying variability, from the adaptation to diverse markets to different technical aspects, which are based on a cross platform reuse of software functions. Inevitably, this variability is reflected in the model-based automotive software development. A modeling language, which is widely used for modeling embedded software in the automotive industry, is MATLAB/Simulink. There are concepts facing the high demand for a systematic handling of variability in Simulinkmodels. However, not every concept is suitable for every automotive application. In order to present a classification of concepts for modeling variability in Simulink, this paper first has to determine the relevant use cases for variant handling in modelbased automotive software development. Existing concepts for modeling variability in Simulink will then be presented before being classified in relation to the previously determined use cases.
Im Bereich integrierter Schaltungen (ICs) für die Fahrzeugelektronik ist in den letzten Jahren ein Trend zum Einsatz komplexer Mixed-Signal-Komponenten erkennbar. Dies führt dazu, dass ein altes Problem zunehmend in den Fokus der EDA-Entwickler rückt: Während der digitale Entwurfsfluss hoch automatisiert ist, findet der Entwurf analoger Komponenten überwiegend in einem manuellen, zeitaufwändigen und interaktiven Entwurfsstil statt. Die folgende Arbeit beschreibt ein Konzept, diesen Mangel mit Hilfe eines durchgängigen analogen Entwurfsflusses unter Verwendung so genannter Modul-Generatoren zu mildern. Der vorgestellte Ansatz zur Erzeugung von Schaltkreis-Automatismen berücksichtigt die implizite Nutzung von Erfahrungswissen des Designers, bietet eine volle Topologie-Flexibilität und steigert die Wiederverwendung („re-use“) gängiger Schaltungstopologien. Die erreichten Zwischenergebnisse lassen einen erheblichen Nutzen erkennen und zeigen das Potenzial sogenannter „Parametrisierter Schaltkreise“ auf, den Automatisierungsgrad des analogen Schaltungsentwurfs zu steigern.
A configuration-management-database driven approach for fabric-process specification and automation
(2014)
In this paper we describe an approach that integrates a Configuration- Management-Database into fabric-process specification and automation in order to consider different conditions regarding to cloud-services. By implementing our approach, the complexity of fabric processes gets reduced. We developed a prototype by using formal prototyping principles as research methods and integrated the Configuration-Management-Database Command into the Workflow- Management-System Activiti. We used this prototype to evaluate our approach. We implemented three different fabric-processes and show that by using our approach the complexity of these three fabric-processes gets reduced.
Size and cost of a switched mode power supply can be reduced by increasing the switching frequency. This leads especially at a high input voltage to a decreasing efficiency caused by switching losses. Conventional calculations are not suitable to predict the efficiency as parasitic capacitances have a significant loss contribution. This paper presents an analytical efficiency model which considers parasitic capacitances separately and calculates the power loss contribution of each capacitance to any resistive element. The proposed model is utilized for efficiency optimization of converters with switching frequencies >10MHz and input voltages up to 40V. For experimental evaluation a DCDC converter was manufactured in a 180 nm HV BiCMOS technology. The model matches a transistor level simulation and measurement results with an accuracy better than 3.5 %. The accuracy of the parasitic capacitances of the high voltage transistor determines the overall accuracy of the efficiency model. Experimental capacitor measurements can be fed into the model. Based on the model, different architectures have been studied.
Size and cost of a switched mode power supply can be reduced by increasing the switching frequency. The maximum switching frequency and the maximum input voltage range, respectively, is limited by the minimum propagated on-time pulse, which is mainly determined by the level shifter speed. At switching frequencies above 10 MHz, a voltage conversion with an input voltage range up to 50 V and output voltages below 5 V requires an on-time of a pulse width modulated signal of less than 5 ns. This cannot be achieved with conventional level shifters. This paper presents a level shifter circuit, which controls an NMOS power FET on a high-voltage domain up to 50 V. The level shifter was implemented as part of a DCDC converter in a 180 nm BiCMOS technology. Experimental results confirm a propagation delay of 5 ns and on-time pulses of less than 3 ns. An overlapping clamping structure with low parasitic capacitances in combination with a high-speed comparator makes the level shifter also very robust against large coupling currents during high-side transitions as fast as 20 V/ns, verified by measurements. Due to the high dv/dt, capacitive coupling currents can be two orders of magnitude larger than the actual signal current. Depending on the conversion ratio, the presented level shifter enables an increase of the switching frequency for multi-MHz converters towards 100 MHz. It supports high input voltages up to 50 V and it can be applied also to other high-speed applications.
Die sogenannte Systemsimulation, bei der mehrere physikalische Domänen gemeinsam simuliert werden, erlaubt die Analyse komplexer und damit realitätsnaher Systeme und spielt eine zunehmend größere Rolle bei der Auslegung von Komponenten. Enthält das System Teile, die durch Feldgrößen aus unterschiedlichen physikalischen Domänen beschrieben werden müssen, kann man Co-Simulationen einsetzen, die allerdings zeitaufwändig sind. Für die Auslegung des Systems ist es dagegen notwendig, Systemsimulationen schnell durchzuführen zu können. Hierfür können für ausgewählte Bauteile oder Domänen schnellere reduzierte Ersatzmodelle (ROM) eingesetzt werden. In dieser Arbeit stellen wir ein reduziertes Modell für elektromechanische Bauteile mit Berücksichtigung von Wirbelströmen vor. Wirbelstromeffekte hängen nicht nur vom aktuellen Zustand, sondern auch von der Geschichte der elektromagnetischen Domäne ab. Das vorgestellte Ersatzmodell basiert auf Daten, die mit einer Reihe von stationären Feldsimulationen vorab erzeugt werden. Für die Modellierung der geschichtsabhängigen Wirbelstromeffekte wird ein Konvolutionsansatz (Faltungsansatz) verwendet. Vergleiche mit entsprechenden Co-Simulationen in ANSYS Maxwell und Simplorer zeigen am Beispiel eines Hubankers, dass das Ersatzmodell in der Lage ist, die wesentlichen Eigenschaften des Bauteils physikalisch korrekt abzubilden.
Mit der Verfügbarkeit leistungsfähiger Computer haben rechnergestützte Simulationsverfahren überall in Wissenschaft und Technik Einzug gehalten. Die modellbasierte Simulation als "virtuelles Experiment" stellt insbesondere im Entwurf technischer Systeme ein wirksames und längst unverzichtbares Hilfsmittel dar, um Entwicklungsergebnisse hinsichtlich gewünschter Eigenschaften abzusichern. Die Möglichkeiten heutiger Simulationsmethoden sind faszinierend, weshalb gerade Anfänger (aber nicht nur diese) der Gefahr ausgesetzt sind, deren Ergebnisse unkritisch zu übernehmen. Besondere Bedeutung kommt hier der Lehre zu. Neben der Anwendung der Simulationswerkzeuge ist es wichtig, den Studierenden auch deren theoretische Grundlagen nahe zu bringen und damit ihr Bewusstsein hinsichtlich der Grenzen der Simulation zu schärfen. Der Workshop der ASIM/GI-Fachgruppen "Simulation technischer Systeme" und "Grundlagen und Methoden in Modellbildung und Simulation" bringt Fachleute aus Wirtschaft und Wissenschaft zum Erfahrungsaustausch rund um die Simulation zusammen. Hierbei werden alle Aspekte von den Grundlagen über die Methoden bis hin zu Werkzeugen und Anwendungsbeispielen angesprochen.
Einkaufsverhalten in Warenhäusern in Deutschland und USA : Zusammenfassung der Studienergebnisse
(2014)
Die Studie "Einkaufsverhalten in Warenhäusern in Deutschland und USA" unter der Leitung von Prof. Dr. Jochen Strähle (39), International Fashion Management, Hochschule Reutlingen, untersucht die Unterschiede im digitalen Nutzungsverhalten von Warenhauskunden in Deutschland und den USA. In einer Befragung wurden im Jahr 2013 Stationärkäufer in Deutschland und in den USA befragt. Es zeigte ich, dass die amerikanischen Kunden digitale Medien deutlich stärker für ihren Kauf im Warenhaus einsetzen als die deutschen. Signifikante Unterscheide zeigen sich in der Art und Weise des Informationsverhaltens. Deutsche Kunden informieren sich deutlich weniger im Vorfeld über die Produkte als amerikanische Kunden. So gaben über 70 Prozent der Deutschen an, dass sie sich nie oder selten vorab informierten. Bei den Amerikanern informierte sich knapp die Hälfte bereits vorher über die Produkte. Amerikaner nutzen dabei stärker mobile Quellen als Deutsche. So nutzen nur 15 Prozent ihr Smartphone häufig zur Vorabinformationen, wohingegen dies bei mehr als 28 Prozent der Amerikaner der Fall ist. Während in Deutschland noch knapp ein Fünftel gelegentlich bis häufig einen Katalog zur Hand nehmen, nutzt in Amerika nur noch jeder zehnte ein Printkatalog zur Informationssuche. Knapp 30 Prozent der Amerikaner prüfen die Verfügbarkeit der Ware vorab. In Deutschland hingegen sind es nur knapp 15 Prozent.
Bootstrap circuits are mainly used for supplying a gate driver circuit to provide the gate overdrive voltage for a high-side NMOS transistor. The required charge has to be provided by a bootstrap capacitor which is often too large for integration if an acceptable voltage dip at the capacitor has to be guaranteed. Three options of an area efficient bootstrap circuit for a high side driver with an output stage of two NMOS transistors are proposed. The key idea is that the main bootstrap capacitor is supported by a second bootstrap capacitor, which is charged to a higher voltage and connected when the gate driver turns on. A high voltage swing at the second capacitor leads to a high charge allocation. Both bootstrap capacitors require up to 70% less area compared to a conventional bootstrap circuit. This enables compact power management systems with fewer discrete components and smaller die size. A calculation guideline for optimum bootstrap capacitor sizing is given. The circuit was manufactured in a 180nm high-voltage BiCMOS technology as part of a high-voltage gate driver. Measurements confirm the benefit of high-voltage charge storing. The fully integrated bootstrap circuit including two stacked 75.8pF and 18.9pF capacitors results in a voltage dip lower than 1V. This matches well with the theory of the calculation guideline.
Schnittschutzhosen bewahren viele Motorsägen-Benutzer vor Schnittverletzungen. Ob die im Neuzustand der Schnittschutzhose vorhandene Schnittsicherheit auch nach einem intensiven Kontakt mit Kraftstoff und Kettenschmieröl noch gewährleistet ist, wurde im Rahmen eines im Jahr 2013 abgeschlossenen Forschungsprojektes nachgegangen
In this paper, research projects with 30 meter balanced cabling and data rates up to 25 Gbps over one single pair are described. The project aim is to achieve 100 Gbps via a four pair balanced cabling channel. In the following, spectral characteristics of the used prototype twisted pair are presented. Therefore, the insertion loss of the single cable in comparison to the insertion loss of the cable in combination with an equalizing amplifier, as well as the group delay of the cable and the cable connected to the equalizing amplifier is shown. Furthermore, a carrierless Pulse Amplitude Modulation with 32 different levels (PAM-32) as an approach for a possible line encoding is presented. Finally, research measurements of the data transmission with a data rate up to 25 Gbps via shielded twisted pair is shown.
Energy-efficiency and safety became an important factor for car manufacturers. Thus, the cars have been optimised regarding the energy consumption and safety by optimising for example the power train or the engine. Besides the optimisation of the car itself, energy-efficiency and safety can also be increased by adapting the individual driving behaviour to the current driving situation. This paper introduces a driving system, which is in development. Its goal is to optimise the driving behaviour in terms of energy-efficiency and safety by giving recommendations to the driver. For the creation of a recommendation the driving system monitors the driver and the current driving situation as well as the car using in-vehicle sensors and serial-bus systems. On the basis of the acquired data, the driving system will give individual energy-efficiency and safety recommendations in real-time. This will allow eliminating bad driving habits, while considering the driver needs.
"Wer nicht vielfältig denkt, denkt einfältig". Mit diesem Spruch machen Studierende der Hochschule Reutlingen in einem Videoclip auf das Thema Diversity aufmerksam. Doch was verstehen wir eigentlich darunter? Seit September letzten Jahres ist Professorin Dr. Gabriela Tullius Vizepräsidentin der Hochschule Reutlingen und widmet sich unter anderem diesem Bereich. GEA-Campus hat nachgefragt, worum es bei Diversity geht und warum dieser Bereich die Hochschule beschäftigt.
Durch den Rückgang der Studiengebühren gingen die Ausgaben für Medien im Vergleich zum Vorjahr um 12 Prozent zurück. Neben Zeitschriften und Datenbanken wurden 9.210 Bücher und 2.404 E-Books erworben. Die Zahl der Erstausleihen nahm um 5 Prozent, die Zahl der aktiven Bibliotheksbenutzer um 8 Prozent zu. Die Nutzung der elektronischen Zeitschriften stieg um 72 Prozent, die der E-Books um 111 Prozent. Die Zahl der nehmenden Fernleihen nahm um 36 Prozent, die der gebenden Fernleihen um 3 Prozent zu. Die verlängerten Öffnungszeiten werden sehr gut angenommen. Die Bibliothek wird als Lernort - vor allem zur Prüfungsvorbereitung - intensiv genutzt. Im Dezember 2009 wurden die Benutzer zur Aufenthaltsqualität und zur Ausstattung der Bibliothek befragt. Ergebnis: Für die Zukunft wünschen sich die Befragten ein differenziertes Angebot an Arbeitsplätzen, das die unterschiedlichen Lesegewohnheiten und Lernbedürfnisse berücksichtigt.
Im Jahr 2008 profitierte die Bibliothek erneut von den Studiengebühren. Dadurch konnten aktuelle Bücher und E-Books in großem Umfang beschafft, und die meisten studentischen Anschaffungswünsche erfüllt werden. Durch diese Aktualisierung des Bestands stieg die Zahl der Erstausleihen gegenüber dem Vorjahr um 12,7 Prozent. Der gleichzeitige Anstieg der Vormerkungen um 13,7 Prozent zeigt allerdings, dass die Nachfrage immer noch nicht angemessen befriedigt wird. Es gilt also, die Anschaffungspolitik der vergangenen Jahre fortzusetzen, um die Zufriedenheit der Bibliotheksnutzer weiter zu steigern. Eine weitere Serviceverbesserung war die Erweiterung der Öffnungszeiten um 10 Stunden pro Woche: die Bibliothek hat jetzt montags bis freitags von 8 bis 21 Uhr und samstags von 10 bis 18 Uhr geöffnet. Im April 2008 wurde die Bibliotheksfläche im Untergeschoss erheblich erweitert. Zwei ehemalige Unterrichtsräume wurden in die Bibliothek integriert, und mit Hilfe von Studiengebühren der Hochschule eine Arbeitszone mit 50 Leseplätzen zum Selbststudium eingerichtet, die bei Bedarf auch als Schulungsraum genutzt werden kann. Brandschutzbedingte Umbauten im Eingangsbereich boten Gelegenheit, den Garderoben und Ausleihbereich neu zu gestalten: Die Garderobe wurde in die Eingangshalle verlegt und die Theke so umgebaut, dass der Ausleihraum größer und übersichtlicher wirkt. Mit Hilfe von Studiengebühren der Pädagogischen Hochschule wurde ein leistungsstarker Buchscanner beschafft. Auch damit konnte die Servicequalität der Bibliothek erheblich verbessert werden.
Ereignisse, Aktivitäten und Veränderungen 2005:
- Umstellung auf elektronische Erwerbung
- Umgestaltung des Lesesaals
- Neugestaltung der Homepage
- Erweiterung der Öffnungszeiten um 8 Stunden pro Woche
- Erhöhung der Ausleihzahlen um 7 Prozent
- Einrichtung eines Kopierraums
- Durchführung einer Benutzerumfrage
- Organisation einer Ausstellung anlässlich der 150-Jahr-Feier der Hochschule Reutlingen
Durch die Einnahmen aus Studiengebühren konnten die Erwerbungsausgaben der Bibliothek um 75 Prozent gegenüber dem Vorjahr gesteigert werden. Insgesamt wurden 50 Prozent mehr Bücher gekauft als im Jahr zuvor. Dadurch konnte die Literaturversorgung der Hochschulangehörigen erheblich verbessert werden, was sich an den expandierenden Nutzungszahlen erkennen lässt. Im Jahr 2007 verzeichnete die Bibliotheksstatistik 15 Prozent mehr aktive Nutzer und 15 Prozent mehr Erstausleihen als im Jahr zuvor. Trotz dieser positiven Entwicklungen hat im letzten Jahr die Zahl der Vormerkungen um 20 Prozent zugenommen. Das bedeutet, dass die benötigte Literatur sehr häufig verliehen und bei Bedarf nicht verfügbar ist. Im gleichen Zeitraum stieg die Zahl der Fernleihbestellungen um 26 Prozent. Im Berichtsjahr wurden erstmals 1600 E-Books erworben und im Campusnetz bereit gestellt. In Kooperation mit dem Bibliotheksservicezentrum wurde ein Hochschulschriftenserver eingerichtet, der es den Angehörigen beider Hochschulen ermöglicht, ihre Publikationen elektronisch zu veröffentlichen.
Die Medienausgaben der Hochschule Reutlingen nahmen im Vergleich zum Vorjahr um 18 Prozent zu, wobei sich der Schwerpunkt zunehmend von den Printmedien auf die elektronischen Medien verlagert. Bei der Pädagogischen Hochschule gingen die Ausgaben für Medien um 9 Prozent zurück. Die Nutzungszahlen der Bibliothek stiegen in allen Bereichen: Die Zahl der Erstausleihen nahm um 2 Prozent zu, die Zahl der aktiven Bibliotheksbenutzer stieg um 5 Prozent. Die Nutzung elektronischer Medien legte um 39 Prozent zu. Die Zahl der gebenden Fernleihen stieg um 1 Prozent, die der nehmenden Fernleihen sank um 8 Prozent. Diese Zahlen spiegeln die wachsende Attraktivität des Reutlinger Bibliotheksbestands wider. Im Berichtsjahr wurden zwei Projekte begonnen: Zum einen die Ausstattung des Freihandbestands mit RFID-Etiketten, zum anderen die Installation einer Suchmaschine zur Optimierung der Recherche.
Ereignisse, Aktivitäten und Veränderungen 2006:
- Erweiterung der Öffnungszeiten auf Samstag
- 11 Prozent mehr Ausleihen als im Vorjahr
- 90 Prozent mehr Vormerkungen als im Vorjahr
- 65 Prozent mehr Fernleihbestellungen als im Vorjahr
- 15 Prozent mehr Datenbankschulungen als im Vorjahr
- Implementierung der Endnutzer-Fernleihe
- Einrichtung eines Zeitungslesebereichs
- Einrichtung eines Regals zur Präsentation von Neuerwerbungen
The recent years and especially the Internet have changed the way on how data is stored. We now often store data together with its creation time-stamp. These data sequences potentially enable us to track the change of data over time. This is quite interesting, especially in the e-commerce area, in which classification of a sequence of customer actions, is still a challenging task for data miners. However, before Standard algorithms such as Decision Trees, Neuronal Nets, Naive Bayes or Bayesian Belief Networks can be applied on sequential data, preparations need to be done in order to capture the information stored within the sequences. Therefore, this work presents a systematic approach on how to reveal sequence patterns among data and how to construct powerful features out of the primitive sequence attributes. This is achieved by sequence aggregation and the incorporation of time dimension into the Feature construction step. The proposed algorithm is described in detail and applied on a real life data set, which demonstrates the ability of the proposed algorithm to boost the classification performance of well known data mining algorithms for classification tasks.
The Seventh International Conference on Advances in Databases, Knowledge, and Data Applications (DBKDA 2015), held between May 24-29, 2015 in Rome, Italy, continued a series of international events covering a large spectrum of topics related to advances in fundamentals on databases, evolution of relation between databases and other domains, data base Technologies and content processing, as well as specifics in applications domains databases. Advances in different technologies and domains related to databases triggered substantial improvements for content processing, information indexing, and data, process and knowledge mining. The push came from Web services, artificial intelligence, and Agent technologies, as well as from the generalization of the XML adoption. High-speed communications and computations, large storage capacities, and loadbalancing for distributed databases access allow new approaches for content processing with incomplete patterns, advanced ranking algorithms and advanced indexing methods. Evolution on e-business, e-health and telemedicine, bioinformatics, finance and marketing, geographical positioning systems put pressure on database communities to push the ‘de facto’ methods to support new requirements in terms of scalability, privacy, performance, indexing, and heterogeneity of both content and technology.
The Sixth International Conference on Advances in Databases, Knowledge, and Data Applications (DBKDA 2014), held between April 20 - 24, 2014 in Chamonix, France, continued a series of international events covering a large spectrum of topics related to advances in fundamentals on databases, evolution of relation between databases and other domains, data base technologies and content processing, as well as specifics in applications domains databases. Advances in different technologies and domains related to databases triggered substantial improvements for content processing, information indexing, and data, process and knowledge mining. The push came from Web services, artificial intelligence, and agent technologies, as well as from the generalization of the XML adoption. High-speed communications and computations, large storage capacities, and loadbalancing for distributed databases access allow new approaches for content processing with incomplete patterns, advanced ranking algorithms and advanced indexing methods. Evolution on e-business, ehealth and telemedicine, bioinformatics, finance and marketing, geographical positioning systems put pressure on database communities to push the ‘de facto’ methods to support new requirements in terms of scalability, privacy, performance, indexing, and heterogeneity of both content and technology.
Few unfocused factories outperform competitors, but Focus is elusive because the environment is constantly evolving and this requires changes to a factory’s key tasks. So how can focus be achieved and sustained? We present insights derived from an historical analysis of the German Hewlett-Packard server plant which went through a series of Focus changes over the years. Using this example, we provide clues for the right timing of Focus changes and discuss critical structural and infrastructural changes required during the Focus transitions, as well as cross-functional coordination and leadership challenges. Our assertion is that production operations constitute a system that can adapt to disruptive Change by using the levers of manufacturing policies to stay focused on a limited but absolutely essential task which creates a strategic advantage.
Das Buch behandelt die verhaltensorientierte Finanzierungslehre und damit das irrationale Verhalten auf Finanz- und Kapitalmärkten. Die aktuellen Krisen und die zunehmenden Kursschwankungen auf diesen Märkten erfordern eine Erweiterung des neoklassischen Ansatzes. Verständlich und mit umfangreichem Anwendungsmaterial lernt der Studierende die Realität des Finanzsektors kennen. Das vorliegende Lehrbuch möchte Studierenden und Praktikern die Türe öffnen zu einer neu entstehenden, verhaltenswissenschaftlichen Sicht auf die Finanzmärkte, in der ein realitätsnäherer Homo Oeconomicus Humanus an den Märkten agiert. Er setzt bei der Entscheidungsfindung begrenzt rationale Heuristiken ein und lässt sich von emotionalen Einflüssen lenken. Dabei geht es nicht darum, das Verhalten des Marktteilnehmers als richtig oder falsch zu werten. Vielmehr soll der Leser einen Eindruck gewinnen, dass unterschiedliche Blickwinkel auf das Geschehen an Finanzmärkten möglich sind. Welcher Blickwinkel in einer spezifischen Konstellation der Realität besser geeignet ist, die Realität zu erfassen, dürfte für sich schon ein fruchtbares, neues Forschungsgebiet darstellen. Insofern geht es nicht darum, die neoklassische Kapitalmarkttheorie durch Behavioral Finance zu ersetzen, sondern vielmehr darum, sie in diese Richtung zu öffnen und die angestoßene Paradigmenerweiterung durch die Behavioral Finance vorzustellen.
Unraveling the double-edged sword : effects of cultural diversity on creativity and innovativeness
(2014)
Cultural diversity is considered a “double-edged sword” (Kravitz, 2005) as research on its effects on teams’ performance regularly delivers inconsistent and contradictory results. This paper makes an attempt to unravel the double-edged sword by discerning different forms of cultural diversity: separation and variety (Harrison & Klein, 2007). Based on a review of the literature, a conceptual model is developed hypothesizing that cultural variety yields positive, while cultural separation yields negative effects on team creativity and innovativeness. In addition the effects of national diversity are contrasted to proof whether national diversity can serve as a proxy for cultural diversity as is often practiced. The model is tested on a sample of 113 student teams of Entrepreneurship modules at 4 European universities. Cultural diversity is measured directly on the basis of individual team members’ cultural value orientations by means of the CPQ4 (Maznevski, DiStefano, Gomez, Noorderhaven & Wu, 2002). Data is analyzed using the PLS structural equation modeling technique. The results confirm the hypothesized impacts of cultural variety and separation on creativity but do not deliver evidence for impacts on innovativeness. Same is true for national diversity. Interestingly, national diversity does not show any relation to neither form of cultural diversity.
In Logistiknetzwerken stellen Lager einen wichtigen, aber zugleich kostenintensiven Faktor dar. Mit modernen Lagermanagement-Methoden zur Prozessoptimierung und Technologieausnutzung können Sie in Ihrer Lagerlogistik erhebliche Kosten einsparen und die Qualität erhöhen. Der neue Ansatz dazu heißt Lean Warehousing. Lean Warehousing bedeutet Prozessverbesserung mit einfachen Mitteln. Low Cost Automatisation und Ablaufverbesserungen im Einklang mit der Technik sind – nicht nur in wirtschaftlich schwierigen Zeiten – eine gewinnbringende Investition in die Zukunft.
Durch die demografische Entwicklung und den Fachkräftemangel sichern sich in Zukunft nur die attraktivsten Unternehmen die klügsten Köpfe. Um im "war for talents" erfolgreich zu sein, investieren Unternehmen in zukunftsfähige Recruitingmaßnahmen und Imagepflege an den Hochschulen. Voraussetzung dafür ist eine enge Zusammenarbeit von Unternehmen und Hochschulen. Hochschuleigener Career Center nach amerikanischem Vorbild übernehmen dabei die Rolle des Vermittlers. Die Gründung von Career Centern und das Angebot von Career Services werden von der Hochschulrektorenkonferenz und der Kultusministerkonferenz als wichtiges Element zur Entwicklung der Employability gefordert.
Mass-customization is a megatrend that also affects the wood industry. To obtain individually designed laminates in batch size one efficient printing and processing technologies are required. Digital printing was envisaged as it does not depend on highly costly printing cylinders (as used in rotogravure printing) and allows rapid exchange of the printing designs. In the present work, two wellestablished digital printing approaches, the multi-pass and the single-pass technique, were investigated and evaluated for their applicability in decorating engineered wood and low-pressure melamine films. Three different possibilities of implementing digital printing in the decorative laminates manufacturing process were studied: (1) digital printing on coated chipboard and subsequently applying a lacquered top-coat or melamine overlay (designated as “direct printing”, since the LPM was the printing substrate), (2) digital printing on decorative paper which was subsequently impregnated before hot pressing (designated as “indirect printing, variant A”) and (3) digital printing on decorative paper with subsequent interlamination of the paper between impregnated under- and overlay paper layers during the pressing process (designated as “indirect printing, variant B”). Due to various advantages of the resulting cured melamine resin surfaces including a much better technological performance and flexibility in surface texture design, it was decided to industrially further pursue only the indirect digital printing process comprising interlamination and the direct printing process with a melamine overlay-finishing. Basis for the successful trials on production and laboratory scales were the identification of applicable inks (in terms of compatibility with melamine resin) and of appropriate printing paper quality (in terms of impregnation and imprinting ability). After selection and fine tuning of suitable materials, the next challenge to overcome was the initially insufficient bond strength between impregnated overlay and the ink layers which led to unsatisfactory quality of the print appearance and delamination effects. However, the optimization of the pressing program and the development of a modified impregnation procedure for the underlay and overlay papers allowed the successful implementation of digital printing in the production line of our industrial partner FunderMax.
Three different polyols (soluble starch, sucrose, and glycerol) were tested for their potential in the chemical modification of melamine formaldehyde (MF) resins for paper impregnation. MF impregnated papers are widely used as finishing materials for engineered wood. These polyols were selected because the presence of multiple hydroxy groups in the molecules was suspected to facilitate cocondensation with the main MF framework. This should lead to good resin performance. Moreover, they are readily produced from natural feedstock. They are available in large quantities and may serve as economically feasible, environmentally harmless alternative co-monomers suitable to substitute a portion of fossil-based starting material. In the presented work, a number of model resins were synthesized and tested for covalent incorporation of the natural polyol into the MF Framework. Spectroscopic evidence of chemical incorporation of glycerol was found by applying by 1H, 13C, 1H/13C HSQC, 1H/13C HMBC, and 1H DOSY methods. It was furthermore found that covalent incorporation of glycerol in the network took place when glycerol was added at different stages during synthesis. Further, all resins were used to prepare decorative laminates and the performance of the novel resins as surface finishing was evaluated using standard technological tests. The technological performance of the various modified thermosetting resins was assessed by determining flow viscosity, molar mass distribution, the storage stability, and in a second step laminating impregnated paper to particle boards and testing the resulting surfaces according to standardized quality tests. In most cases, the average board surface properties were of acceptable quality. Our findings demonstrate the possibility to replace several percent of the petrol-based product melamine by compounds obtained from renewable resources.
Powder coatings provide several advantages over traditional coatings: environmental friendliness, freedom of design, robustness and resistance of surfaces, possibility to seamlessly all-around coating, fast production process, cost-effectiveness. In the last years these benefits of the powder coating technology have been adopted from metal to heat-sensitive natural fibre/ wood based substrates (especially medium density fibre boards- MDF) used for interior furniture applications. Powder coated MDF furniture parts are gaining market share already in the classic furniture applications kitchen, bathroom, living and offices. The acceptance of this product is increasing as reflected by excellent growth rates and an increasing customer base. Current efforts of the powder coating industry to develop new powders with higher reactivity (i.e. lower curing temperatures and shorter curing times; e.g. 120°C/5min) will enable the powder coating of other heat-sensitive substrates like natural fibre composites, wood plastic composites, light weight panels and different plastics in the future. The coating could be applied and cured by the conventional powder coating process (electrostatic application, and melting and curing in an IR-oven) or by a new powder coating procedure based on the in-mould-coating (IMC) technique which is already established in the plastic industry. Extra value could be added in the future by the functional powder toner printing of powder coated substrates using the electrophotographic printing technology, meeting the future demand of both individualization of the furniture part surface by applying functional 3D textures and patterns and individually created coloured images and enabling shorter delivery times for these individualized parts. The paper describes the distinctiveness of powder coating on natural fibre/ wood based substrates, the requirements of the substrate and the coating powder.
Bei der Zerspanung mit geometrisch definierter Schneide (z.B. Drehen, Fräsen, Bohren, Reiben, Sägen, Hobeln, Stoßen, Räumen) werden Zerspanwerkzeuge mit einer definierten Schneidengeometrie verwendet. Die Werte der einzelnen geometrischen Maße basieren auf Richt- und Erfahrungswerten. Die Definition der einzelnen Geometriemerkmale (z.B. Winkel) sind in DIN 6581 enthalten. In den letzten Jahren wurden zur Ermittlung des Prozessverhaltens unterschiedlicher Geometrieparameter Forschungsprojekte durchgeführt, die die Einflüsse der Schneidengestaltung untersuchen (z.B. Zabel 2010). Die Schneidengeometrie wird in der Regel mit den Verfahren Schleifen, Erodieren oder Laserbearbeitung erzeugt. Die Werkzeuge werden auf Universal- oder Spezial(werkzeugschleif)maschinen hergestellt und aufbereitet. Die Ausstattung und der Automatisierungsgrad richtet sich nach den zu bearbeitenden Merkmalen der Werkzeuge und deren Häufigkeit.
Die Regulierung von Banken, Finanzinstituten und Ratingagenturen ist nicht zuletzt seit der letzten Finanzkrise wieder in den Fokus von Politik und Wissenschft geraten. Zahlreiche Banken sind noch aufgrund staatlicher Beteiligungen unter besonderer Aufsicht und gerade in den europäischen Staaten mit hoher Verschuldung wird den Banken eine Mitschuld an der Krise gegeben. Im Fokus sind immer wieder auch die Ratingagenturen, die durch angebliche Fehlurteile und intransparente Methoden und Modelle Unternehmen und Staaten mit ihren Bonitätsurteilen vermeintlich diskriminieren und deren Finanzierungsspielräume einengen. Der Wunsch nach stärkerer Regulierung und Transparenz ist auch im Wahlkampf zum Europaparlament die letzten Wochen erneut spürbar gewesen. Der folgende Beitrag will die historischen Entwicklungen der Regulierungsstufen von Basel I bis Basel III aufzeigen und gleichzeitig die relevanten Institutionen und Normen vorstellen, um auf Basis dieser Übersicht eine kritische Würdigung und Diskussion anzustoßen.