Refine
Document Type
- Book chapter (222) (remove)
Has full text
- yes (222) (remove)
Is part of the Bibliography
- yes (222)
Institute
- ESB Business School (89)
- Informatik (48)
- Texoversum (44)
- Life Sciences (21)
- Technik (16)
- Zentrale Einrichtungen (3)
Publisher
- Springer (90)
- Springer Gabler (36)
- Hochschule Reutlingen (21)
- Elsevier (13)
- Gesellschaft für Informatik (12)
- Erich Schmidt (7)
- Wiley (7)
- AMD Akademie Mode & Design (4)
- Springer VS (4)
- Università Politecnica delle Marche (3)
Seit einigen Jahren befinden sich das globale ökonomische System, dessen Märkte und Organisationen in einem dynamischen und komplexen Veränderungsprozess; in diesem Zusammenhang ist der Begriff der Globalisierung eines der meist zitierten Schlagworte. Die Globalisierung der Märkte spiegelt sich in der Ausweitung, Intensivierung und grenzüberschreitenden Integration wirtschaftlicher Transaktionen in einem zuvor nie gekannten Ausmaß wider. Zu den Kennzeichen der ökonomischen Globalisierung gehören die internationalen Finanzmärkte und die Schaffung weltumspannender Wertschöpfungsketten durch eine Zunahme von Kooperationen transnational agierender Konzerne, den so genannten global players. Die Verflechtungen innerhalb der Finanzbranche und die Entstehung weltweiter Wertschöpfungsketten werfen eine Reihe moralisch sensibler Fragen hinsichtlich der Verantwortung von Unternehmen in der globalisierten Wirtschaftswelt auf. Ein Blick in die Schlagzeilen am Anfang des Jahrtausends lässt die Vielzahl der Konfliktfelder erahnen: Kollabierende Finanzkonstrukte von Investmentbanken, Schmiergeldzahlungen zur Sicherung von Aufträgen, nicht rechtmäßige Überprüfung von Mitarbeiterdaten sowie Skandale um Kinder- oder Sklavenarbeit in Ziegeleien und Kohlegruben sind nur ein kleiner Ausschnitt dieser Berichterstattungen. In der öffentlichen Wahrnehmung stehen die Reputation und Glaubwürdigkeit ganzer Branchen auf dem Spiel. Vertrauen, das über viele Jahre aufgebaut wurde, wird so binnen kürzester Zeit zerstört.
Social Media
(2011)
In jüngerer Zeit gewinnt die Nutzung des Internet für das Inbound Marketing zunehmend an Bedeutung. Dabei liegt der Fokus auf den so genannten Social Media Plattformen wie Facebook, YouTube, MySpace, XING, LinkedIn, Twitter, SlideShare und Posterous. Die Entwicklung dieser Medien ist auf eine Veränderung bei der Nutzung des Internet zurückzuführen, die häufig unter dem Schlagwort Web 2.0 zusammengefasst wird. Das gewandelte Mediennutzungsverhalten der Kunden induziert Chancen und Risiken für das Marketing.
Der Beitrag gibt einen Überblick zum Stand der Vertrauensforschung in Marketing und Vertrieb. Dabei ist Vertrauen als Gegenstand der Forschung innerhalb des Relationship Marketing Ansatzes sehr gut etabliert. Bei der Definition des Vertrauensbegriffs stützt sich das Marketing auf die Erkenntnisse der sozialwirtschaftlichen Nachbardisziplinen. Soweit Kunden ihren Anbietern vertrauen, gehen sie grundsätzlich ein Risiko ein und machen sich hierdurch angreifbar. Man vertraut in einen Anbieter, ohne vorab genau zu wissen, ob das gewünschte Resultat einer Kooperation mit Sicherheit eintritt. Dies gilt umgekehrt auch für den Anbieter, der zum Teil erhebliche Vorinvestitionen tätigen muss, ohne vorab zu wissen, ob tatsächlich eine Geschäftsbeziehung mit einem Kunden entsteht. Vertrauen ist daher v.a. in komplexen und langfristigen Beziehungen zwischen Anbietern und Kunden eine wesentliche Ressource. Entsprechend thematisiert der Beitrag die Bedingungen und Auswirkungen von Vertrauen auf unterschiedlichen Ebenen. Dabei dominiert in Marketing und Vertrieb noch immer eine interpersonale Perspektive. Die Potentiale organisationaler Beziehungsstrategien sind zum gegenwärtigen Zeitpunkt eher schwach beleuchtet, jedoch greift der Beitrag einige Trends für die weitere Ausrichtung der Vertrauensforschung auf, die zukünftig stärker an Bedeutung gewinnen werden. Dabei ist grundsätzlich davon auszugehen, dass bei zunehmend volatilen Rahmenbedingungen das Interesse an Vertrauensfragen auch in Marketing und Vertrieb weiter zunimmt.
The Dow Jones Sustainability Indexes (DJSI) track the performance of companies that lead in corporate sustainability in their respective sectors or in the geographies they operate. The Sustainable Asset Management (SAM) Indexes GmbH publishes and markets the indexes, the so-called Dow Jones Sustainability Indexes in collaboration with SAM. All indexes of the DJSI family are assessed according to SAM’s Corporate Sustainability AssessmentTM methodology.
Fragen, die in diesem Kapitel beantwortet werden:
Welche Bedeutung kommt der Projektplanung für ein erfolgreiches Projektmanagement zu?
Was zeichnet Phasenmodelle bei IT-Projekten aus, welche Varianten werden unterschieden, und inwiefern sind diese für die Projektplanung nützlich?
Wie ist eine Projektstrukturplanung für ein IT-Projekt anzulegen, und welche Konsequenzen ergeben sich dabei für den Projektablauf und die Phasenplanung?
Wie erfolgt eine Ablauf- und Terminplanung für IT-Projekte, und welche Instrumente und Methoden stehen zur Verfügung?
Aus welchen Elementen besteht eine gute Ressourcenplanung, und mit welchen Verfahren lässt sich eine Planoptimierung im Projektmanagement erreichen?
Gibt es wesentliche Teilschritte, die bei der Kostenplanung von IT-Projekten eingehalten werden müssen?
Inwiefern kommt einer ausgewogenen Risikoplanung für das Projektmanagement eine immer größere Bedeutung zu, und in welcher Weise kann diese Planungsaufgabe gelöst werden?
Silicones
(2014)
Silicones are found in a variety of applications with requirements that range from long life at elevated temperatures to fluidity at low temperatures. This chapter first considers silicone elastomers and their application in room temperature vulcanizing (RTV) and heat curing systems (HTV). Also, new technologies for UV curing are introduced. Coverage of RTVs includes both one-component and two-component systems and the different cure chemistries of each, and is followed by a separate discussion of silicone laminates. Due to the high importance of silicone fluids, they are also discussed. Fluids include polishes, release agents, surfactants, and dielectric fluids.
In the period from the 1950s to 2013, the American Food and Drug Administration (FDA) approved 1346 new molecular entities (NMEs) or new biologics entities (NBEs). On average, the approval rate was 20 NMEs per year. In the past 40 years, the number of new drugs launched into the market increased slightly from 15 NMEs in the 1970s to 25–30 NMEs since the 1990s. The highest number of new drugs approved by FDA was in 1996 and 1997, which might be related to the enactment of the Prescription Drug User Fee Act (PDUFA) in 1993.
The use of Wireless Sensor and Actuator Networks (WSAN) as an enabling technology for Cyber-Physical Systems has increased significantly in recent past. The challenges that arise in different application areas of Cyber- Physical Systems, in general, and in WSAN in particular, are getting the attention of academia and industry both. Since reliability issues for message delivery in wireless communication are of critical importance for certain safety related applications, it is one of the areas that has received significant focus in the research community. Additionally, the diverse needs of different applications put different demands on the lower layers in the protocol stack, thus necessitating such mechanisms in place in the lower layers which enable them to dynamically adapt. Another major issue in the realization of networked wirelessly communicating cyber-physical systems, in general, and WSAN, in particular, is the lack of approaches that tackle the reliability, configurability and application awareness issues together. One could consider tackling these issues in isolation. However, the interplay between these issues create such challenges that make the application developers spend more time on meeting these challenges, and that too not in very optimal ways, than spending their time on solving the problems related to the application being developed. Starting from some fundamental concepts, general issues and problems in cyber-physical systems, this chapter discusses such issues like energy-efficiency, application and channel-awareness for networked wirelessly communicating cyber-physical systems. Additionally, the chapter describes a middleware approach called CEACH, which is an acronym for Configurable, Energy-efficient, Application- and Channel-aware Clustering based middleware service for cyber-physical systems. The state of-the art in the area of cyberphysical systems with a special focus on communication reliability, configurability, application- and channel-awareness is described in the chapter. The chapter also describes how these features have been considered in the CEACH approach. Important node level and network level characteristics and their significance vis-àvis the design of applications for cyber physical systems is also discussed. The issue of adaptively controlling the impact of these factors vis-à-vis the application demands and network conditions is also discussed. The chapter also includes a description of Fuzzy-CEACH which is an extension of CEACH middleware service and which uses fuzzy logic principles. The fuzzy descriptors used in different stages of Fuzzy-CEACH have also been described. The fuzzy inference engine used in the Fuzzy-CEACH cluster head election process is described in detail. The Rule-Bases used by fuzzy inference engine in different stages of Fuzzy-CEACH is also included to show an insightful description of the protocol. The chapter also discusses in detail the experimental results validating the authenticity of the presented concepts in the CEACH approach. The applicability of the CEACH middleware service in different application scenarios in the domain of cyberphysical systems is also discussed. The chapter concludes by shedding light on the Publish-Subscribe mechanisms in distributed event-based systems and showing how they can make use of the CEACH middleware to reliably communicate detected events to the event-consumers or the actuators if the WSAN is modeled as a distributed event-based system.
Processing
(2014)
In this chapter, some relevant aspects and illustrative examples of online monitoring tools as the basis for process control in the manufacturing and processing of thermosetting resins are briefly discussed. In principle, any chemical or physical information made accessible by sensors can be used for online monitoring of resin formation, resin location in the mold, and resin cure. For instance, changes in the flow properties of the reaction mixture are often routinely recorded in dependence of the reaction time during resin synthesis as a measure for the degree of conversion of raw materials into macromolecules or oligomers by applying rheometry in an in-process environment. Typically, a small sample of the reaction mixture is by-passed, subjected to rheological measurement, and re-introduced into the bulk reactor. In a similar way, pH measurements, turbidimetric measurements, or other analyses are performed. Although rheometry may not always be suitable for following resin cure (especially in cases where there is a very rapid increase in viscosity after initiation of the cure), [1] naturally, the method can in principle also be used in the subsequent processing of the thermosets, for instance in the curing of wood glue applied to wood specimen [2]. Similarly, pH changes during thermoset curing can be followed. Hence, an encyclopedic and comprehensive approach to present process control methods would systematically proceed according to the involved physical measurement principle. However, since only a very Brief sketch of means for monitoring thermoset processing can be given here, only a small, personally biased selection of important methods and application examples is addressed in the following sections. These examples hopefully illustrate some of the general strategies and solutions to problems that are typically encountered when processing thermosets.
Unsaturated polyester resins (UPR) and vinyl ester resins (VER) are among the most commercially important thermosetting matrix materials for composites. Although comparatively low cost, their technological performance is suitable for a wide range of applications, such as fiber-reinforced plastics, artificial marble or onyx, polymer concrete, or gel coats. The main areas of UPR consumption include the wind energy, marine, pipe and tank, transportation, and construction industries. This chapter discusses basic UPR and VER chemistry and technology of manufacturing, and consequent applications. Some important properties and performance characteristics are discussed, such as shrinkage behavior, flame retardance, and property modification by nanoparticles. Also briefly introduced and described are the practical aspects of UPR and VER processing, with special emphasis on the most widely used technological approaches, such as hand and spray layup, resin infusion, resin transfer molding, sheet and bulk molding, pultrusion, winding, and centrifugal casting.
Crosslinked thermoplastics
(2014)
Cross-linked thermoplastics represent an important class of materials for numerous applications such as heat-shrinkable tubing, rotational molded parts, and polyolefin foams. By cross-linking olefins, their mechanical performance can be significantly enhanced. This chapter covers the three main methods for the cross-linking of thermoplastics: radiation cross-linking, chemical cross-linking with organic peroxides, and cross-linking using silane-grafting agents. It also considers the major effects of the cross-linking procedure on the performance of the thermoplastic materials discussed.
Allyls
(2014)
This chapter addresses the importance and usage of the commercially low volume thermoset plastics group known as allyls. The three significant sub-elements of this group are poly(diallylphthalates), poly(diallylisophthalates), and poly(allyldiglycol carbonate). Chemistry, processing, and properties are also described. Allyl polymers are synthesized by radical polymerizations of allyl monomers that usually do not produce high-molecular-mass macromolecules. Therefore, only a few specific monomers can produce thermosetting materials. Diallyldiglycolcarbonate (CR-39) and diallylphthalates are the most significant examples that have considerably improved our everyday life.
Cyanate esters
(2014)
Cyanate ester resins are an important class of thermosetting compounds that have experienced an ever-increasing interest as matrix systems for advanced polymer composite materials, which among other applications, are especially suitable for highly demanding functions in the aerospace or microelectronics industries. Other names for cyanate ester resins are cyanate resins, cyanic esters, or triazine resins. The various types of cyanate ester monomers share the aOCN functional group that trimerizes in the course of resin formation to yield a highly branched heterocyclic polymeric network based on the substituted triazine core structure. The basic reaction sequence leading to the typical cyanate ester polymer molecule is depicted in Figure 11.1. The curing reaction may take place with or without catalyst.
There are several intra-operative use cases which require the surgeon to interact with medical devices. We used the Leap Motion Controller as input device and implemented two use-cases: 2D-Interaction (e.g. advancing EPR data) and selection of a value (e.g. room illumination brightness). The gesture detection was successful and we mapped its output to several devices and systems.
Bei der Zerspanung mit geometrisch definierter Schneide (z.B. Drehen, Fräsen, Bohren, Reiben, Sägen, Hobeln, Stoßen, Räumen) werden Zerspanwerkzeuge mit einer definierten Schneidengeometrie verwendet. Die Werte der einzelnen geometrischen Maße basieren auf Richt- und Erfahrungswerten. Die Definition der einzelnen Geometriemerkmale (z.B. Winkel) sind in DIN 6581 enthalten. In den letzten Jahren wurden zur Ermittlung des Prozessverhaltens unterschiedlicher Geometrieparameter Forschungsprojekte durchgeführt, die die Einflüsse der Schneidengestaltung untersuchen (z.B. Zabel 2010). Die Schneidengeometrie wird in der Regel mit den Verfahren Schleifen, Erodieren oder Laserbearbeitung erzeugt. Die Werkzeuge werden auf Universal- oder Spezial(werkzeugschleif)maschinen hergestellt und aufbereitet. Die Ausstattung und der Automatisierungsgrad richtet sich nach den zu bearbeitenden Merkmalen der Werkzeuge und deren Häufigkeit.
A configuration-management-database driven approach for fabric-process specification and automation
(2014)
In this paper we describe an approach that integrates a Configuration- Management-Database into fabric-process specification and automation in order to consider different conditions regarding to cloud-services. By implementing our approach, the complexity of fabric processes gets reduced. We developed a prototype by using formal prototyping principles as research methods and integrated the Configuration-Management-Database Command into the Workflow- Management-System Activiti. We used this prototype to evaluate our approach. We implemented three different fabric-processes and show that by using our approach the complexity of these three fabric-processes gets reduced.
Ambush Marketing im Sport : wie Nicht-Sponsoren Sportveranstaltungen zur Markenkommunikation nutzen
(2014)
Insbesondere internationale sportliche Großereignisse wie Fußball-Welt- und Europameisterschaften oder Olympische Spiele bilden für zahlreiche Unternehmen die ideale Plattform, um ihr Markenmanagement und ihre kommunikative Zielgruppenansprache in ein attraktives sportliches Umfeld einzubetten. Sport-Event-Veranstalter verkaufen deshalb privilegierte Vermarktungsrechte ihres Events an offizielle Sponsoren, die im Gegenzug exklusive Möglichkeiten erwerben, das Event werblich für sich zu nutzen. Ambush Marketing dagegen kennzeichnet die Vorgehensweise von Unternehmen, die keine Vermarktungsrechte an einer Veranstaltung besitzen, aber dennoch durch ihre Marketingmaßnahmen in unterschiedlicher Art und Weise eine Verbindung zu diesem Event aufbauen. Der Grat zwischen der Verletzung von Sponsorenrechten und kreativ-innovativer Kommunikationspolitik ist dabei oft sehr schmal, weswegen Ambush Marketing kontrovers diskutiert…diskutiert wird.
Gelebte Internationalität ist das führende Markenzeichen der Hochschule Reutlingen. Die als Deutschlands "Internationale Hochschule 2010" ausgezeichnete Hochschule für Angewandte Wissenschaften bildet nach dem Grundsatz "global denken, lokal handeln" junge Menschen zu hochqualifizierten und verantwortungsbewussten Persönlichkeiten aus, die aufgrund ihrer interkulturellen Kompetenz souverän und sensibel im globalen Netzwerk agieren können. Alle fünf Fakultäten sind in den Internationalisierungsprozess eingebunden, am weitesten ist man in der größten Fakultät der Hochschule Reutlingen, der ESB Business School.
Innovative Antriebstechnik muss die aktuellen Anforderungen und die spezifischen Anwenderwünsche mit den verfügbaren technologischen Möglichkeiten in hocheffiziente Lösungen umsetzen. Dazu müssen Elektronik, Software und Mechanik von der Berechnung bis zur Ausführung passgenau integriert und optimiert sein, um auch die heutigen ökonomischen und ökologischen Ansprüche an moderne Antriebe zu erfüllen.
Big Data wird aktuell als einer der Haupttrends der IT-Industrie diskutiert. Big Data d. h. auf Basis großer Mengen unterschiedlich strukturierter Daten die Entscheidungen in Echtzeit oder prognostisch zu treffen. Von hochleistungsfähigen, schnell verfügbaren Prognoseverfahren erhofft man sich eine Risikominimierung für unternehmerische Entscheidungen in hochvolatilen Märkten.
Die digitale Transformation bezieht sich auf die zunehmende Digitalisierung von Inhalten und Prozessen und die steigende Bedeutung digitaler Medien in Wirtschaft und Gesellschaft. Dabei wird der Wandel u. a. durch die Evolution in der Nutzung des Internets getrieben. Während in der Phase des so genannten Web 1.0 die Publikation und Verbreitung statischer Inhalte im Fokus stand, werden durch das Web 2.0 überwiegend Prozesse der dezentralen Erzeugung und einfachen Verbreitung von User Generated Content stimuliert. Unternehmen müssen auf diese Veränderungen reagieren, um die eigene Wettbewerbsfähigkeit nachhaltig abzusichern. Der vorliegende Beitrag konzentriert sich auf die Weiterentwicklung des Kundenservice. Dieser wurde in den zurückliegenden Jahren von vielen Unternehmen überwiegend als Kostenfaktor mit geringer strategischer Bedeutung eingestuft. Diese Sichtweise hat sich in der digitalen Transformation grundlegend geändert. Kunden können heute Mängel an Produkten und Dienstleistungen durch Foren und Social Media Kanäle sofort und mit hoher Reichweite adressieren. Unternehmen müssen auf den gleichen Kanälen reagieren, um die Multiplikation negativer Sichtweisen einzudämmen und Übertragungseffekte auf traditionelle Medien zu vermeiden. Gleichzeitig entstehen durch digitale Kanäle völlig neue Serviceangebote, die sich nachhaltig auf die unternehmerische Wettbewerbsfähigkeit auswirken. Der vorliegende Beitrag gibt zunächst einen Überblick zu wesentlichen Entwicklungslinien der digitalen Transformation. Auf dieser Grundlage werden die Perspektiven für Unternehmen zur Integration digitaler Medien in die eigene Wertschöpfungskette skizziert. Darüber hinaus steht v. a. die Veränderung des Kundenservice im so genannten Web 2.0 zur Diskussion. Ein Ausblick auf zukünftige Entwicklungen der Digitalisierung rundet den Beitrag entsprechend ab.
Eine für den wirtschaftlichen Erfolg im B2B-Geschäft zentrale Teilaufgabe des Account Managements ist zweifelsfrei auch beim Value Based Selling© die Preisdurchsetzung. Diesbezüglich setzen professionelle Vertriebsorganisationen eine Vielzahl an Instrumenten ein, die sowohl die Motivation als auch die Befähigung der einzelnen Vertriebsmitarbeiter zur Durchsetzung hoher Preise verbessern. Allerdings gerät beim Einsatz des etablierten Instrumentariums mitunter zu stark aus dem Blick, dass in jeder Preisverhandlung letztlich ein idiosynkratischer menschlicher Faktor existiert, der allein durch Analytik, Systematik und Disziplin nicht hinreichend erfasst werden kann. Auch hier kommen Soft Skills maßgeblich zum Tragen und sind entsprechend zu fördern und nutzbar zu machen.
Die zunehmende Informationsgewinnung der Kunden in B2B-Kaufprozesse wird maßgeblich in der Zukunft durch soziale Medien und Branded Communities geprägt. Moderne Unternehmen sind hier gefordert, den Account Manager mittels interner Kollaborationsprozesse, Corporate Communities und Projekt Management-Technologien zu unterstützen. Zudem muss sich die Rolle des Account Managers dahin gehend wandeln, den Kunden als externen Business Development Partner und Datenlieferanten zu verstehen und zu nutzen. Die Herausforderung für die Wirtschaft ist jedoch die Erforschung der Erkenntnis, inwieweit sich der Kunde zu einem Social Influencer oder Markenadvokaten hoch stilisieren oder aufwerten lässt.
Ungeachtet der dargestellten Fülle und ggf. daraus ableitbaren Überregulierung des Finanzmarktes, insbesondere der Banken und Ratingagenturen, sollten am Ende die Nutzen regulierter Bonitäts- und Solvenzbewertung nicht außer Acht gelassen bleiben. Neben dem volkswirtschaftlichen Schutz der Gläubiger sind auch interne Nutzenpotentiale für die Schuldner selbst zu nennen. Als interner Nutzen für ein Unternehmen kann die Gewinnung von Informationen für das Finanzmanagement genannt werden. Risiken können identifiziert und abgestellt werden. Eine Optimierung des Ratings durch Verbesserung von Kennzahlen oder aufgedeckten Schwachstellen kann zu einer Verringerung der Kreditkonditionen führen. Bei einer Unternehmensbewertung ist bei einem guten Rating der Unternehmenswert höher anzusetzen. Dies wird bereits beim IDW-S1-Standard der Wirtschaftsprüfer zur Ermittlung eines Discounted Cash Flow als Basis eines Unternehmenswertes nach dem WACC-CAPM-Modell deutlich. Ratings können als Frühwarnsystem rechtzeitig vor einer finanziellen Schieflage warnen und das Management oder die Eigentürmer für finanzielle Risiken sensibilisieren. Veröffentlichte Bonitäts- und Solvenzurteile können für Kunden, Lieferanten und alle beteiligten Stakeholder eines Unternehmens Vertrauen schaffen bzw. evtl. eine bessere Verhandlungsposition erzeugen. Mit einem Rating kann ein Unternehmen alternative Finanzierungsinstrumente wie z. B. eigene Anleihen nutzen und ist nicht unbedingt auf die Kreditvergabe der Bank angewiesen.
Letztlich ist also die Überregulierung zu kritisieren, die Notwendigkeit einer Regulierung für die komplexe Bonitäts- und Solvenzbeurteilung von Schuldnern im Interesse der Gläubiger aber nicht zu verleugnen.
Soft, mechanically compliant robots are developed to safely interact with a “human environment”. The use of textiles and fibrous (composite-) materials for the fabrication of robots opens up new possibilities for “softness/compliance” and safety in human-robot interaction. Besides external motion monitoring systems, textiles allow on-board monitoring and early prediction, or detection, of robot-human contact. The use of soft fibers and textiles for robot skins can increase the acceptance of robots in human surroundings. Novel topology optimization tools, materials, processing technologies and biomimetic engineering allow developing ultra-light-weight, multifunctional, and adaptive structures.
Zielsetzung dieses Beitrags ist es darzustellen, wie die Soziologie der Konventionen dazu beitragen kann, das Phänomen organisationaler Routinen zu verstehen. Nach einer kurzen Einführung in die aktuelle Routineforschung sowie in die EC werden zwei potentielle Antworten auf die Frage vorgestellt: Erstens, kann die EC dazu beitragen, die vorhandenen Modelle und Konzeptualisierungen von organisationalen Routinen anzureichern. So können über die EC insbesondere Rechtfertigungsprozesse im Routinehandeln erfasst werden, die bislang nicht berücksichtigt wurden. Zweitens kann die EC einen eigenständigen, d. h. genuinen Ansatz für die Beobachtung organisationaler Routinen bilden. Dabei wird der Feststellung von Brandl et al. (2014, S. 314) gefolgt, dass die partielle Übernahme einzelner Gedanken der EC und deren Integration in andere Theoriekonzepte (wie hier der organisationalen Routine) kaum dazu in der Lage ist, das volle Potential der EC zur Erklärung organisationaler Phänomene auszuschöpfen. In diesem Beitrag werden daher die wesentlichen Elemente dargelegt, aus denen ein genuin konventionenbasiertes Verständnis von organisationalen Routinen ausgearbeitet werden könnte. Der Beitrag schließt mit einer Diskussion und einem Fazit ab.
Die zukünftige Arbeitswelt ist durch unterschiedliche Grenzverschiebungen gekennzeichnet, so dass wir von fluiden Grenzen sprechen können. Faktoren, die diese Entwicklung befördern, sind Technologie, Gesellschaft und Organisation. Ein Beispiel: Die digitalen Technologien, wie unter anderen mobile Arbeitsgeräte, Clouds und soziale Netzwerke ermöglichen eine zeitliche und räumliche Flexibilisierung von Arbeit, die von den Mitarbeitern und den Organisationen begrüßt und aktiv vorangetrieben wird. Allerdings führt diese Entwicklung auch dazu, dass die neue Arbeitswelt, vor allem durch die Entgrenzung von privatem und beruflichem Lebensbereich, für viele Mitarbeiter belastender wird. Die Implikationen für die Führungspraxis werden diskutiert.
Quality-oriented selection of university partnerships : ESB Business School’s selection matrix
(2015)
Am 1. November 2010 wurde der Leitfaden zur gesellschaftlichen Verantwortung von Organisationen – „Guidance on Social Responsibility“ (ISO 26000:2010) – veröffentlicht. Dieses Normendokument wurde innerhalb von sechs Jahren in einem auch für die ‚International Organization for Standardization’(ISO) einzigartigen, weltweiten Normierungsprozess mit mehr als 400 Experten aus 99 Ländern erarbeitet.
Despite 30 years of Electronic Design Automation, analog IC layouts are still handcrafted in a laborious fashion today due to the complex challenge of considering all relevant design constraints. This paper presents Self-organized Wiring and Arrangement of Responsive Modules (SWARM), a novel approach addressing the problem with a multi-agent system: autonomous layout modules interact with each other to evoke the emergence of overall compact arrangements that fit within a given layout zone. SWARM´s unique advantage over conventional optimization-based and procedural approaches is its ability to consider crucial design constraints both explicitly and implicitly. Several given examples show that by inducing a synergistic flow of self-organization, remarkable layout results can emerge from SWARM’s decentralized decision-making model.
Motivation
(2016)
Since human beings started to work consciously with their environment, they have tried to improve the world they were living in. Early use of tools, increasing quality of these tools, use of new materials, fabrication of clay pots, and heat treatment of metals: all these were early steps of optimization. But even on lower levels of life than human beings or human society, we find optimization processes. The organization of a herd of buffalos to face their enemies, the coordinated strategies of these enemies to isolate some of the herd’s members, and the organization of bird swarms on their long flights to their winter quarters: all these social interactions are optimized strategies of long learning processes, most of them the result of a kind of collective intelligence acquired during long selection periods.
In this chapter we introduce methods to improve mechanical designs by bionic methods. In most cases we assume that a general idea of the part or system is given by a set of data or parameters. Our task is to modify these free parameters so that a given goal or objective is optimized without violation of any of the existing restrictions.
We have seen that bionic optimization can be a powerful tool when applied to problems with non-trivial landscapes of goals and restrictions. This, in turn, led us to a discussion of useful methodologies for applying this optimization to real problems. On the other hand, it must be stated that each optimization is a time consuming process as soon as the problem expands beyond a small number of free parameters related to simple parabolic responses. Bionic optimization is not a quick approach to solving complex questions within short times. In some cases it has the potential to fail entirely, either by sticking to local maxima or by random exploration of the parameter space without finding any promising solutions. The following sections present some remarks on the efficiency and limitations users must be aware of. They aim to increase the knowledge base of using and encountering bionic optimization. But they should not discourage potential users from this promising field of powerful strategies to find good or even the best possible designs.
Application to CAE systems
(2016)
Due to the broad acceptance of CAD-systems based on 3D solids, the geometric data of all common CAE (Computer-Aided Engineering) software, at least in mechanical engineering, are based on these solids. We use solid models, where the space filled by material is defined in a simple and easily useable way. Solid models allow for the development of automated meshers that transform solid volumes into finite elements. Even after some unacceptable initial trials, users are able to generate meshes of non-trivial geometries within minutes to hours, instead of days or weeks. Once meshing had no longer been the cost limiting factor of finite element studies, numerical simulation became a tool for smaller industries as well.
Due to the broad acceptance of CAD-systems based on 3D solids , the geometric data of all common CAE (Computer-Aided Engineering) software, at least in mechanical engineering, are based on these solids. We use solid models , where the space filled by material is defined in a simple and easily useable way. Solid models allow for the development of automated meshers that transform solid volumes into finite elements. Even after some unacceptable initial trials, users are able to generate meshes of non-trivial geometries within minutes to hours, instead of days or weeks. Once meshing had no longer been the cost limiting factor of finite element studies, numerical simulation became a tool for smaller industries as well.
In the early days of automated meshing development, there were discussions over the use of tetragonal (Fig. 4.1) or hexagonal based meshes. But, after a short period of time, it became evident, that there were and will always be many problems using automated meshers to generate hexagonal elements . So today nearly all automated 3D-meshing systems use tetragonal elements .
To illustrate the power and the pitfalls of Bionic Optimization, we will show some examples spanning classes of applications and employing various strategies. These applications cover a broad range of engineering tasks. Nevertheless, there is no guarantee that our experiences and our examples will be sufficient to deal with all questions and issues in a comprehensive way. As general rule it might be stated, that for each class of problems, novices should begin with a learning phase. So, in this introductory phase, we use simple and quick examples, e.g., using small FE-models, linear load cases, short time intervals and simple material models. Here beginners within the Bionic Optimization community can learn which parameter combinations to use. In Sect. 3.3 we discuss strategies for optimization study acceleration. Making use of these parameters as starting points is one way to set the specific ranges, e.g., number of parents and kids, crossing, mutation radii and, numbers of generations. On the other hand, these trial runs will doubtless indicate that Bionic Optimization needs large numbers of individual designs, and considerable time and computing power. We recommend investing enough time preparing each task in order to avoid the frustration should large jobs fail after long calculation times.
Current fields of interest
(2016)
If we review the research done in the field of optimization, the following topics appear to be the focus of current development:
– Optimization under uncertainties, taking into account the inevitable scatter of parts, external effects and internal properties. Reliability and robustness both have to be taken into account when running optimizations, so the name Robust Design Optimization (RDO) came into use.
– Multi-Objective Optimization (MOO) handles situations in which different participants in the development process are developing in different directions. Typically we think of commercial and engineering aspects, but other constellations have to be looked at as well, such as comfort and performance or price and consumption.
– Process development of the entire design process, including optimization from early stages, might help avoid inefficient efforts. Here the management of virtual development has to be re-designed to fit into a coherent scheme.
...
There are many other fields where interesting progress is being made. We limit our discussion to the first three questions.
Broad acceptance of finite-element-based analysis of structural problems and the increased availability of CAD-systems for structural tasks, which help to generate meshes of non-trivial geometries, have been setting a standard for the evaluation of designs in mechanical engineering in the last few decades. The development of automated or semi-automated optimizers, integrated into the Computer-Aided Engineering (CAE)-packages or working as outer loop machines, requiring the solver to do the analysis of the specific designs, has been accepted by most advanced users of the simulation community as well. The availability and inexpensive processing power of computers is increasing without any limitations foreseen in the coming years. There is little doubt that virtual product development will continue using the tools that have proved to be so successful and so easy to handle.
Stress is becoming an important topic in modern life. The influence of stress results in a higher rate of health disorders such as burnout, heart problems, obesity, asthma, diabetes, depressions and many others. Furthermore individual’s behavior and capabilities could be directly affected leading to altered cognition, inappropriate decision making and problem solving skills. In a dynamic and unpredictable environment, such as automotive, this can result in a higher risk for accidents. Different papers faced the estimation as well as prediction of drivers’ stress level during driving. Another important question is not only the stress level of the driver himself, but also the influence on and of a group of other drivers in the near area. This paper proposes a system, which determines a group of drivers in a near area as clusters and it derives the individual stress level. This information will be analyzed to generate a stress map, which represents a graphical view about road section with a higher stress influence. Aggregated data can be used to generate navigation routes with a lower stress influence to decrease stress influenced driving as well as improve road safety.
Stress is recognized as a predominant disease with raising costs for rehabilitation and treatment. Currently there are several different approaches that can be used for determining and calculating the stress levels. Usually the methods for determining stress are divided in two categories. The first category do not require any special equipment for measuring the stress. This category useless the variation in the behaviour patterns that occur while stress. The core disadvantage for the category is their limitation to specific use case. The second category uses laboratories instruments and biological sensors. This category allow to measure stress precisely and proficiently but on the same time they are not mobile and transportable and do not support real-time feedback. This work presents a mobile system that provides the calculation of stress. For achieving this, the of a mobile ECG sensor is analysed, processed and visualised over a mobile system like a smartphone. This work also explains the used stress measurement algorithm. The result of this work is a portable system that can be used with a mobile system like a smartphone as visual interface for reporting the current stress level.
A lot of people need help in their daily life to wash, select and manage their clothing. The goal of this work is to design an assistant system (eKlarA) to support the user by giving recommendations to choose the clothing combinations, to find the clothing and to wash the clothing. The idea behind eKlarA is to generate a system that uses sensors to identify the clothing and their state in the clothing cycle. The clothing cycle consists of the stations: closets, laundry basket and washing machine in one or several places. The system uses the information about the clothing, weather and calendar to support the user in the different steps of the clothing cycle. The first prototype of this system has been developed and tested. The test results are presented in this work.
Besides the optimisation of the car, energy-efficiency and safety can also be increased by optimising the driving behaviour. Based on this fact, a driving system is in development whose goal is to educate the driver in energy efficient and safe driving. It monitors the driver, the car and the environment and gives energy-efficiency and safety relevant recommendations. However, the driving system tries not to distract or bother the driver by giving recommendations for example during stressful driving situations or when the driver is not interested in that recommendation. Therefore, the driving system monitors the stress level of the driver as well as the reaction of the driver to a given recommendation and decideswhether to give a recommendation or not. This allows to suppress recommendations when needed and, thus, to increase the road safety and the user acceptance of
the driving system.
Different sensor types using chemical and biochemical principles are described. The former are mainly gas sensors, the latter are applied especially to liquids. Those label-free direct detection methods are compared with applications where assays take advantage of labeled receptors.
Furthermore, selected applications in the area of gas sensors are discussed, and sensors for process control, point-of-care diagnostics, environmental analytics, and food analytics are reviewed. In addition, multiplexing approaches used in microplates and microarrays are described.
On account of the huge number of sensor types and the wide range of possible applications, only the most important ones are selected here.
Virtual prototyping of integrated mixed-signal smart sensor systems requires high-performance co-simulation of analog frontend circuitry with complex digital controller hardware and embedded real-time software. We use SystemC/TLM 2.0 in conjunction with a cycle-count accurate temporal decoupling approach (TD) to simulate digital components and firmware code execution at high speed while preserving clock-cycle accuracy and, thus, real-time behavior at time quantum boundaries. Optimal time quanta ensuring real-time capability can be calculated and set automatically during simulation if the simulation engine has access to exact timing information about upcoming inter-process communication events. These methods fail in the case of non-deterministic, asynchronous events, resulting in potentially invalid simulation results. In this paper, we propose an extension to the case of asynchronous events generated by blackbox sources from which a priori event timing information is not available, such as coupled analog simulators or hardware in the loop. Additional event processing latency or rollback effort caused by temporal decoupling is minimized by calculating optimal time quanta dynamically in a SystemC model using a linear prediction scheme. We analyze the theoretical performance of the presented predictive temporal decoupling approach (PTD) by deriving a cost model that expresses the expected simulation effort in terms of key parameters such as time quantum size and CPU time per simulation cycle. For an exemplary smart-sensor system model, we show that quasi-periodic events that trigger activities in TD processes are handled accurately after the predictor has settled.
Industrie 4.0 - Ausblick
(2016)
Für Unternehmen ist es wichtig, frühzeitig die strategischen Weichen für ihre Industrie 4.0-Stoßrichtung zu stellen und Erfahrung im Umgang mit Industrie 4.0-Technologien aufzubauen. Allerdings werden einige der Industrie 4.0-relevanten Technologien voraussichtlich erst in 5 bis 10 Jahren ihr Effizienzpotential voll ausschöpfen können. Die Einführung von Industrie 4.0 betrifft nahezu alle Bereiche eines Unternehmens und ist deshalb nicht nur als digitale Transformation, sondern auch als Kulturwandel in der Organisation zu verstehen, zu planen und aktiv zu managen. Themen wie Datenschutz und IT-Sicherheit sind nicht nur wichtige Voraussetzungen für eine erfolgreiche Industrie 4.0-Einführung, sondern müssen als wesentliche Akzeptanz- und Erfolgsfaktoren konsequent und durchgängig in den digitalen Systemen verankert werden.
Bei weitgehend gleicher Ausstattung und neuen Anforderungen an die Hochschulrechenzentren rücken Kooperationen zunehmend in den Mittelpunkt. Für diese,
auch hochschulartenübergreifende, Kooperationen genügt der klassische informelle Rahmen vielfach nicht mehr. Für eine erfolgreiche Zusammenarbeit sind einige Voraussetzungen zu erfüllen. Rechenzentren treten in neuer Rolle als Provider von Dienstleistungen für Nutzer auch außerhalb ihrer eigenen Hochschule auf. Ebenso
könnten sie sich zukünftig verstärkt in der Nutzerperspektive wiederfinden. IT-Service-Einrichtungen müssen sich ihrer neuen Rolle als Diensteanbieter und Nutzer von Diensten Dritter bewusst werden und diese in ihre Überlegungen für die Ausgestaltung neuer Dienste einfließen lassen.
Der Beitrag erweitert aus der theoretischen Perspektive der Soziologie der Konventionen (Économie des Conventions, EC) die Forschung zur pragmatischen Dimension des organisationalen Gedächtnisses. Dabei wird erstens argumentiert, dass Konventionen als organisationales Gedächtnis verstanden werden können, in denen gespeichert wird, wie Koordinationsprobleme erfolgreich lösbar sind. Zweitens wird anhand des Akteurstatus der EC sowie des Konzepts der Handlungsregime diskutiert, wie Akteure auf gespeichertes Wissen zugreifen. Und drittens wird die bislang nicht berücksichtigte normative Dimension des organisationalen Gedächtnisses analysiert. Dabei wird argumentiert, dass Akteure sich auf Konventionen gestützt rechtfertigen, wenn sie Elemente des organisationalen Gedächtnisses aufgreifen. Insgesamt trägt der Beitrag dazu bei, die Verbindung von kollektivem Gedächtnis und Entscheidung besser zu verstehen, indem sie auf Basis der EC als eine interaktionistische, pragmatische und normativ geprägte Aushandlung von Erinnerungen in konkreten Situationen betrachtet wird.
KMUs sehen sich häufig aus finanziellen Gründen nicht in der Lage, in grundlegende Technologien der Industrie 4.0 zu investieren. So wird als Hauptvorbehalt eine vermeintlich schlechte Kosten-Nutzen-Relation bzw. langfristige Pay-Back-Zyklen angegeben. Die aktuellen Herausforderungen liegen derzeit eher bei der immer weiter voranschreitenden Internationalisierung sowie dem ansteigenden Innovationsdruck durch den Wettbewerb. Natürlich ist bekannt, dass die zunehmende Vernetzung der Produktionsanlagen in der Industrie 4.0 zudem Risiken in der IT- und Datensicherheit mit sich bringt. Auch Datenqualitäts-, Stabilitäts-, Schnittstellenprobleme oder rechtliche Probleme sind ausschlaggebend für die Verunsicherung der Unternehmen. Durch die zukünftig immer weiter ansteigende Vernetzung zwischen Unternehmen und Stakeholdern, müssen sich insbesondere Zulieferunternehmen in der Pflicht sehen, das Thema Industrie 4.0 aufzugreifen und sich damit auseinander zu setzen. Gerade diese Unternehmen müssen sich vor Augen führen, dass sie nur durch den zukünftigen Einsatz geeigneter Informations- und Kommunikationstechnologien noch in der Lage sein werden, Teil der Wertschöpfungskette zwischen ihren Kunden und Lieferanten zu sein.
Dieser Artikel zeigt, dass und wie die Ideen, Werkzeuge und Lösungsansätze von Lean Management im Sales-Umfeld genutzt werden können. Es wird verdeutlicht, wie der Wertschöpfungsanteil eigener Vertriebsprozesse gesteigert und gleichzeitig die Verschwendung aus Kundensicht minimiert werden kann. Ein wesentliches Werkzeug stellt hierfür die Methode des Wertstromdesigns dar, die vom Autor und seinen Partnern speziell auf die Besonderheiten von Vertriebsprozessen adaptiert wurde. Fokus ist hierbei das Hervorheben der unterschiedlichsten Arten der Verschwendung innerhalb von Prozessen dieser Art, um so einen Lösungsfindungsprozess zu initiieren. Es wird das Potenzial dieser Methodik verdeutlicht und die Anwendung erläutert. Abschließend wird diskutiert, wie eine Kultur der Veränderung auch innerhalb von Sales-Organisationen realisiert und eine Nachhaltigkeit von Veränderungen gefördert werden kann.
Die Analyse der geometrischen Parameter der Werkzeuge und der kinematisch bedingten Eingriffsverhältnisse beim Fräsen führen zu einer erheblichen Beeinflussung der Schneidenbelastungen während des Einsatzes. Eine exzentrische Aufnahme von Schaftwerkzeugen bedeutet eine deutliche Belastung der exzentrischen Schneiden. Diese Belastung liegt deutlich über der durch die Ungleichteilung erzeugten Kraftmodulation. Weiterhin werden durch die Impulsbelastung der Schneideneintritte die Resonanzen der Struktur angeregt. Dies beeinflusst zum einen die Messungen mit der Kraftmessplattform. Zum anderen werden während der realen Bearbeitung durch diese Wechselwirkung die Oberflächen der bearbeiteten Bauteile beeinflusst.