Refine
Year of publication
- 2021 (234) (remove)
Document Type
- Journal article (135)
- Conference proceeding (73)
- Book chapter (13)
- Report (5)
- Doctoral Thesis (3)
- Issue of a journal (2)
- Working Paper (2)
- Book (1)
Has full text
- yes (234) (remove)
Is part of the Bibliography
- yes (234)
Institute
- ESB Business School (86)
- Informatik (69)
- Life Sciences (40)
- Technik (28)
- Texoversum (5)
- Zentrale Einrichtungen (4)
Publisher
- Springer (46)
- Elsevier (26)
- MDPI (24)
- IEEE (17)
- Wiley (10)
- American Chemical Society (8)
- De Gruyter (8)
- Hochschule Reutlingen (6)
- Association for Computing Machinery (4)
- VDE Verlag (4)
Effektives Risiko-Management sollte neben quantifizierbaren, bekannten Risiken auch Ereignisse berücksichtigen, die entweder in ähnlicher Art bereits eingetreten oder grundsätzlich vorstellbar sind. Für eine Identifikation dieser "Grauen Schwäne" müssen institutionell-organisatorische Voraussetzungen geschaffen und analytisch-konzeptionelle Instrumente bereitgestellt werden.
Dieser Beitrag entwickelt ein Managementmodell, das Unternehmen dabei unterstützt, relevante Aktionsfelder zur nachhaltigen Steuerung von Konsumenten entlang der eigenen Customer Journey zu identifizieren. Aufbauend auf dem SHIFT-Modell, als strukturelle Abbildung des nachhaltigen Käuferverhaltens, wird die Customer Journey entlang der owned, paid und earned Touchpoints aufgezogen. Mithilfe des faktisch analytischen Ansatzes, der die Integration neuer Erkenntnisse in die Forschungsstrategie unterstützt, werden Aktionsfelder identifiziert, die als grundlegende Logik Unternehmen dazu anleiten sollen, bei der Ausgestaltung der eigenen nachhaltigen Customer Journey dieses Strukturraster anzunehmen.
Problem: Die Covid-19 Pandemie verschärft nicht nur die wirtschaftlichen, sondern auch die öko-sozialen Rahmenbedingungen vieler Unternehmen. Nachhaltiges Handeln ist daher wichtiger denn je. Unternehmen wählen unterschiedliche Wege, um Nachhaltigkeit in das Managementsystem der oberen Führungsebene zu integrieren. Dadurch besteht die Chance, Nachhaltigkeit nicht nur in Form von Einzelmaßnahmen zu sehen, sondern als Element der Strategie- und Organisationsentwicklung zu verstehen. Für die gesamthafte Betrachtung kommen u. a. die Gemeinwohlbilanz (GWB) und die Nachhaltigkeits-Balanced Scorecard (N-BSC) in Betracht, wie die Beispiele von Vaude und der Sparda Bank München, die die GWB nutzen (siehe https://web.ecogood.org/de/die-bewegung/pionier-unternehmen/), sowie Alpha und Axel Springer, die Nachhaltigkeit in ihre BSC integrieren (Hansen/Schaltegger, 2016, S. 207), zeigen.
Ziel: Diskussion der GWB und der N-BSC als Möglichkeiten zur Integration öko-sozialer Aspekte in das Managementsystem.
Methode: Aufzeigen wesentlicher Grundzüge der GWB und N-BSC
Das textile Bauen ist ein seit vielen Jahren wachsender Bereich der Textilindustrie. Durch die Verwendung textiler Materialien bieten sich nicht zuletzt für die Architektur neue gestalterische Möglichkeiten, die mit konventionellen Baumaterialien nicht realisierbar sind. Bekannte Beispiele für textile Bauwerke sind große Sportarenen, Bahnhöfe und Flughäfen. Dabei sind Leichtbauweisen und zumindest teilweise Transparenz der Bauwerke auf einer Seite herausragende Eigenschaften, auf der anderen Seite stellen diese Gebäude besondere Anforderungen an das Klima- und Energiemanagement. Der Innenraum kann sich bei Sonneneinstrahlung stark aufheizen, da neben dem sichtbaren Licht vor allem ein Großteil des Infrarotanteils der solaren Strahlung transmittieren kann. Im konventionellen Bauen existieren bereits hohe Anforderungen an die energietechnische Ausgestaltung von Bauwerken, die u.a. über eine effiziente Wärmedämmung erfüllt werden. Dies wird in der Regel mit Hilfe von voluminösen, offenporigen Dämmstoffen erreicht. Ziel ist es dabei vornehmlich, den Verlust von Wärme aus dem Innenraum zu verringern, gleichzeitig können schlecht wärmeleitende Stoffe bei hoher Masse und hoher spezifischer Wärmekapazität Temperaturspitzen im Sommer abpuffern. Auch für das textile Bauen ist die Energieeffizienz ein wichtiger Aspekt. Die Verwendung von schweren Dämmstoffen widerspricht dabei aber der Idee der flexiblen textilen Leichtbauweise.
Trotz Niedrigzinsphase bleibt das Working Capital Management ein wichtiger Treiber für Wertgrößen in Unternehmen und wichtiges Managementinstrument. Unsere Ergebnisse über 115 Unternehmen aus den wichtigsten deutschen Indizes in den Jahren 2011 bis 2017 zeigen, dass effektives Working Capital Management einen positiven Einfluss auf die Rentabilität und den Unternehmenswert haben kann. Gleichzeitig zeigen unsere Ergebnisse aber auch, dass dem Working Capital Management jüngst weniger Aufmerksamkeit zuteilgeworden ist und digitale Innovationen vermutlich noch nicht in dem Umfang zur Effizienzsteigerung eingesetzt werden, wie dies möglich erscheint. Selbst vor dem Hintergrund andauernd niedriger Kapitalmarktzinsen ist dies kritisch zu sehen.
Mit diesem Strategiepapier formulieren die Universitäts-, Landes- und Hochschulbibliotheken des Landes Baden-Württemberg die aus ihrer Sicht zentralen Entwicklungsfelder und Herausforderungen der kommenden Jahre. Die Bibliotheken und das Bibliotheksservice-Zentrum Baden-Württemberg (BSZ) sorgen als Wissenschafts- und Kultureinrichtungen gemeinsam für die akademische Informationsinfrastruktur. Sie nehmen die Herausforderungen der Digitalisierung an und gestalten den Wandel im Dialog mit Forschenden, Lehrenden und Studierenden aktiv mit.
In buchstäblich letzter Minute haben sich die englische Regierung und die Europäische Union auf ein umfangreiches Abkommen geeinigt, um einen ungeregelten Brexit zu verhindern. Nach dem jahrelangen zähen Verhandlungsmarathon fällt der Jubel verhalten aus, dennoch herrscht auf beiden Seiten des Ärmelkanals Erleichterung, weil ein Modus Vivendi gefunden wurde, auf dem sich die künftigen Beziehungen aufbauen und fortführen lassen. Ob sich die englischen Blütenträume, die an den Brexit geknüpft wurden, erfüllen werden, wird die Zukunft erweisen.
Die Strategie und Taktik der englischen Regierungen zum Brexit und bei den Austrittsverhandlungen spiegeln sich in den Erfahrungen wider, die Friedrich List vor genau 175 Jahren bei seinen Bemühungen um eine deutsch-englische Allianz machen musste. Wegen der von England schon damals strikt befolgten Insular und Handelssuprematie musste er sich eingestehen, dass England diese Position hartnäckig verteidigt und deshalb frustriert und ernüchtert seine Pläne aufgeben. Deshalb setzte er seine Hoffnung auf eine "Kontinentalallianz" der europäischen Nationen, wie sie nun nach dem Austritt Großbritanniens aus der Europäischen Union entstanden ist. Vielleicht werden wir uns nun an den Begriff "Kontinentalallianz" gewöhnen müssen und dabei an die Weitsicht von Friedrich List erinnert.
Andererseits gilt auch für die englische Politik das Motto von Lists zweiter Pariser Preisschrift: "Le monde marche - Die Welt bewegt sich", allerdings mit völlig anderen Vorzeichen als vor 175 Jahren: Die Welthandelsachse hat sich von der westlichen auf die östliche Halbkugel verlagert; das britische Weltreich ist Geschichte, die Fließgeschwindigkeit des globalen Wandels hat sich dramatisch beschleunigt und trotz der Lingua Franca erscheint England, vor allem aus asiatischer Sicht, nur noch als kleiner Fleck auf der Weltkarte. Falls die schottische Regierung ihre Absicht durchsetzen und die Unabhängigkeit vom Vereinigten Königreich erreichen sollte, würde sich der Brexit als verhängnisvoller Bumerang erweisen.
Several studies analyzed existing Web APIs against the constraints of REST to estimate the degree of REST compliance among state-of-the-art APIs. These studies revealed that only a small number of Web APIs are truly RESTful. Moreover, identified mismatches between theoretical REST concepts and practical implementations lead us to believe that practitioners perceive many rules and best practices aligned with these REST concepts differently in terms of their importance and impact on software quality. We therefore conducted a Delphi study in which we confronted eight Web API experts from industry with a catalog of 82 REST API design rules. For each rule, we let them rate its importance and software quality impact. As consensus, our experts rated 28 rules with high, 17 with medium, and 37 with low importance. Moreover, they perceived usability, maintainability, and compatibility as the most impacted quality attributes. The detailed analysis revealed that the experts saw rules for reaching Richardson maturity level 2 as critical, while reaching level 3 was less important. As the acquired consensus data may serve as valuable input for designing a tool-supported approach for the automatic quality evaluation of RESTful APIs, we briefly discuss requirements for such an approach and comment on the applicability of the most important rules.
Together with many success stories, promises such as the increase in production speed and the improvement in stakeholders' collaboration have contributed to making agile a transformation in the software industry in which many companies want to take part. However, driven either by a natural and expected evolution or by contextual factors that challenge the adoption of agile methods as prescribed by their creator(s), software processes in practice mutate into hybrids over time. Are these still agile In this article, we investigate the question: what makes a software development method agile We present an empirical study grounded in a large-scale international survey that aims to identify software development methods and practices that improve or tame agility. Based on 556 data points, we analyze the perceived degree of agility in the implementation of standard project disciplines and its relation to used development methods and practices. Our findings suggest that only a small number of participants operate their projects in a purely traditional or agile manner (under 15%). That said, most project disciplines and most practices show a clear trend towards increasing degrees of agility. Compared to the methods used to develop software, the selection of practices has a stronger effect on the degree of agility of a given discipline. Finally, there are no methods or practices that explicitly guarantee or prevent agility. We conclude that agility cannot be defined solely at the process level. Additional factors need to be taken into account when trying to implement or improve agility in a software company. Finally, we discuss the field of software process-related research in the light of our findings and present a roadmap for future research.
Ziel des Projekts ist es, die Schutzwirkung von Schweißerschutzkleidung zu verbessern. Der Fokus lag dabei auf den Fragestellungen: Kann man durch eine Ausrüstung die Beständigkeit der Textilien gegen Tropfen von flüssigem Metall erhöhen und gleichzeitig einen besseren UV-Schutz erhalten? Diese Schutzfaktoren von Schweißerschutzkleidung hängen stark vom Flächengewicht des verwendeten Textils ab. Je höher das Flächengewicht, desto beständiger ist die Kleidung gegenüber Metallspritzern und desto weniger UV wird durch die Kleidung hindurchgelassen. Jedoch gilt, je höher das Flächengewicht, desto schlechter ist der Tragekomfort, da ein hohes Flächengewicht u.a. das Schwitzen fördert. Schweißerschutzkleidung wird nach zwei Klassen unterteilt. Im Fall von Kleidung der Klasse 1 darf ein Temperaturanstieg von 40 K auf der Rückseite des Textils erst nach dem 15. aufgetroffenen Tropfen flüssigen Eisens auftreten. Im Fall der Klasse 2 darf der Temperaturanstieg erst nach 25 Tropfen auftreten. Als Ausgang für dieses Projekt wurden Gewebe ausgewählt, welche die Klasse 1 erfüllen. Es wurde versucht, diese Gewebe durch die Ausrüstung entweder mit wärmeleitfähigen Kompositen oder durch eine Nanostrukturierung ("Lotuseffekt") entsprechend auszurüsten, so dass die Anforderungen für Klasse 2 erfüllt werden. Wärmeleitfähige Komposite sollten für die Ausrüstung ein schnelles Ableiten und Verteilen der Wärme der Metalltropfen auf der Oberfläche garantieren, wodurch sichergestellt werden sollte, dass die Erwärmung der Rückseite des Gewebes deutlich verlangsamt wird. Mit dieser Ausrüstung konnte die Klasse 2 nicht erreicht werden, sie führte jedoch zu keiner Verschlechterung des Tragekomforts des leichteren Gewebes, und die Transmission von schädlicher UV-Strahlung wurde verringert. Durch eine Nanostrukturierung sollte ein "Lotuseffekt" für kleine Metalltropfen erzielt werden. Durch die Nanostrukturierung trifft der Metalltropfen zuerst auf die Oberfläche der Nanopartikel auf, wobei isolierende Luft zwischen Metalltropfen und Gewebeoberfläche eingeschlossen wird und so das Gewebe vor dem Tropfen selbst schützt. Dieser Ansatz lässt vermuten, dass sich der Effekt gut über die aufgetragenen Menge Nanopartikel / Binder einstellen lässt. Im Fall von Binderkonzentrationen zwischen 1,25 und 2,5 % wird die Flexibilität nur geringfügig beeinträchtigt, wobei mit unterschiedlichen Partikeln (SiO2, ZnO, AlOx und TiO2) die Schweißerschutzklasse 2 erreicht werden kann. Der Tragekomfort der Gewebe wird nicht beeinflusst. Das Verfahren bietet KMU aus dem Bereich der Textilveredlung neue innovative Produkte für den Arbeitsschutzsektor. Die Verwendung von leichterer Kleidung im Bereich der PSA (Persönliche Schutzausrüstung) erhöht die Akzeptanz dieser, da der Tragekomfort im Vergleich zu Schweißerschutzkleidung der Klasse 2 durch das im Projekt entwickelte Verfahren der Nanostrukturierung von Kleidung der Schweißerschutzklasse 1 einen deutlich verbesserten Tragekomfort mit sich bringt. Dadurch können von KMU, welche sich auf den Sektor PSA spezialisiert haben, neue und auch internationale Absatzmärkte eröffnet werden.
Hyperspectral imaging and reflectance spectroscopy in the range from 200–380 nm were used to rapidly detect and characterize copper oxidation states and their layer thicknesses on direct bonded copper in a non-destructive way. Single-point UV reflectance spectroscopy, as a well-established method, was utilized to compare the quality of the hyperspectral imaging results. For the laterally resolved measurements of the copper surfaces an UV hyperspectral imaging setup based on a pushbroom imager was used. Six different types of direct bonded copper were studied. Each type had a different oxide layer thickness and was analyzed by depth profiling using X-ray photoelectron spectroscopy. In total, 28 samples were measured to develop multivariate models to characterize and predict the oxide layer thicknesses. The principal component analysis models (PCA) enabled a general differentiation between the sample types on the first two PCs with 100.0% and 96% explained variance for UV spectroscopy and hyperspectral imaging, respectively. Partial least squares regression (PLS-R) models showed reliable performance with R2c = 0.94 and 0.94 and RMSEC = 1.64 nm and 1.76 nm, respectively. The developed in-line prototype system combined with multivariate data modeling shows high potential for further development of this technique towards real large-scale processes.
The paper explains a workflow to simulate the food energy water (FEW) nexus for an urban district combining various data sources like 3D city models, particularly the City Geography Markup Language (CityGML) data model from the Open Geospatial Consortium, Open StreetMap and Census data. A long term vision is to extend the CityGML data model by developing a FEW Application Domain Extension (FEW ADE) to support future FEW simulation workflows such as the one explained in this paper. Together with the mentioned simulation workflow, this paper also identifies some necessary FEW related parameters for the future development of a FEW ADE. Furthermore, relevant key performance indicators are investigated, and the relevant datasets necessary to calculate these indicators are studied. Finally, different calculations are performed for the downtown borough Ville-Marie in the city of Montréal (Canada) for the domains of food waste (FW) and wastewater (WW) generation. For this study, a workflow is developed to calculate the energy generation from anaerobic digestion of FW and WW. In the first step, the data collection and preparation was done. Here relevant data for georeferencing, data for model set-up, and data for creating the required usage libraries, like food waste and wastewater generation per person, were collected. The next step was the data integration and calculation of the relevant parameters, and lastly, the results were visualized for analysis purposes. As a use case to support such calculations, the CityGML level of detail two model of Montréal is enriched with information such as building functions and building usages from OpenStreetMap. The calculation of the total residents based on the CityGML model as the main input for Ville-Marie results in a population of 72,606. The statistical value for 2016 was 89,170, which corresponds to a deviation of 15.3%. The energy recovery potential of FW is about 24,024 GJ/year, and that of wastewater is about 1,629 GJ/year, adding up to 25,653 GJ/year. Relating values to the calculated number of inhabitants in Ville-Marie results in 330.9 kWh/year for FW and 22.4 kWh/year for wastewater, respectively.
Avatars are in use when interacting in virtual environments in different contexts, in collaborative work, as well as in gaming and also in virtual meetings with friends. Therefore it is important to understand how the relationship between user and avatar works. In this study, an online survey is used to determine how the perception of an avatar changes in different contexts by relating it to existing avatar relationship typologies. Additionally, it is determined whether in each context a realistic, abstract or comic-like representation is preferred by the participants. One result was a preference of low poly representations in the work context, which are associated with the perception of the avatar as a tool. In the context of meeting friends, a realistic representation is perceived as more appropriate, which is perceived as an accurate self-representation. In the gaming context, the results are less clear, which can be attributed to different gaming preferences. Here, unlike in the other contexts, a comic-like representation is also perceived as appropriate, which is associated with the perception of the avatar as a friend. A symbiotic user-avatar relationship is not directly related to any form of representation, but always lies in the midfield, which is attributed to the fact that it represents a whole spectrum between other categories.
To correctly assess the cleanliness of technical surfaces in a production process, corresponding online monitoring systems must provide sufficient data. A promising method for fast, large-area, and non-contact monitoring is hyperspectral imaging (HSI), which was used in this paper for the detection and quantification of organic surface contaminations. Depending on the cleaning parameter constellation, different levels of organic residues remained on the surface. Afterwards, the cleanliness was determined by the carbon content in the atom percent on the sample surfaces, characterized by XPS and AES. The HSI data and the XPS measurements were correlated, using machine learning methods, to generate a predictive model for the carbon content of the surface. The regression algorithms elastic net, random forest regression, and support vector machine regression were used. Overall, the developed method was able to quantify organic contaminations on technical surfaces. The best regression model found was a random forest model, which achieved an R2 of 0.7 and an RMSE of 7.65 At.-% C. Due to the easy-to-use measurement and the fast evaluation by machine learning, the method seems suitable for an online monitoring system. However, the results also show that further experiments are necessary to improve the quality of the prediction models.
Forecasting demand is challenging. Various products exhibit different demand patterns. While demand may be constant and regular for one product, it may be sporadic for another, as well as when demand occurs, it may fluctuate significantly. Forecasting errors are costly and result in obsolete inventory or unsatisfied demand. Methods from statistics, machine learning, and deep learning have been used to predict such demand patterns. Nevertheless, it is not clear for what demand pattern, which algorithm would achieve the best forecast. Therefore, even today a large number of models are used to forecast on a test period. The model with the best result on the test period is used for the actual forecast. This approach is computationally and time intensive and, in most cases, uneconomical. In our paper we show the possibility to use a machine learning classification algorithm, which predicts the best possible model based on the characteristics of a time series. The approach was developed and evaluated on a dataset from a B2B-technical-retailer. The machine learning classification algorithm achieves a mean ROC-AUC of 89%, which emphasizes the skill of the model.
Coopetitive endeavors offer valuable strategic options for firms. Yet, many of them are failure-prone as partners must balance collective and private interest. While interpartner trust is considered central for alliance success, paradoxically, the role and dynamics of trust is still not understood. We synthesize a computational model, capturing relational dynamics of an alliance, encompassing coevolution of trust, partner contributions, and (relative) alliance interactions. Analyzing alliance dynamics using simulation we find and explore a tipping boundary, separating a regime of alliance failure and success. We identify implications for collaborative (aspirations) and private strategies (openness). Our analyses reveal that strategies informed by a static mental model of partner trust, contributions, and openness tend to yield subpar alliance results and hidden failure-risk. We discuss implications for management theory.
In the era of precision medicine, digital technologies and artificial intelligence, drug discovery and development face unprecedented opportunities for product and business model innovation, fundamentally changing the traditional approach of how drugs are discovered, developed and marketed. Critical to this transformation is the adoption of new technologies in the drug development process, catalyzing the transition from serendipity-driven to data-driven medicine. This paradigm shift comes with a need for both translation and precision, leading to a modern Translational Precision Medicine approach to drug discovery and development. Key components of Translational Precision Medicine are multi-omics profiling, digital biomarkers, model-based data integration, artificial intelligence, biomarker-guided trial designs and patient-centric companion diagnostics. In this review, we summarize and critically discuss the potential and challenges of Translational Precision Medicine from a cross-industry perspective.
Ambitious goals set by the European Union strategy towards the emission reduction of multimodal logistic chains and new requirements for intermodal terminals set by the evolution of customer needs, contribute to a shift in the driver for the infrastructure development: from economy of scale to economy of density. This paper aims to present an innovative method for designing a process oriented technology chain for intermodal terminals in order to fulfill these new demanding requirements. The results of the case study of the Zero Emission Logistic Terminal Reutlingen are presented, highlighting how this particular context enables the design and development of a modular concept, paving the way for the generalization of the findings towards the transfer to similar contexts of other European cities.
Towards Automated Surgical Documentation using automatically generated checklists from BPMN models
(2021)
The documentation of surgeries is usually created from memory only after the operation, which is an additional effort for the surgeon and afflicted with the possibility of imprecisely, shortend reports. The display of process steps in the form of checklists and the automatic creation of surgical documentation from the completed process steps could serve as a reminder, standardize the surgical procedure and save time for the surgeon. Based on two works from Reutlingen University, which implemented the creation of dynamic checklists from Business Process Modelling Notation (BPMN) models and the storage of times at which a process step was completed, a prototype was developed for an android tablet, to expand the dynamic checklists by functions such as uploading photos and files, manual user entries, the interception of foreseeable deviations from the normal course of operations and the automatic creation of OR documentation.
While there has been increased digitization of private homes, only little has been done to understand these specific home technologies, how they serve consumers, among other issues. “Smart home technology” (SHT) refer to a wide range of artifacts from cleaning aids to energy advisors. Given this breadth, clarity surrounding the key characteristics and the multi-faceted impact of SHT is needed to conduct more directed research on SHT. We propose a taxonomy to help outline the salient intended outcomes of SHT. Through a process involving five iterations, we analyzed and classified 79 technologies (gathered from literature and industry reports). This uncovered seven dimensions encompassing 20 salient characteristics. We believe these dimensions/characteristics will help researchers and organizations better design and study the impacts of these technologies. Our long-term agenda is to use the proposed taxonomy for an exploratory inquiry to understand tensions occurring when personal and sustainability-related outcomes compete.