Refine
Document Type
- Conference proceeding (189) (remove)
Language
- German (189) (remove)
Is part of the Bibliography
- yes (189)
Institute
- Informatik (108)
- Technik (53)
- ESB Business School (26)
- Texoversum (3)
Publisher
- Hochschule Reutlingen (81)
- Gesellschaft für Informatik e.V (15)
- Hochschule Ulm (8)
- VDE Verlag (8)
- Deutsche Gesellschaft für Computer- und Roboterassistierte Chirurgie e.V. (7)
- Arbeitsgemeinschaft Simulation (ASIM) (4)
- Verlag IFZ – Hochschule Luzern (4)
- Springer (3)
- Technische Universität Chemnitz (3)
- Technische Universität Graz (3)
Die Informatics Inside-Konferenz findet in diesem Jahr zum dritten Mal statt. Mit dem Thema "Grenzen überwinden – Virtualität erweitert Realität" stellt sich die Veranstaltung einem aktuellen Schwerpunkt, der viele Interessierte aus Wirtschaft, Wissenschaft und Forschung anzieht. Die Konferenz hat sich von einer Veranstaltung für die Masterstudenten des Studiengangs Medien- und Kommunikationsinformatik zu einer offenen Studentenkonferenz entwickelt. Um die Qualität weiter zu steigern wurde parallel dazu ein zweistufiges Review-Verfahren für Beiträge dieses Tagungsbandes eingeführt.
In diesem Artikel wird ein neu entwickeltes Werkzeug zur Dimensionierung von Bonddrähten im ASIC-Entwurf vorgestellt. Die Berücksichtigung aller Einflussfaktoren erlaubt eine gegenüber Handrechnungen optimierte Auslegung der Bondanordnung. Dies ermöglicht zum einen die Absicherung gegen Degradationseffekte bis hin zum Durchbrennen und garantiert so die Zuverlässigkeit über die gesamte Lebensdauer. Zum anderen wird eine aus Zuverlässigkeitserwägungen resultierende Überdimensionierung vermieden.
Das Werkzeug erlaubt die Kalkulation aller für die Auslegung von Bonddrähten relevanten Parameter. Je nach Kontext der Aufgabenstellung lassen sich die Stromtragfähigkeit für Dauerstrom oder Pulsstrombelastung, kritische Temperaturen oder die maximale Bonddrahtlänge als Ausgabegrößen berechnen. Durch diese Flexibilität und die benutzerfreundliche Integration in eine industrielle Entwicklungsumgebung ist der „Bond-Rechner“ im gesamten Entwurfsverlauf einsetzbar und leistet wertvolle Hilfestellung von ersten Abschätzungen in frühen Entwurfsphasen bis hin zur abschließenden Verifikation.
Ein praktikables Mittel zur Erhöhung des Automatisierungsgrads im analogen IC-Entwurf ist die Verwendung parametrisierter Zellen. Diese sogenannten pCells werden eingesetzt, um determinierte Layouts automatisch zu erzeugen, und zwar in der Regel für einzelne Bauelemente wie Transistoren oder Dioden. Der vorliegende Beitrag zeigt die Potenziale eines erweiterten pCell-Konzepts, mit dem determinierte Layouts als auch Schaltpläne für ganze Schaltungsmodule automatisch generiert werden können. Als Beispiel wird eine solche Modul-pCell für analoge Stromspiegel beschrieben, die nicht nur die Dimensionierung der Einzeltransistoren, sondern auch verschiedene Transistortypen, beliebige Spiegelverhältnisse und sogar mehrere Topologien sowie weitere Freiheitsgrade implementiert. Das dadurch erzielte Maß an Flexibilität erlaubt es, die zahlreichen schaltungstechnischen Varianten im Analogbereich abzudecken, die ansonsten oftmals Hürden für Automatisierungsansätze darstellen.
Das Motto der diesjährigen Konferenz lautet "Reality++: Tomorrow comes today!". Unter diesem fast schon visionären Thema werden die Ergebnisse der verschiedenen Vertiefungsarbeiten aus den vergangenen Monaten präsentiert. Das Programm wird vervollständigt durch Beiträge von Experten aus der Forschung und Industrie.
Der vorliegende Artikel beleuchtet die grundsätzlichen Möglichkeiten der Integration von Funktionalitäten der sozialen Medien in Unternehmen. Darauf aufbauend wird Social Commerce als zentraler Gegenstand der Unternehmensführung hergeleitet. Dabei stehen der kundenseitige Kaufprozess und dessen Schnittstellen zu Kommunikationsinstrumenten des Social Webs im Vordergrund. Gezeigt wird die Beeinflussung des individuellen Kaufprozesses durch Social Media. Diese Wirkungsdynamiken sind nachfolgend die Grundlage für die Deskription von möglichen strategischen Einsatzfeldern und Bereichen des Social Commerce in der Unternehmensführung.
Die Spannungsversorgung elektronischer Steuergeräte im Automotive-Bereich wird zunehmend durch Schaltregler sichergestellt. Der SEPIC (Single Ended Primary Inductance Converter) besitzt die Eigenschaft, eine Spannung aufwärts wie auch abwärts wandeln zu können und könnte somit klassische Buck- und Boost-Wandler ablösen. Dieser Beitrag untersucht den SEPIC hinsichtlich Eignung für Automotive-Anwendungen. Dazu wurde eine Groß- sowie Kleinsignalanalyse am Wandler durchgeführt, mit geeigneten Simulationsmodellen nachgebildet und Messungen gegenüber gestellt. Der SEPIC zeigt als Hauptvorteile:
1. einen verzugsfreien Übergang zwischen Buck-/Boost Betrieb, 2. geringe Eingangswelligkeit, 3.DC-Kurzschlussfestigkeit. Auch hinsichtlich Wirkungsgrad und EMV-Verhalten stellt der SEPIC eine interessante Alternative dar. Der zwischen Ein- und Ausgang liegende Kondensator wird dauerhaft von einem Strom durchflossen, auf Basis der Effektivströme wird das damit verbundene Ausfallrisiko diskutiert.
Universelle OTA-Testbench
(2014)
Es wird eine universell einsetzbare Testbench zur Simulation von integrierten Schaltungen innerhalb der OTA-Schaltungsklasse (Operational Transconductance Amplifier; Transkonduktanzverstärker) vorgestellt. Transkonduktanzverstärker sind in der analogen Schaltungstechnik weit verbreitet und daher von großer Bedeutung. Sie treten sowohl als eigenständige Schaltungen innerhalb eines Chips, sowie als Bestandteil anderer Schaltungen (z.B. als erste und zweite Stufe von Operationsverstärkern) auf. Es kann davon ausgegangen werden, dass heute kaum ein analoger oder Mixed-Signal-Chip gefertigt wird, in dem keine Transkonduktanzverstärker verbaut sind. Die Entscheidungsfindung des Entwicklers bei der Auslegung eines OTAs beruht maßgeblich auf einer anwendungsspezifischen Simulation. Die Erstellung einer eigenen Testbench für jede Anwendung bedeutet allerdings einen hohen Zeitaufwand und erschwert den Vergleich der Simulationsergebnisse unterschiedlicher Schaltungsvarianten. Durch eine universelle Testbench kann zum einen der Zeitaufwand verringert werden, zum anderen können nun Simulationsergebnisse direkt miteinander verglichen werden. Hierdurch wird die Entscheidungsfindung des Entwicklers objektiviert und beschleunigt. Neben dem Vergleich unterschiedlicher Schaltungen innerhalb einer Technologie ist auch der Vergleich einer Schaltung in unterschiedlichen Technologien denkbar. Die Idee einer universell anwendbaren Testbench lässt sich auch auf andere analoge Schaltungsklassen anwenden und damit als Prinzip verallgemeinern.
Es wird das Ziel verfolgt, eine Möglichkeit für die sichere Wiederverwendbarkeit von Schaltungen aus der OTA-Schaltungsklasse bereitzustellen. Hierfür werden ausgewählte OTA-Schaltungstopologien für die "Copy-and-Paste"-Methode vorgestellt. Es wurde im industriellen Umfeld gezeigt, dass sie sich unter der Voraussetzung einer repräsentativen Topologieauswahl – vordimensioniert für den typischen Anwendungsbereich – schon in dieser Form für die Wiederverwendung eignen.
Mit der Verfügbarkeit leistungsfähiger Computer haben rechnergestützte Simulationsverfahren überall in Wissenschaft und Technik Einzug gehalten. Die modellbasierte Simulation als "virtuelles Experiment" stellt insbesondere im Entwurf technischer Systeme ein wirksames und längst unverzichtbares Hilfsmittel dar, um Entwicklungsergebnisse hinsichtlich gewünschter Eigenschaften abzusichern. Die Möglichkeiten heutiger Simulationsmethoden sind faszinierend, weshalb gerade Anfänger (aber nicht nur diese) der Gefahr ausgesetzt sind, deren Ergebnisse unkritisch zu übernehmen. Besondere Bedeutung kommt hier der Lehre zu. Neben der Anwendung der Simulationswerkzeuge ist es wichtig, den Studierenden auch deren theoretische Grundlagen nahe zu bringen und damit ihr Bewusstsein hinsichtlich der Grenzen der Simulation zu schärfen. Der Workshop der ASIM/GI-Fachgruppen "Simulation technischer Systeme" und "Grundlagen und Methoden in Modellbildung und Simulation" bringt Fachleute aus Wirtschaft und Wissenschaft zum Erfahrungsaustausch rund um die Simulation zusammen. Hierbei werden alle Aspekte von den Grundlagen über die Methoden bis hin zu Werkzeugen und Anwendungsbeispielen angesprochen.
In diesem Beitrag wurde gezeigt, wie ein bereits bekanntes Verfahren zur modellprädiktiven Regelung zur Optimierung der Energieeffizienz einer Asynchronmaschine im dynamischen Betrieb eingesetzt werden kann. Dazu wurden zunächst die Beziehungen für die Verlustleistung bei alleiniger Berücksichtigung der Kupferverluste im dynamischen Betrieb hergeleitet. Ausgehend davon wurde das Optimierungsproblem formuliert, der Einfluss von Parametern des modellprädiktiven Verfahrens auf das Optimierungsergebnis untersucht und damit Vorschlagswerte für diese Parameter ermittelt. Der Vergleich mit zwei weiteren Verfahren ohne Optimierung bzw. mit Optimierung allein für stationäre Arbeitspunkte zeigt die Vorteile des modellprädiktiven Verfahrens.
Die Wahl einer Klinik ist typischerweise dem stellvertretenden Kaufverhalten zuzuordnen – Kunden suchen vertrauenswürdige, persönliche Quellen zur Unterstützung der Entscheidung. Weiterempfehlungsverhalten kann durch Anreize unterstützt werden – grundlegende Voraussetzung für ehrliche Weiterempfehlung ist jedoch Kundenzufriedenheit. Kundenzufriedenheit entsteht durch den Abgleich zwischen erwarteter und empfundener Leistung – das erwartete Leistungsniveau wird häufig durch Unternehmen anderer Branchen determiniert. Individuen sind nicht in der Lage, die Bestandteile einer Erfahrung isoliert zu bewerten, sondern vermengen sie (Halo-Effekt) - Inkonsistenzen führen zu einer Abwertung der Gesamterfahrung. Darum ist im ersten Schritt die Identifikation der Gesamterfahrung (Kundenreise) erforderlich – diese beginnt vor und endet nach der unmittelbaren Interaktion des Kunden mit dem Unternehmen / der Klinik. Im zweiten Schritt sind die Zufriedenheitstreiber und die Interdependenzen zwischen den Einzelerfahrungen zu ermitteln um dann die Optimierung der Kundenreise zu planen und umzusetzen.
Fundamentale Veränderungen der heutigen Arbeitswelt stellen Menschen, Systeme, Prozesse und ganze Organisationen vor erhebliche Herausforderungen. Der Faktor Mensch leistet in allen Bereichen dieses Wirkgefüges einen essentiellen Beitrag zum Wettbewerbsvorteil vieler produzierender Unternehmen am Standort Deutschland. Der Wandel von Automatisierung zu selbststeuernden Unternehmen geht dabei nicht spurlos an dem wandlungsfähigsten Glied dieses Gefüges, dem Menschen, vorüber. Belastungsarten verändern sich, singuläre Bewältigungsstrategien genügen nicht mehr, um einen optimalen Beanspruchungszustand jedes einzelnen Individuums zu erreichen und gleichzeitig das höchstmögliche Potenzial zu schöpfen. Das Belastungs- und Beanspruchungscockpit bildet einen Lösungsansatz zur systematischen und durchgängigen Bewertung von Belastungszuständen und der individuellen Beanspruchung von Beschäftigten an Montagearbeitsplätzen. Es liefert in Echtzeit Informationen zum Belastungs- und Beanspruchungszustand des Mitarbeiters und kann mit Ergonomiebewertungsverfahren verknüpft werden. Der Aspekt der Multidimensionalität umfasst die Bewertung verschiedener Indikatoren unter Betrachtung ihrer Wirkzusammenhänge.
System- und Schnittstellenbeherrschung, Ideen- und Innovationsmanagement sowie die virtuell integrierte Produkt- und Prozessplanung sind zu entwickelnde Kompetenzen, die der veränderten Rolle des Menschen in der Industrie 4.0 Rechnung tragen. Dezidiert adressiert werden können diese in zukunftsweisend ausgerüsteten Lernfabriken.
Die sogenannte Systemsimulation, bei der mehrere physikalische Domänen gemeinsam simuliert werden, erlaubt die Analyse komplexer und damit realitätsnaher Systeme und spielt eine zunehmend größere Rolle bei der Auslegung von Komponenten. Enthält das System Teile, die durch Feldgrößen aus unterschiedlichen physikalischen Domänen beschrieben werden müssen, kann man Co-Simulationen einsetzen, die allerdings zeitaufwändig sind. Für die Auslegung des Systems ist es dagegen notwendig, Systemsimulationen schnell durchzuführen zu können. Hierfür können für ausgewählte Bauteile oder Domänen schnellere reduzierte Ersatzmodelle (ROM) eingesetzt werden. In dieser Arbeit stellen wir ein reduziertes Modell für elektromechanische Bauteile mit Berücksichtigung von Wirbelströmen vor. Wirbelstromeffekte hängen nicht nur vom aktuellen Zustand, sondern auch von der Geschichte der elektromagnetischen Domäne ab. Das vorgestellte Ersatzmodell basiert auf Daten, die mit einer Reihe von stationären Feldsimulationen vorab erzeugt werden. Für die Modellierung der geschichtsabhängigen Wirbelstromeffekte wird ein Konvolutionsansatz (Faltungsansatz) verwendet. Vergleiche mit entsprechenden Co-Simulationen in ANSYS Maxwell und Simplorer zeigen am Beispiel eines Hubankers, dass das Ersatzmodell in der Lage ist, die wesentlichen Eigenschaften des Bauteils physikalisch korrekt abzubilden.
Big Data und Cloud Systeme werden zunehmend von mobilen, benutzerzentrierten und agil veränderbaren Informationssystemen im Kontext von digitalen sozialen Netzwerken genutzt. Metaphern aus der Biologie für lebendige und selbstheilende Systeme und Umgebungen liefern die Basis für intelligente adaptive Informationssysteme und für zugehörige serviceorientierte digitale Unternehmensarchitekturen. Wir berichten über unsere Forschungsarbeiten über Strukturen und Mechanismen adaptiver digitaler Unternehmensarchitekturen für die Entwicklung und Evolution von serviceorientierten Ökosystemen und deren Technologien wie Big Data, Services & Cloud Computing, Web Services und Semantikunterstützung. Für unsere aktuellen Forschungsarbeiten nutzen wir praxisrelevante SmartLife Szenarien für die Entwicklung, Wartung und Evolution zukunftsgerechter serviceorientierter Informationssysteme. Diese Systeme nutzen eine stark wachsende Zahl externer und interner Services und fokussieren auf die Besonderheiten der Weiterentwicklung der Informationssysteme für integrierte Big Data und Cloud Kontexte. Unser Forschungsansatz beschäftigt sich mit der systematischen und ganzheitlichen Modellbildung adaptiver digitaler Unternehmensarchitekturen - gemäß standardisierter Referenzmodelle und auf Standards aufsetzenden Referenzarchitekturen, die für besondere Einsatzszenarien auch bei kleineren Anwendungskontexten oder an neue Kontexte einfacher adaptiert werden können. Um Semantik-gestützte Analysen zur Entscheidungsunterstützung von System- und Unternehmensarchitekten zu ermöglichen, erweitern wir unser bisheriges Referenzmodell für ITUnternehmensarchitekturen ESARC – Enterprise Services Architecture Reference Cube – um agile Mechanismen der Adaption und Konsistenzbehandlung sowie die zugehörigen Metamodelle und Ontologien für Digitale Enterprise Architekturen um neue Aspekte wie Big Data und Cloud Kontexte.
Der lokale Bekleidungseinzelhandel steht unter immer stärkerem Konkurrenzdruck durch Versandunternehmen. Zusätzlich bestehen durch gewachsene Architekturen eine Reihe von Wachstumshemmnissen. Daher sollen hier eine Reihe von Ansätzen zur Gestaltung datenzentrierter Unternehmensarchitekturen für den Bekleidungseinzelhandel vorgestellt werden. Sie basieren auf dem Einsatz von RFID zur Gewinnung von Kundenprofilen in den Niederlassungen und dem Einsatz von Big-Data basierten Auswertungs- und Analysemechanismen. Mit den vorgestellten Konzepten ist es Unternehmen des Bekleidungseinzelhandels möglich, ähnlich wie Versandunternehmen, individuelle Ansprachen des Kunden und Angebote zu entwickeln
Durch schnell schaltende Leistungsendstufen werden durch kapazitive Umladeströme Störungen ins Substrat und in empfindliche Schaltungselemente eingekoppelt, die dort zur Störung der Funktion führen können. In dieser Arbeit werden Substratstrukturen zur gezielten Ableitung dieser Störungen vorgestellt und ihre Wirksamkeit mit Hilfe von Device Simulation evaluiert. Ohne Ableitstrukturen kann eine Potentialanhebung des Substrats bis zu 20 V entstehen. Die Untersuchungen belegen, dass die Potentialanhebung durch p-Typ Guard-Ringe um 75 %, durch leitende Trenches um 88 % sowie durch Rückseitenmetallisierung um nahezu 100 % reduziert werden kann.
Der elektrische Wirkungsgrad stellt eines der wichtigsten Bewertungskriterien für BHKW dar, da über diese Größe ausgedrückt wird, wie viel des Wertproduktes „elektrische Energie“ bezogen auf die eingesetzte oder aufzuwendende Brennstoffenergie produziert werden kann. Ein hoher elektrischer Wirkungsgrad ist somit gleichbedeutend mit hohen Erlösen aus dem Verkauf der erzeugten elektrischen Energie und damit eine grundlegende Voraussetzung für einen wirtschaftlichen Betrieb eines BHKWs. Folglich sind die Hersteller von BHKW bestrebt, den elektrischen Wirkungsgrad ihrer Geräte kontinuierlich zu verbessern und nach oben zu treiben. Dieses Bemühen zeigt sich eindrucksvoll an der Entwicklung der mechanischen Effizienz von Gasmotoren der Firma GE Jenbacher. Während mit Motoren der Baureihe 6 im Leistungsbereich 1,8 – 4,4 MWel im Jahr 1988 eine mechanische Effizienz von 34% erreichbar war, liegt dieser Wert mittlerweile bei etwa 47,5%. Diese enorme Steigerung konnte im Wesentlichen durch eine Erhöhung des mittleren effektiven Zylinderarbeitsdrucks von etwa 10 bar im Jahr 1988 auf derzeit 24 bar erzielt werden. Dabei hilft der Magerbetrieb, der gleichzeitig ein Zurückdrängen der NOx-Emissionen bewirkt, die Klopfgrenze zu höheren Drücken hin zu verschieben. Eine sichere Zündung des Gas-Luft-Gemisches wird durch die Vorkammerzündung erreicht.
Ein wirtschaftlicher Betrieb von KWK-Anlagen ist erreichbar, wenn Geräte mit gutem elektrischen Wirkungsgrad und geringen Anschaffungs- und Wartungskosten eingesetzt werden und der im BHKW erzeugte Strom zum größtmöglichen Anteil im Objekt verbraucht wird. Der Pufferspeicher einer KWK-Anlage sollte ausreichend groß bemessen sein (Flexibilität, Eigenstromoptimierung...). Ein größeres BHKW ist nicht automatisch unwirtschaftlicher aufgrund der geringeren Betriebszeit. Es bietet dagegen ein höheres Potenzial für eine bedarfsgerechte Stromeinspeisung in das Netz.
In der Mikroelektronik werden Chips häufig in Mold-Gehäusen verpackt. Die elektrischen Verbindungen vom Chip zu den Anschlussbeinchen des Gehäuses werden mit Bonddrähten realisiert. Für die Berechnung der Gleichgewichtstemperatur in einem Bonddraht bei konstantem Strom sowie von Temperaturverläufen bei transienten Strömen ist die herkömmliche FEM-Methode langsam und unhandlich. Daher wurde der Bondrechner entwickelt, der ein zylindersymmetrisches Ersatz-Modell für das Package in geeigneten mathematischen Gleichungen abbildet.
Im Gegensatz zum Bondrechner der ersten Generation [1], der auf den Gleichungen von [2] basiert, bietet ein neuer mathematischer Ansatz die Möglichkeit, eine endliche effektive Package-Größe, sowie einen endlichen Wärmeübergang zwischen Bonddraht und Mold-Masse zu berücksichtigen. Ebenso wurde die Berechnung der Interaktion von mehreren benachbarten Drähten verfeinert. Die Berechnung von beliebigen transienten Pulsformen mittlerer Länge wurde ebenfalls verbessert. Eine quadratische Komponente in der Temperaturabhängigkeit des spezifischen Widerstandes des Drahtmaterials kann jetzt ebenfalls berücksichtigt werden.
Die Ergebnisse wurden erfolgreich mit FEM-Berechnungen verglichen und die Geschwindigkeit der Berechnung ist um Größenordnungen schneller als mit kommerziellen FEM-Programmen.
Die Wirkungsgrade ("Normnutzungsgrade") nach DIN 4709 bilden den praktischen Betrieb von Mikro-Blockheizkraftwerken besser ab. Insbesondere bei den thermischen Wirkungsgraden ergeben sich nach DIN 4709 geringere Werte im Vergleich zu stationären Messungen aufgrund der An-/Abfahrverluste und der Speicherverluste. Der Betrieb des Zusatzkessels führt zu einer Reduktion der Primärenergieeinsparung der Gesamtanlage.
Das Motto in diesem Jahr lautet: "Human Centered Computing", als Einstimmung auf den Schwerpunkt unseres neuen Masterprogramms. Human-Centered Computing betrachtet die Anwendung der menschlichen Informationsverarbeitung auf Computersysteme sowie deren nutzerzentrierte Gestaltung. Die Beiträge vertiefen beispielsweise Themen der Mensch-Maschine-Interaktion, nutzerorientierte Softwareentwicklung, kollaborative Umgebungen oder virtuelle Realität.
Im Rahmen der wissenschaftlichen Vertiefung an der Hochschule Reutlingen befasst sich diese Arbeit mit der Untersuchung der Anforderungen und der Machbarkeit zur computergestützten Erkennung der Deutschen Gebärdensprache (DGS) und des deutschen Fingeralphabets. Die Erkenntnisse aus dieser Arbeit dienen als Grundlage zur Entwicklung eines Systems zur Übersetzung von Gebärden der DGS oder des Fingeralphabets in die deutsche Schriftsprache. Zunächst werden grundlegende Informationen zu Geschichte, Aufbau und Grammatik der DGS und des Fingeralphabets aufgeführt. Die Erkennung der Gebärden soll durch optische Bewegungssensoren erfolgen. Hierfür werden unterschieliche Sensortypen betrachtet und verglichen. Im weiteren Verlauf erfolgt die Analyse der benutzerspezifischen und technischen Anforderungen. Erstere basieren auf der Befragung einer Fokusgruppe aus gehörlosen und hörenden Menschen aus dem Bereich der Gehörlosen-, Schwerhörigen- und Sprachbehindertenpädagogik. Abgeleitet aus den Informationen der Anforderungsanalyse ergibt sich, bis zu einem gewissen Grad, die Machbarkeit aus technischer und benutzerspezifischer Sicht. Abschließend erfolgen die Zusammenfassung der Anforderungen, welche an das zu entwickelnde System gestllt werden, sowie eine Handlungsempfehlung für die Entwicklung eines Prototyps.
In mehreren Untersuchungen hat sich gezeigt, dass sich die Wahrnehmung des eigenen Körpers in einer virtuellen Umgebung positiv auf die Wahrnehmung der gesamten Umgebung auswirkt. Für diese Untersuchungen wurden der Körper einer Person, oder Teile davon, als animierter Avatar aus der Ego-Perspektive dargestellt. Im Kontext der Informatikkonferenz Informatics Inside 2014 an der Hochschule Reutlingen soll in dieser Arbeit eine andere Möglichkeit der Darstellung untersucht werden. In einer prototypischen Augmented Virtuality Anwendung soll die virtuelle Umgebung um reale Inhalte erweitert werden. Es soll einer Person ermöglicht werden, Teile ihres eigenen Körpers nicht als Avatar, sondern auf Basis einer Kameraaufnahme als realistische Repräsentation wahrzunehmen. Die Arbeit beschreibt hierbei die gesetzten Ziele, sowie Aufbau und Funktionsweise der prototypischen Anwendung und deren derzeitigen Stand.
Das Ziel dieser Arbeit war die Umsetzung eines Wahrnehmungsensors für Softwareagenten, die über ein virtuelles Menschmodell in einer dreidimensionalen Umgebung agieren. Hierbei sollen die Agenten über den Sensor in der Lage sein, semantische Informationen zu geometrischen Objekten in der Umgebung zu erhalten. Hierfür wurden zwei Verfahren umgesetzt, die das menschliche Sehen simulieren, indem Objekte erkannt werden, wenn diese innerhalb eines Sichtfelds liegen. Ein Problem, das dabei gelöst werden muss, ist die Identifizierung möglicher Verdeckungen der Objekte. Ein Ansatz, dieses Problem zu lösen, ist der Ray-Tracing Ansatz, welcher für das erste Verfahren umgesetzt wurde. Das zweite Verfahren verwendet den Occlusion-Culling Ansatz. Auswertungen beider Verfahren haben gezeigt, dass der Ray-Tracing Ansatz eine schnellere Laufzeit aufweist, der Occlusion-Culling Ansatz jedoch mehr unverdeckte Objekte im Sichtfeld erkennt.
Im präventiven Krisenmanagement geht es um die frühzeitige Erkennung von möglichen, unvorhersehbaren Ereignissen. Hierzu zählen beispielhaft Busunfälle, einstürzende Gebäude und ähnliche Großschadensereignisse. Krisen treten meist unerwartet auf und neigen oftmals aufgrund der knapp bemessenen Handlungszeit zu Fehlentscheidungen. Um dies zu verhindern, dient das präventive Krisenmanagement dazu, sämtliche auftretende Ereignisse mittels einer Simulation zuvor durchzuspielen, um im Falle einer reellen Krise die notwendigen Schritte bestmöglich einzuleiten. Um Simulationen für das Krisenmanagement zu präzisieren und die Ergebnisse effektiv und vereinfacht zu veranschaulichen, ist es notwendig, eine Vorauswahl an vorhandenen Szenarien für Vergleiche heraussuchen zu können. Diese Arbeit entstand im Rahmen des FP-7 EU Projekts CRISMA (Crisis Management) [1] und dient zur Evaluation eines Konzepts zur Vorauswahl geeigneter Szenarien, welche in früheren Simulationen entstanden.
Beim Language Oriented Programming (LOP) erstellt der Entwickler eine Programmiersprache, um ein Problem oder eine Aufgabe in einer bestimmten Domäne zu lösen. Dabei wird die Sprache so entwickelt, dass sie das konzeptuelle Modell des Entwicklers ohne Umdenken umsetzen kann. Diese Sprachen nennt man domänenspezifische Sprachen (DSL). Zur Entwicklung dieser Sprachen werden sogenannte Language Workbenches (LWB) verwendet. Diese Arbeit befasst sich mit der Entwicklung von DSLs als ein Mittel zur Umsetzung von LOP. Durch die Nutzung der LWBs kann man DSLs mit relativ kleinem Aufwand erstellen und einsetzen. Im Fokus dieser Arbeit steht die Entwicklung von "Modularen DSLs". Hierbei werden Kriterien und Voraussetzungen für die Modularisierung betrachtet. Zum Abschluss werden drei Konzepte bestehender Systeme anhand dieser Kriterien betrachtet und bewertet.
Mit dem starken Wachstum des CarSharing- Angebots und der großen Menge an Flottenfahrzeugen in Unternehmen nimmt auch die Anzahl der Fahrtenbuch-Apps zu. Bei den meisten mobilen Fahrtenbuch- Anwendungen muss der Benutzer den Kilometerstand manuell eintragen. Dies wirkt sich negativ auf die Usability und die User Experience aus. Hinzu kommt, dass jede Minute kostbar ist, die der Fahrer im ausgeliehenen Auto verbringt. Aus diesen Gründen wird hier eine Lösung vorgestellt, bei der der Kilometerstand aus einer Mercedes Benz A-Klasse über den OBD-Anschluss mit Hilfe des CAN Interfaces „ISI b2air“ automatisch ausgelesen und per Bluetooth an die Fahrtenbuch-App der Berger Elektronik GmbH gesendet wird. Hierfür wird mittels der Software „ISI b2app“ die Kommunikation des Diagnosetesters mit dem Fahrzeug aufgezeichnet. Anschließend werden die CAN-Botschaften analysiert und in Bezug auf den Kilometerstand gefiltert. Die entsprechende Anfrage zum Erhalt des Kilometerstandes wird in den Programmcode des Berger Fahrtenbuches implementiert, so dass die App selbstständig den Kilometerstand auslesen kann.
Informationstechnische Systeme, die den Arbeitsablauf im klinischen Bereich unterstützen, sind aktuell auf organisatorische Abläufe beschränkt. Diese Arbeit stellt einen ersten Ansatz vor, wie solch ein System in den perioperativen Bereich eingebracht werden kann. Hierzu wurde eine Workflow Engine mit einer perioperativen Prozess-Visualisierung verknüpft. Das System wurde nach Modell-View-Controller-Prinzip implementiert. Als "Controller" kommt die Workflow Engine zum Einsatz; also "Modell" ein Prozessmodell, mit den erforderlichen klinischen Daten. Der "View" wurde durch eine abgekoppelte Anwendung realisiert, welche auf Web-Technologien basiert. Drei Visualisierungen, die Workflow Engine sowie die Anbindung beider über eine Datenbankschnittstelle, wurden erfolgreich umgesetzt. Bei den drei Visualisierungen wurden jeweils eine Ansicht für den OP-Koordinator, den Springer und eine Ansicht für die Übersicht einer OP erstellt.
Die Energiewende bietet reichlich Fragen für verschiedenste Wissenschaftsdisziplinen einschließlich der Informatik und Wirtschaftsinformatik (WI). Bedauerlicherweise wurde bisher der Bereich der regionalen Energiegenossenschaften und kleinerer Energieversorgungsunternehmen weitgehend von der WI-Forschung vernachlässigt. Der vorliegende Beitrag stellt die aktuelle Situation dieser Organisationen dar und konzentriert sich auf die bestehende Wissenslücke von Geschäftsmodellen (GM) für Energiegenossenschaften (EG) als Zusammenschluss aus Privatpersonen oder kleinen Unternehmen, welche primär regionale, erneuerbare Energie produzieren. Die Modell- und Theorieentwicklung basiert auf der klassischen Literaturrecherche, Fallstudien in der Energiewirtschaft (EW), sowie grafischer Modellierung. Als Ergebnis wird das Referenzgeschäftsmodell einer EG als morphologischer Business Model Canvas vorgestellt. Dieses singuläre GM wird um die Darstellung des Wertschöpfungsnetzwerks, welches die strukturelle Einbindung der Akteure in das digitale Ökosystem der EG berücksichtigt, erweitert. Das aus der Forschung resultierende Referenzmodell dient der kritischen Überprüfung empirisch vorfindbarer GM und zur weiteren Entwicklung von Unternehmensarchitekturen digitaler Unternehmensverbünde.
Im Rahmen der Vernetzung des Autos drängen neue Wettbewerber in die Automobilindustrie. Mittels disruptiver Innovationsmethoden haben Google, Apple, Facebook und Co. bereits Branchen grundlegend verändert und Marktführer wie Nokia oder Otto innerhalb weniger Jahre abgelöst. Die folgende Arbeit befasst sich mit diesen Methoden und der Fragestellung, wie sie in den automotiven Produktentstehungsprozess integriert werden können, um nachhaltig erfolgreiche Geschäftsmodelle am Markt platzieren zu können.
EAM ist ein holistischer Ansatz, um komplexe IT- und Unternehmensstrukturen darzustellen. Dabei ist es von zentraler Bedeutung, diese Strukturen möglichst komplett und übersichtlich zu visualisieren. Ein Ansatz, dies zu erreichen, ist eine multiperspektivische Darstellung von mehreren Views in einem Architekturcockpit. Dabei können mehrere Views simultan betrachtet und analysiert werden. Dadurch ist es möglich, die Auswirkungen einer Analyse des Views eines Stakeholders simultan aus den Views anderer Stakeholder betrachten zu können, um eventuelle Wechselwirkungen zu erkennen und einen allgemeinen Überblick über die Unternehmensarchitektur zu behalten. In dieser Arbeit zeigen wir, von der Konzeption über die Umsetzung bis zu einem Anwendungsbeispiel, wie ein solches Architekturcockpit realisiert werden kann.
Das Provisioning Tool automaIT wurde prototypisch um die Möglichkeit eines Data Discovery erweitert, mit dem Ziel, nicht durch automaIT verwaltete Systeme anbinden und steuern zu können. Daten aus dem Data Discovery werden mittels dem Tool Facter gesammelt und können dynamisch in ausführbare Modelle von automaIT integriert und ausgewertet werden. Dadurch kann der Verlauf weiterer Provisionierungsschritte gesteuert werden, ohne dass es eines manuellen Eingriffs bedarf.
Die Nachfrage nach kompakten Spannungsversorgungen ist in den letzten Jahren stark gestiegen. Vor allem im Bereich der mobilen Geräte wachsen die Anforderung an die Spannungsversorgung hinsichtlich Bauvolumen und Batterielaufzeit. Für die Vollintegration von DC-DC- Wandlern als „Power Supply on Chip“ ist der SC-Wandler (Switched-Capacitor-Wandler) besonders geeignet. Insbesondere für Low-Power-Anwendungen im Bereich 10 mW kann ein SC-Wandler sehr gut, ohne externe Bauelemente, integriert werden. Während es für niedrige Eingangsspannungen (bis zu 5 V) eine Vielzahl an Topologien und Konzepten gibt, wurden SC-Wandler für höhere Eingangsspannungen (> 8 V) bisher nur wenig untersucht. Dieser Beitrag untersucht die wichtigsten Grundlagen für SC-Wandler mit Schwerpunkt auf hoher und zugleich variabler Eingangsspannung im Bereich 5 - 20 V. Am Beispiel eines Multi-Ratio-Wandlers (Wandler mit mehreren Übersetzungsverhältnissen), dem rekursiven SC-Wandler (RSC- Wandler), werden die Anforderungen eines SC- Wandler für hohe Eingangsspannungen herausgearbeitet und diskutiert.
In dieser Arbeit wird eine optimierte Bandgap-Referenz zur Erzeugung einer temperaturstabilen Spannung und eines Referenzstroms vorgestellt. Für Low-Power-Anwendungen wurde die Bandgap-Referenz, basierend auf der Brokaw-Zelle, mit minimaler Stromaufnahme und optimierter Chipfläche durch Multi-Emitter-Layout der Bipolartransistoren implementiert. Zusätzliches Merkmal ist ein verbreiteter Versorgungsspannungsbereich von 2,5 bis 5,5 V. Simulationen zeigen, dass eine stabile Ausgangsspannung von 1,218 V und ein Referenzstrom von 1,997 μA realisiert wird. Im Temperaturbereich -40 °C … 50 °C sowie dem gesamten Bereich der Versorgungsspannung beträgt die Genauigkeit der Referenzspannung ± 0,04 % mit einer Gesamtstromaufnahme zwischen 3,5 und 10 μA. Es wird eine Temperaturdrift von 2,18 ppm/K erreicht. Durch das elektronische Trimmen von Widerständen wird der Offset der Ausgangsspannung, bedingt durch Herstellungstoleranzen, auf ±3,5 mV justiert. Die Referenz wird in einer 0,18 μm BiCMOS-Technologie implementiert.
Im Bereich integrierter Schaltungen (ICs) für die Fahrzeugelektronik ist in den letzten Jahren ein Trend zum Einsatz komplexer Mixed-Signal-Komponenten erkennbar. Dies führt dazu, dass ein altes Problem zunehmend in den Fokus der EDA-Entwickler rückt: Während der digitale Entwurfsfluss hoch automatisiert ist, findet der Entwurf analoger Komponenten überwiegend in einem manuellen, zeitaufwändigen und interaktiven Entwurfsstil statt. Die folgende Arbeit beschreibt ein Konzept, diesen Mangel mit Hilfe eines durchgängigen analogen Entwurfsflusses unter Verwendung so genannter Modul-Generatoren zu mildern. Der vorgestellte Ansatz zur Erzeugung von Schaltkreis-Automatismen berücksichtigt die implizite Nutzung von Erfahrungswissen des Designers, bietet eine volle Topologie-Flexibilität und steigert die Wiederverwendung („re-use“) gängiger Schaltungstopologien. Die erreichten Zwischenergebnisse lassen einen erheblichen Nutzen erkennen und zeigen das Potenzial sogenannter „Parametrisierter Schaltkreise“ auf, den Automatisierungsgrad des analogen Schaltungsentwurfs zu steigern.
Die Automobilindustrie sieht sich seit Jahren rasant verändernden Markt-, Umwelt- und Wettbewerbsbedingungen ausgesetzt. Der Entwicklungsprozess in der Automobilindustrie wird dadurch zunehmend komplexer. Die Einbeziehung neuer Partner aus anderen Industriebereichen und der Wissenschaft stellt hierbei ein großes Innovationspotential dar, insbesondere Systeminnovationen können hierdurch gefördert werden. Die Herausforderungen solch interdisziplinärer, interorganisationaler Entwicklungsprojekte können nur im geeigneten Umfeld gemeistert werden. In der Literatur als auch in der Industrie lassen sich zahlreiche Kooperationsmodelle identifizieren. Die Eignung dieser Modelle für die interdisziplinäre, interorganisationale Entwicklung in der Automobilindustrie wird anhand geeigneter Kriterien bewertet. Abschließend werden die Ergebnisse der Analyse empirisch überprüft und für den praktischen Fall der ARENA2036 angewendet.
Die Entwicklung neuer Produkte findet nicht nur abteilungs-, sondern zunehmend organisationsübergreifend statt. Kooperationen in der Produktentstehung gewinnen folglich vermehrt an Bedeutung, was neue Anforderungen an den Produktentstehungsprozess (PEP) und die Zusammenarbeit in diesem schafft. Mit diesen Herausforderungen sieht sich auch der Forschungscampus ARENA2036 konfrontiert. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines für die interdisziplinäre, interorganisationale Zusammenarbeit geeigneten PEP-Modells. Dieses wird auf Basis von theoretischen Grundlagen, Experteninterviews und unter Berücksichtigung der praktischen Gegebenheiten in ARENA2036 modelliert. Der finale PEP untergliedert sich in einen übergeordneten Prozess, in den die individuellen PEPs der ARENA2036-Partner untergeordnet sind. Durch diese Struktur können die heterogenen PEPs der Partner vereint und die notwendige forscherische Freiheit und Flexibilität gewährleistet werden. Weiterhin wird der PEP durch geeignete Konzepte und Methoden der kooperativen Zusammenarbeit flankiert.
Das dynamische Verhalten von Werkzeugmaschinen beeinflusst in erheblichem Maße die Leistungsfähigkeit und Genauigkeit spanender Werkzeugmaschinen. Das Verständnis der das Rattern beeinflussenden Faktoren ist von entscheidender Bedeutung für die konstruktive Auslegung der Maschinen, Werkzeuge, Vorrichtungen und Prozesse. Das dynamische Verhalten kann durch eine gezielte Modifikation von Steifigkeit und Dämpfung erheblich verbessert werden. Es werden unterschiedliche Möglichkeiten im Bereich der Gestelle, Komponenten und Werkzeuge aufgezeigt, mit denen die dynamischen Eigenschaften optimiert werden.
Neue Modelle für digitale Unternehmensarchitekturen mit Big Data, Services & Cloud Computing, mobilen Systemen, Internet of Things sowie Industrie 4.0 Ökosystemen machen eine enge Kooperation verschiedener Partner aus Wissenschaft, Anwendungsunternehmen, öffentlichen Organisationen, Softwarehersteller und IT- Dienstleister notwendig. Ziel dieser Zusammenarbeit ist die Zusammenführung neuer Konzepte und Möglichkeiten der Informationstechnologie zur bestmöglichen Unterstützung sich verändernder Unternehmensziele und -strategien. Software- und Unternehmensarchitekturen spielen hierbei eine zentrale Rolle. So werden Anforderungen bezüglich Flexibilität und Agilität in digitalen Unternehmen wesentlich durch serviceorientierte Ansätze unterstützt. Der Ordnungsgrad und die kosteneffiziente Gestaltung komplexer IT-Landschaften soll durch Digital Enterprise Architecture Management deutlich verbessert werden – passend zu neuen Möglichkeiten von Services & Cloud Computing, Big Data, sowie kollaborativen Geschäftsprozessen.
Das digitale Unternehmen erfordert neue Konzepte des Digital Enterprise Computing. Dieses umfasst eine interdisziplinäre Verbindung von Vorgehensweisen aus der Informatik, der Ökonomie und weiteren relevanten Wissenschaftsdisziplinen. Neue Architekturen mit integrierten Mobility-Systemen, kollaborativen Geschäftsprozessen, Big Data und Cloud-Ökosystemen beflügeln aktuelle und künftige Geschäftsstrategien und machen die digitale Transformation zu neuen Geschäftsfeldern erst möglich. Dafür ist eine enge Kooperation verschiedener Partner aus Wissenschaft, Wirtschaft und Gesellschaft notwendig. Die Jahreskonferenz Digital Enterprise Computing positioniert die Gesellschaft für Informatik als wissenschaftlichen Mitveranstalter und vertieft Erfahrungen aus dem Arbeitskreis Enterprise Architecture Management der Fachgruppe Architekturen im Fachbereich Softwaretechnik der Gesellschaft für Informatik.
Die Automobilindustrie steht insbesondere im Forschungs- und Entwicklungsbereich vor großen Herausforderungen. Es zeichnet sich eine deutliche Entwicklung hin zu Systeminnovationen ab, um den gestiegenen Anforderungen des Marktes gerecht zu werden. Voraussetzung hierfür ist die Kooperation von Unternehmen innerhalb der Wertschöpfungskette. In dieser Arbeit werden zunächst auf theoretischer Basis geeignete Kooperationsmodelle ausgewählt, die in einem zweiten Schritt anhand einer Nutzwertanalyse bewertet werden. Die Basis für die Bewertung bilden theoretische Überlegungen, die anhand von Experteninterviews validiert werden. Die Analyse zeigt, dass der Forschungscampus als auch das Branchencluster die beste Eignung aufweist. Abschließend werden die Erkenntnisse an einem Praxisobjekt angewandt.