Refine
Document Type
- Conference proceeding (189) (remove)
Language
- German (189) (remove)
Is part of the Bibliography
- yes (189)
Institute
- Informatik (108)
- Technik (53)
- ESB Business School (26)
- Texoversum (3)
Publisher
- Hochschule Reutlingen (81)
- Gesellschaft für Informatik e.V (15)
- Hochschule Ulm (8)
- VDE Verlag (8)
- Deutsche Gesellschaft für Computer- und Roboterassistierte Chirurgie e.V. (7)
- Arbeitsgemeinschaft Simulation (ASIM) (4)
- Verlag IFZ – Hochschule Luzern (4)
- Springer (3)
- Technische Universität Chemnitz (3)
- Technische Universität Graz (3)
In der Kryochirurgie wird Kälte verwendet, um tumoröses Gewebe abzutöten. Dazu werden Kryosonden in den Tumor gestochen und stark abgekühlt. Hierbei gibt es verschiedene Herausforderungen, welchen computergestützt begegnet werden kann. Diese Arbeit gibt die Ergebnisse einer Literaturrecherche zu den Herausforderungen wieder. Die vorgestellten Arbeiten beschäftigten sich mit der Simulation des im Tumor entstehenden Eisballs, dem korrekten Positionieren der Kryosonden im Tumor, dem Überwachen des Eingriffs sowie dem Entwickeln von Simulationen für Trainingszwecke. Dabei zeigt sich, dass der Einsatz von computergestützten Lösungen die Kryochirurgie für Operateur und Patient verbessern kann.
Eine neue Methode zur Berechnung von Temperaturen in Bonddrähten umgeben von einem endlichen Mold wird vorgestellt. Sie ist schneller als die übliche Finite Elemente-Methode (FEM), während sie vergleichbare Resultate produziert. Für manche Parameter funktioniert unsere Methode, während die FEM-Methode versagt. Der Algorithmus ist im sogenannten Bondrechner implementiert, der eine leicht zu benutzende Oberfläche für Designer von mikroelektronischen Systemen bereitstellt. Seine Anwendung hat das Potential, die Zuverlässigkeit von Bonddrähten zu verbessern. Ein nichtidealer Parameter für den Wärmetransfer vom Bonddraht zum Mold-Package wurde ebenfalls berücksichtigt. Dieser Parameter ändert sich wahrscheinlich unter Alterseinflüssen und ist daher sehr wichtig für Zuverlässigkeits-Schätzungen. In unserer Methode wird die Wechselwirkung von Nachbardrähten ebenfalls berücksichtigt. Diese wird immer wichtiger, weil der Durchmesser und der wechselseitige Abstand der Bonddrähte sich verringert, wegen der fortschreitenden Miniaturisierung der Chip-Verpackungen. Unser Programm kann ebenfalls Temperaturen für transiente Ströme berechnen und den Strom berechnen, der zu einer gegebenen Maximaltemperatur gehört.
We introduce bloomRF as a unified method for approximate membership testing that supports both point- and range-queries. As a first core idea, bloomRF introduces novel prefix hashing to efficiently encode range information in the hash-code of the key itself. As a second key concept, bloomRF proposes novel piecewisemonotone hash-functions that preserve local order and support fast range-lookups with fewer memory accesses. bloomRF has near-optimal space complexity and constant query complexity. Although, bloomRF is designed for integer domains, it supports floating-points, and can serve as a multi-attribute filter. The evaluation in RocksDB and in a standalone library shows that it is more efficient and outperforms existing point-range-filters by up to 4× across a range of settings and distributions, while keeping the false-positive rate low.
Mit dem Betrieb von KWK-Anlagen lässt sich nennenswert Primärenergie einsparen. KWK-Anlagen werden aus diesem Grund aufgrund verschiedener Gesetze und Richtlinien gefördert. Zum wirtschaftlichen Betrieb einer KWK-Anlage ist es erforderlich, den größtmöglichen Teil des erzeugten elektrischen Stroms entweder selbst zu verbrauchen oder an Dritte (Mieter, Wohnungseigentümer…) zu verkaufen. Mit dem KWKG 2016 werden größere KWK-Anlagen interessant, und Anlagen mit geringerer jährlicher Laufzeit können sich sogar wirtschaftlicher darstellen als reine Grundlastanlagen.
Kreativität, Problemlösekompetenz und kollaboratives Arbeiten werden in zahlreichen internationalen Studien sowie von der OECD (2017) als Schlüsselkompetenzen des 21. Jahrhunderts definiert. Ungeachtet dessen orientieren sich viele Lehr-Lern Methoden noch immer an der Vermittlung vordefinierter Lösungswege. Studien im Sekundarbereich in den USA, Deutschland und Asien zeigen, dass Design Thinking durch seine kreativen und kollaborativen Elemente zu einem nachhaltigeren Lernerfolg bei Lernenden und seitens der Lehrenden zu höherer Zufriedenheit bei der Vermittlung der Inhalte führen kann.
Kernelemente des Design Thinking sind: der iterative Prozess mit seinen Phasen Verstehen, Beobachten, Sichtweisen definieren, Ideen finden, Prototypen bauen, Testen; die Arbeit in multidisziplinären Teams sowie die Nutzerorientierung bei der Definition der Aufgabe (Brown, 2009). Die Phasen des iterativen Prozesses weisen eine hohe Kongruenz mit den prozessorientierten Kompetenzen des Faches Kunst/Werken und des Sachunterrichts gemäß dem Bildungsplan für Grundschulen (Ministerium für Kultus, Jugend und Sport Baden Württemberg, 2016) auf. Im Rahmen eines interdisziplinären Promotionsvorhabens an der PH Freiburg soll, basierend auf einem qualitativen Forschungsdesign, untersucht werden, inwieweit sich Design Thinking eignet, Kreativität, Problemlösekompetenz und kollaboratives Arbeiten von Grundschulkindern in Kunst/Werken und im Sachunterricht aus Sicht von Lehrpersonen zu fördern. Vorstudien mit Lehrpersonen und Ausbildungslehrkräften, bei welchen Erhebungen per Fragebogen nach Teilnahme an einem Design Thinking Workshop eingesetzt wurden, sowie zwei Pilotunterrichtseinheiten an Grundschulen mit Teilnehmender Beobachtung, Experteninterviews und Kinderinterviews in Kleingruppen, zeigen erste Ergebnisse.
Die Wirkungsgrade ("Normnutzungsgrade") nach DIN 4709 bilden den praktischen Betrieb von Mikro-Blockheizkraftwerken besser ab. Insbesondere bei den thermischen Wirkungsgraden ergeben sich nach DIN 4709 geringere Werte im Vergleich zu stationären Messungen aufgrund der An-/Abfahrverluste und der Speicherverluste. Der Betrieb des Zusatzkessels führt zu einer Reduktion der Primärenergieeinsparung der Gesamtanlage.
In Zusammenarbeit mit dem Medizinproduktehersteller ulrich medical wird eine User Experience und Usability Studie an der Software der im Moment eingesetzten Kontrastmittelinjektoren durchgeführt. Das Unternehmen möchte eine neue Variante eines Kontrastmittelinjektors entwickeln, der als Basis eine verbesserte Version dieser Softwares enthält. Benutzerstudien können mit den unterschiedlichsten Methoden durchgeführt werden. Das geeignete Vorgehen muss definiert und die Testpersonen in Bezug zur eingesetzten Methode ermittelt werden. Bei Medizinprodukten muss zusätzlich auf strikte Auflagen in Normen und Gesetzen geachtet werden. Die Grundlage zur Methodenauswahl bildet eine Recherche zu Usability und User Experience Vorgaben für Medizinprodukte. Die Studie wird anhand quantitativer Daten eines Usability Tests im Labor, Fragebögen zur User Experience und qualitativen Post Test- Interviews evaluiert. In erster Linie dient diese Studie der Ermittlung von möglichen Verbesserungen, welche in der darauf folgenden Masterthesis vertieft und umgesetzt werden.
Fundamentale Veränderungen der heutigen Arbeitswelt stellen Menschen, Systeme, Prozesse und ganze Organisationen vor erhebliche Herausforderungen. Der Faktor Mensch leistet in allen Bereichen dieses Wirkgefüges einen essentiellen Beitrag zum Wettbewerbsvorteil vieler produzierender Unternehmen am Standort Deutschland. Der Wandel von Automatisierung zu selbststeuernden Unternehmen geht dabei nicht spurlos an dem wandlungsfähigsten Glied dieses Gefüges, dem Menschen, vorüber. Belastungsarten verändern sich, singuläre Bewältigungsstrategien genügen nicht mehr, um einen optimalen Beanspruchungszustand jedes einzelnen Individuums zu erreichen und gleichzeitig das höchstmögliche Potenzial zu schöpfen. Das Belastungs- und Beanspruchungscockpit bildet einen Lösungsansatz zur systematischen und durchgängigen Bewertung von Belastungszuständen und der individuellen Beanspruchung von Beschäftigten an Montagearbeitsplätzen. Es liefert in Echtzeit Informationen zum Belastungs- und Beanspruchungszustand des Mitarbeiters und kann mit Ergonomiebewertungsverfahren verknüpft werden. Der Aspekt der Multidimensionalität umfasst die Bewertung verschiedener Indikatoren unter Betrachtung ihrer Wirkzusammenhänge.
Die bedarfsgerechte Steuerung dezentraler thermischer Energiesysteme, wie Kraft-Wärme-Kopplungs- (KWK-) Anlagen und Wärmepumpen, kann einen entscheidenden Beitrag zur Deckung bzw. Reduktion der Residuallast leisten und so für eine Verringerung der konventionellen Reststromversorgung und den damit einhergehenden Treibhausgasemissionen sorgen. Dafür wurde an der Hochschule Reutlingen in mehrjähriger Forschungsarbeit ein prognosebasierter Steuerungsalgorithmus entwickelt. Gegenstand dieses Beitrags bilden neben der Vorstellung eben jenes Steuerungsalgorithmus auch dessen praktische Umsetzungsvarianten: Eine auf einer speicherprogrammierbaren Steuerung (SPS) rein lokal ausführbare Version sowie eine Webservice-Anwendung für den parallelen Betrieb mehrerer Anlagen – ausgehend von einem zentralen Server. Erprobungen am KWK-Prüfstand der Hochschule Reutlingen bestätigen die zuverlässige Funktionsweise des Algorithmus in den verschiedenen Umsetzungsvarianten. Gleichzeitig wird der Vorteil der bedarfsgerechten Steuerung gegenüber dem, insbesondere im Mikro-KWK-Bereich standardmäßig vorliegenden, wärmegeführten Betrieb in Form einer Steigerung der Eigenstromdeckung von bis zu 27 % aufgezeigt. Neben der bedarfsgerechten Steuerung bedient der entwickelte Algorithmus zudem noch ein weiteres Anwendungsgebiet: Den vorhersagbaren KWK-Betrieb, der beispielsweise in Form täglicher Einspeiseprognose im Rahmen des Redispatch 2.0 eingefordert wird. Die Vorhersage des KWK-Betriebs ist dabei auf zwei Weisen möglich: Als erste Option kann der wärmegeführte Betrieb direkt über den Algorithmus abgebildet und prognostiziert werden. Eine andere Möglichkeit stellt wiederum die bedarfsgerechte Steuerung der Anlage dar; der berechnete optimale Fahrplan entspricht dabei gleichzeitig der Betriebsprognose des KWK-Geräts. Damit ist der entwickelte Steuerungsalgorithmus in der Lage, auf unterschiedliche Weisen zum Gelingen der Energiewende beizutragen.
Das Provisioning Tool automaIT wurde prototypisch um die Möglichkeit eines Data Discovery erweitert, mit dem Ziel, nicht durch automaIT verwaltete Systeme anbinden und steuern zu können. Daten aus dem Data Discovery werden mittels dem Tool Facter gesammelt und können dynamisch in ausführbare Modelle von automaIT integriert und ausgewertet werden. Dadurch kann der Verlauf weiterer Provisionierungsschritte gesteuert werden, ohne dass es eines manuellen Eingriffs bedarf.
Ein wirtschaftlicher Betrieb von KWK-Anlagen ist erreichbar, wenn Geräte mit gutem elektrischen Wirkungsgrad und geringen Anschaffungs- und Wartungskosten eingesetzt werden und der im BHKW erzeugte Strom zum größtmöglichen Anteil im Objekt verbraucht wird. Der Pufferspeicher einer KWK-Anlage sollte ausreichend groß bemessen sein (Flexibilität, Eigenstromoptimierung...). Ein größeres BHKW ist nicht automatisch unwirtschaftlicher aufgrund der geringeren Betriebszeit. Es bietet dagegen ein höheres Potenzial für eine bedarfsgerechte Stromeinspeisung in das Netz.
In mehreren Untersuchungen hat sich gezeigt, dass sich die Wahrnehmung des eigenen Körpers in einer virtuellen Umgebung positiv auf die Wahrnehmung der gesamten Umgebung auswirkt. Für diese Untersuchungen wurden der Körper einer Person, oder Teile davon, als animierter Avatar aus der Ego-Perspektive dargestellt. Im Kontext der Informatikkonferenz Informatics Inside 2014 an der Hochschule Reutlingen soll in dieser Arbeit eine andere Möglichkeit der Darstellung untersucht werden. In einer prototypischen Augmented Virtuality Anwendung soll die virtuelle Umgebung um reale Inhalte erweitert werden. Es soll einer Person ermöglicht werden, Teile ihres eigenen Körpers nicht als Avatar, sondern auf Basis einer Kameraaufnahme als realistische Repräsentation wahrzunehmen. Die Arbeit beschreibt hierbei die gesetzten Ziele, sowie Aufbau und Funktionsweise der prototypischen Anwendung und deren derzeitigen Stand.
Business Process Management (BPM) ist aufgrund seiner Bedeutung für prozessorientierte Unternehmen und den daraus resultierenden Anforderungen hinsichtlich interner Betriebsorganisation und Audits, ein zentraler Bestandteil. Die Einführung und Aufrechterhaltung von BPM stellt jedoch einen erheblichen Aufwand dar, da Prozesse aufgenommen, modelliert und aktuell gehalten werden müssen. Empirische Belege zeigen, dass erfolgreiche Prozessmodellierung dabei eine besondere Herausforderung darstellt, welche häufig nicht zufriedenstellend nachhaltig gelingt. Ein wesentlicher Erfolgsfaktor für die nachhaltige Prozessorientierung in Unternehmen ist somit die konsistente und aktuelle Prozessmodellierung, sowie deren Adaption an externe und interne Veränderungen. Mittels einer Literaturrecherche werden die relevanten Dimensionen zur nachhaltigen Prozessorientierung auf Grundlage der Prozessmodellierung ermittelt. Auf deren Basis wird ein adaptives handlungsorientiertes Framework für die praktische Anwendung in Unternehmen abgeleitet.
Mit der Verfügbarkeit leistungsfähiger Computer haben rechnergestützte Simulationsverfahren überall in Wissenschaft und Technik Einzug gehalten. Die modellbasierte Simulation als "virtuelles Experiment" stellt insbesondere im Entwurf technischer Systeme ein wirksames und längst unverzichtbares Hilfsmittel dar, um Entwicklungsergebnisse hinsichtlich gewünschter Eigenschaften abzusichern. Die Möglichkeiten heutiger Simulationsmethoden sind faszinierend, weshalb gerade Anfänger (aber nicht nur diese) der Gefahr ausgesetzt sind, deren Ergebnisse unkritisch zu übernehmen. Besondere Bedeutung kommt hier der Lehre zu. Neben der Anwendung der Simulationswerkzeuge ist es wichtig, den Studierenden auch deren theoretische Grundlagen nahe zu bringen und damit ihr Bewusstsein hinsichtlich der Grenzen der Simulation zu schärfen. Der Workshop der ASIM/GI-Fachgruppen "Simulation technischer Systeme" und "Grundlagen und Methoden in Modellbildung und Simulation" bringt Fachleute aus Wirtschaft und Wissenschaft zum Erfahrungsaustausch rund um die Simulation zusammen. Hierbei werden alle Aspekte von den Grundlagen über die Methoden bis hin zu Werkzeugen und Anwendungsbeispielen angesprochen.
Artificial Intelligence (AI) in der Markenführung: Künstliche Neuronale Netze zur Markenimagemessung
(2023)
Da Künstliche Neuronale Netze die Modellierung nichtlinearer und vielschichtiger Beziehungen ermöglichen, befasst sich dieser Beitrag mit deren Einsatzmöglichkeiten für die methodisch anspruchsvolle Analyse und Messung des Markenimages. Zur Veranschaulichung des konzeptionellen Ansatzes wird am empirischen Beispiel des Sportartikelherstellers adidas ein mehrschichtiges Künstliches Neuronales Netz zwischen den Bewertungen spezifischer Markenattribute und der Gesamtbewertung der Marke erzeugt. Auf der Grundlage einer Analyse der Verbindungsgewichte des Künstliches Neuronales Netzes wird die Bedeutung verschiedener Markenattribute für die Markenbewertung gemessen, wodurch sich konkrete Implikationen für die Praxis der Markenführung ableiten lassen.
Im Rahmen der wissenschaftlichen Vertiefung an der Hochschule Reutlingen befasst sich diese Arbeit mit der Untersuchung der Anforderungen und der Machbarkeit zur computergestützten Erkennung der Deutschen Gebärdensprache (DGS) und des deutschen Fingeralphabets. Die Erkenntnisse aus dieser Arbeit dienen als Grundlage zur Entwicklung eines Systems zur Übersetzung von Gebärden der DGS oder des Fingeralphabets in die deutsche Schriftsprache. Zunächst werden grundlegende Informationen zu Geschichte, Aufbau und Grammatik der DGS und des Fingeralphabets aufgeführt. Die Erkennung der Gebärden soll durch optische Bewegungssensoren erfolgen. Hierfür werden unterschieliche Sensortypen betrachtet und verglichen. Im weiteren Verlauf erfolgt die Analyse der benutzerspezifischen und technischen Anforderungen. Erstere basieren auf der Befragung einer Fokusgruppe aus gehörlosen und hörenden Menschen aus dem Bereich der Gehörlosen-, Schwerhörigen- und Sprachbehindertenpädagogik. Abgeleitet aus den Informationen der Anforderungsanalyse ergibt sich, bis zu einem gewissen Grad, die Machbarkeit aus technischer und benutzerspezifischer Sicht. Abschließend erfolgen die Zusammenfassung der Anforderungen, welche an das zu entwickelnde System gestllt werden, sowie eine Handlungsempfehlung für die Entwicklung eines Prototyps.
In Folge der gegenwärtigen Digitalisierung in der produzierenden Industrie werden Anwendungen oder Services mit potentiell positiven Auswirkungen auf Faktoren wie Effektivität und Arbeitsqualität entwickelt. Ein geeigneter Ansatz zur Stärkung motivierender Aspekte im Arbeitskontext kann Gamification darstellen. In dieser Arbeit ist die initiale Konzeption und Evaluation eines Gamification-Ansatzes für Anwender eines KI-Service zur Maschinenoptimierung dargestellt und möglichen Anforderungen an ein Konzept zur Motivationssteigerung extrahiert.
Anforderungen an die Mensch-Maschine-Schnittstelle im Automobil auf dem Weg zum autonomen Fahren
(2017)
In den letzten Jahrzehnten haben immer mehr Fahrerassistenzsysteme Einzug in das Automobil gefunden und bereiten damit den Weg zu vollautonomen Fahrzeugen der Zukunft vor. So bieten bereits viele Hersteller Ausstattungsvarianten ihrer Fahrzeuge an, die für den Umstieg in die vollautonome Zukunft gewappnet sind. Um den Menschen mit auf den Weg zu nehmen, werden einige Anforderungen an die Mensch-Maschine-Schnittstelle (MMS) des Automobils gestellt. Für die teilautonomen Fahrzeuge der nächsten Generation gilt es, den Fahrerwechsel zwischen manuellem und autonomen Fahren für die Menschen bestmöglich zu gestalten. Die Arbeit wirft einen Blick auf ausgewählte Ansätze für zukünftige MMS-Systeme und bewertet diese anhand der Übergabezeiten zwischen Mensch und Maschine. Ein Wandel der MMS im Automobil wird empfohlen, um den Menschen mit den neuen Technologien vertraut zu machen.
Informationstechnische Systeme, die den Arbeitsablauf im klinischen Bereich unterstützen, sind aktuell auf organisatorische Abläufe beschränkt. Diese Arbeit stellt einen ersten Ansatz vor, wie solch ein System in den perioperativen Bereich eingebracht werden kann. Hierzu wurde eine Workflow Engine mit einer perioperativen Prozess-Visualisierung verknüpft. Das System wurde nach Modell-View-Controller-Prinzip implementiert. Als "Controller" kommt die Workflow Engine zum Einsatz; also "Modell" ein Prozessmodell, mit den erforderlichen klinischen Daten. Der "View" wurde durch eine abgekoppelte Anwendung realisiert, welche auf Web-Technologien basiert. Drei Visualisierungen, die Workflow Engine sowie die Anbindung beider über eine Datenbankschnittstelle, wurden erfolgreich umgesetzt. Bei den drei Visualisierungen wurden jeweils eine Ansicht für den OP-Koordinator, den Springer und eine Ansicht für die Übersicht einer OP erstellt.