Refine
Document Type
- Journal article (50)
- Conference proceeding (36)
- Book (22)
- Patent / Standard / Guidelines (15)
- Book chapter (7)
- Doctoral Thesis (4)
- Anthology (2)
Has full text
- no (136) (remove)
Is part of the Bibliography
- yes (136)
Institute
- Technik (136) (remove)
Publisher
- VDE Verlag (19)
- Elsevier (9)
- Public Verlagsgesellschaft und Anzeigenagentur (6)
- Springer (6)
- Shaker Verlag (5)
- Hanser (4)
- SPIE. The International Society for Optical Engineering (3)
- University of Colorado (3)
- VDI Fachmedien (3)
- VDI Verlag (3)
Lehr- und Übungsbuch sowie Nachschlagewerk zur CAD-Software Creo Parametric und zu den Grundlagen der Produktdatenverwaltung mit Windchill. Vermittelt werden die Volumenmodellierung, die 3D Flächenmodellierung, die Blechmodellierung, die Baugruppen- und Zeichnungserstellung, das Erstellen von Animationen, die Definition und Anwendung kinematischer sowie dynamischer Analysen und die Definition von Baugruppen, die Konstruktionsvarianten "Top-Down" und "Bottom-Up" sowie die Organisation von Konstruktionsprojekten über Skelett Techniken.
Weiter werden die Grundlagen des Produktdatenmanagements im Konstruktionsbereich unter Windchill vermittelt. Alle Verfahren werden handlungsorientiert an einem weitgehend durchgehenden Modellierungsprojekt erarbeitet. Aufgrund des ausführlichen Inhalts- und Sachwortverzeichnisses sowie einer Vielzahl an Bildern ist das Buch als Grundlage für Vorlesungen, Schulungen oder Praktika und insbesondere auch zum Selbststudium sowie als Nachschlagewerk geeignet.
Lehrbuch zur CAD-Software Creo Parametric und zur Produktdatenverwaltung mit Windchill.
3D-Volumenmodellierung, 3D-Flächenmodellierung, Blechmodellierung, Baugruppen- und Zeichnungserstellung, Definition von Normteilen, Erstellen von Animationen und dynamischen Analysen.
Verfahren zum Umgang mit großen Baugruppen und zur flexiblen Modellierung, Konstruk-tionsvarianten "Top-Down" und "Bottom-Up", Organisation von Konstruktionsprojekten über Skeletttechnik.
Neu: Konstruktion von und mit Mehrkörperobjekten, Rahmenkonstruktion in der Profilumgebung (AFX), intelligente Verbindungen (IFX), Live Simulation und Generatives Design.
Um die ökologischen und ökonomischen Potenzaile der Elektromobilität zu nutzen, setzen kommunale Energieversorger heute auf das Betreiben öffentlicher Ladestationen, den Handel mit Ladestationen und das Bereitstellen spezieller Elektromobilitätstarife; ebenso auf elektrifiziertes Carsharing oder das Vermieten elektrifizierter Fahrzeuge und den Betrieb elektrifizierter Omnibusse im ÖPNV. Auch die Entwicklung und Planung individueller Elektromobilitätskonzepte, teils in Kombination mit Photovoltaikanlage, gehören in einigen Unternehmen zum Portfolio. Für die Zukunft sollten Stadtwerke ihre Aktivitäten im Bereich Elektromobilität an individuell definierten Zielen und Strategien ausrichten.
A digital twin - a replica of energy devices - was established in the computing environment of MATLAB and Simulink. It simulates continuously their operation and is time synchronized and connected to the cenral energy management and control system of a virtual power plant. The model can be used as a platform for testing device performance in various conditions, working schedules and new optimization options.
The Virtual Power Plant Neckar-Alb is a demonstration platform for operation, optimization and control of distributed energy resources, which are able to produce, store or consume electric energy. A heterogeneous set of distributed energy devices has been installed at the Campus of Reutlingen University by the Reutlingen Energy Centre (REZ) of the School of Engineering. The distributed energy devices have been combined to local microgrids and connected to an operative central power plant with additional participants. The demonstration platform serves students, researchers and industry experts for education and investigation of new technologies, devices and software.
Der flächendeckende Einsatz digitaler Zähler wird eine bislang ungekannte Menge an Kundendaten mit sich bringen. Wie können die deutschen Energieversorger hieraus ein besseres Kundenverständnis entwickeln? Die systematische Datenauslese unter Zuhilfenahme modellgestützter Zukunftsprognosen - sog. Predictive Analytics - scheint hier ein vielversprechendes Instrument zu sein. Aufbauend auf einer mit Unterstützung des Verbandes kommunaler Unternehmen durchgeführten Untersuchung lassen sich vier Handlungsempfehlungen ableiten, wie man die Digitalisierung im Vertrieb nutzen kann. Demnach sind die Festlegung von klaren Zielen und Strategien, die systematische Erschließung von Datenquellen, der Aufbau von Inhouse-Kompetenz sowie ein "Joint effort" von Marketing, Vertrieb und IT zu forcieren.
Wenn es um innovative energiewirtschaftliche Produkte und Dienstleistungen geht, steht das eigene Energieversorungsunternehmen (EVU) hoch im Kurs. Die Ergebnisse einer Umfrage mit über 7.000 ausgewerteten Fragebögen zeigen auch: für Eigen- und Communitystrom, Smart Home, E-Mobilität und Bündelangebote gibt es spezifische Zielgruppen. Mehr Kunden interessieren sich für zeitvariable Tarife als für Flatrates. Am liebsten kontaktiert man sein EVU über das Kundencenter oder das Online-Kundenportal. Zielgruppenspezifische und (regional) differenzierte Marktstrategien zahlen sich aus, wozu Produktentwicklung und Vertrieb weiter professionalisiert werden müssen.
Der Anspruch an Energieversorger wird wachsen: in Zukunft gewinnen vor allem Aufgaben wie die Entwicklung digitalisierter Produkte/Dienstleistungen sowie ökologische Aktivitäten an Relevanz. Dies zeigt die Hochschule Reutlingen in ihrer aktuellen Untersuchung unter Aufsichtsräten, Geschäftsführern und Führungskräften. Trotz der erwarteten Veränderungen: die Aufsichtsräte sind sich zwar ihrem Druck zu mehr Professionalisierung bewusst, scheinen aktuell aber nur mäßig für die künftigen Herausforderungen des Unternehmens gerüstet. Besonders relevant dabei: die Professionalisierung der Gremienarbeit in kommunalen EVU ermöglicht einen höheren wahrgenommenen Unternehmenserfolg. So die Studie des Reutlinger Energiezentrums and der Hochschule Reutlingen im Auftrag von fünf Unternehmen der Branche.
Coupling electricity and heat sector is one of the most necessary actions for the successful energy transition. Efficient electrification for space heating and domestic hot water generation is needed for buildings, which are not connected to any district heating network, as distributed heating demand momentarily is largely met by fossil fuels. Hence, hybrid energy systems will play a pivotal role for the energy transition in buildings. Heat pumps running on PV-electricity is one of the most widely discussed combination for this purpose. In this paper, a heuristic optimization method for the optimal operation of a heat pump driven by the objective for maximum onsite PV electricity utilization is presented. In this context, the thermal flexibility of the building and a thermal energy storage (TES) for generation of domestic hot water (DHW) are activated in order to shift the operation of the heat pump to times of PV-generation. Yearly simulations for a system consisting of heat pump, PV modules, building with floor heating installation and TES for DHW generation are carried out. Variation parameters for the simulation include room temperature amplitude (0.5, 1, 1.5 and 2 K) based on mean room temperature (21 °C), PV-capacity (4, 6, 8 and 10 kW) and type of heat pump (ground source and air source type). The yearly energy balances show that buildings offer significant thermal storage capacity avoiding an additional, large TES for space heating fulfillment and improving the share of onsite PV electricity utilization. With introduction of a battery, which has been analyzed as well for different sizes (1.9, 4.8, 7.7 and 10.6 kWh), the share of onsite PVelectricity utilization can even be improved. However, thermal flexibility supplemented by the varying room temperature amplitude for a bigger battery does not improve the share of onsite PV-electricity utilization. Nevertheless, even with a battery not more than 50% of the electrical load including operation of the heat pump can be covered by PV-electricity for the specific system under investigation. This is noteworthy on the one hand, since it indicates that a hybrid heating system consisting of heat pump and PV cannot solely cover the heat demand of residential buildings. One the other hand, this emphasizes the necessity to include further renewable sources like wind power, in order to draw the complete picture. This, however, is beyond the scope of this paper, which mainly focuses on introduction and verification of the novel control method with regard to a practical building.
Automated stabilization of loading capacity of coal shearer screw with controlled cutting drive
(2015)
A solution of topical scientific problem of coal shearer output increase providing minimum specific power supply for coal cutting, transportation, and loading in terms of thin seams has been proposed. The solution is based on the use of earlier proposed criterion of screw gumming for optimum cutting velocity-coal shearer feed rate ratio in the context of increased screw rotation owing to phase voltage frequency increase. Simulation results of automated control system for coal shearer operations with frequency-controlled cutting drive within thin seams have confirmed the efficiency of the system using proposed algorithm of smart analysis of coal shearer power signal.
The paper illustrates the status quo of a research project for the development of a control system enabling CHP units for a demand-oriented electricity production by an intelligent management of the heat storage tank. Thereby the focus of the project is twofold. One is the compensation of the fluctuating power production by the renewable energies solar and wind. Secondly, a reduction of the load on the power grid is intended by better matching local electricity demand and production.
In detail, the general control strategy is outlined, the method utilized for forecasting heat and electricity demand is illustrated as well as a correlation method for the temperature distribution in the heat storage tank based on a Sigmoid function is proposed. Moreover, the simulation model for verification and optimization of the control system and the two field test sites for implementing and testing the system are introduced.
Ziel eines aktuellen Forschungsprojektes an der Hochschule Reutlingen, das gemeinsam mit dem Ingenieurbüro Ganssloser und der Universität Tübingen durchgeführt wird, ist es, Flexibilitäten in Unternehmen, die im Verbund als virtuelles Kraftwerk am Strommarkt agieren, zu erkennen und nutzbar zu machen. Zu diesem Zweck soll eine Steuerbox für Industrie- und Gewerbebetriebe entwickelt werden, die einerseits mit der zentralen Leitwarte des virtuellen Kraftwerks kommuniziert und andererseits die Anlagen des Unternehmens so steuert, dass die zur Verfügung stehenden Flexibilitäten möglichst optimal genutzt werden. Die Hochschule Reutlingen beschäftigt sich innterhalb des Projekts mit der Erkennung und Beschreibung von Flexibilitäten in Unternehmen.
Dass die Kraft-Wärme-Kopplung (KWK) einen unverzichtbaren Baustein der Energiewende darstellt, ist mittlerweile unstrittig, da sie mit Hilfe von Blockheizkraftwerken (BHKW) die Erzeugung von elektrischer Energie komplementär zum Angebot von PV- und Windkraftanlagen mit einem hohen Maß an Energieeffizienz leisten kann. Die ausgezeichnete Energieeffizient von BHKW nutzen deshalb bereits viele Unternehmen zur Senkung ihrer Energiekosten.
Am Beispiel von zwei Unternehmen mit stark unterschiedlichen Strom- und Wärmebedarfswerten zeigt sich, dass aufgrund einer Amortisationszeit im günstigsten Fall von etwa 2 Jahren der Einsatz von Blockheizkraftwerken in jedem Fall wirtschaftlich lohnenswert ist. Dabei wird deutlich, dass die Auslegung des Blockheizkraftwerkes stark von den Strom- und Wärmebedarfswerten abhängt und dass der Pufferspeicher keinesfalls zu klein ausgelegt werden sollte. Das gute wirtschaftliche Ergebnis gilt bereits für den standardmäßig eingesetzten wärmegeführten Betrieb des Blockheizkraftwerkes, wobei eine intelligente stromoptimierte Steuerung mit Lastspitzenmanagement die Wirtschaftlichkeit weiter verbessert. Grundsätzlich ist darauf zu achten, dass Blockheizkraftwerke auf einen längerfristigen Betrieb ausgelegt sind. Bei jährlichen Betriebszeiten von 4.000 Stunden bis 8.000 Stunden ergibt sich ein Betrieb des Blockheizkraftwerkes über 6 bis 12 Jahre.
Für die erfolgreiche Umsetzung der Energiewende in Deutschland ist die Kraft-Wärme-Kopplung (KWK) aufgrund ihrer hohen Effizienz und Flexibilität nicht mehr wegzudenken. Um die verfügbare Flexibilität einer KWK-Anlage unter Gewährleistung ihrer hohen Effizienz optimal nutzen zu können, ist an der Hochschule Reutlingen in mehrjährigen Forschungsarbeit ein prognosebasierter Steuerungsalgorithmus für Blockheizkraftwerke (BHKW) in Verbindung mit Wärmespeichern entwickelt worden.
Im Rahmen dieses Aufsatzes soll anhand eines Praxisbeispiels aufgezeigt werden, wie sich vor dem Hintergrund des aktuellen KWK-Gesetzes die Entscheidung für eine KWK-Anlage mit einer größeren Leistung bereits heute wirtschaftlich auswirkkt. Darüber hinaus wird eine Methode zur Festlegung des optimalen Pufferspeichervolumens vorgestellt.
Ein wirtschaftlicher Betrieb von KWK-Anlagen ist erreichbar, wenn Geräte mit gutem elektrischen Wirkungsgrad und geringen Anschaffungs- und Wartungskosten eingesetzt werden und der im BHKW erzeugte Strom zum größtmöglichen Anteil im Objekt verbraucht wird. Der Pufferspeicher einer KWK-Anlage sollte ausreichend groß bemessen sein (Flexibilität, Eigenstromoptimierung...). Ein größeres BHKW ist nicht automatisch unwirtschaftlicher aufgrund der geringeren Betriebszeit. Es bietet dagegen ein höheres Potenzial für eine bedarfsgerechte Stromeinspeisung in das Netz.
- Verschiebung des KWK-Betriebs in die Phasen mit hohem Stromverbrauch
- Wärme- und Stromlastprognose
- Bestimmung des Wärmeinhaltes im Pufferspeicher
- Erstellung eines optimierten Fahrplans für das KWK-Gerät
- Ergebnisse von praktischen Anlagen im Feldtest
- Simulation der Temperaturen im Pufferspeicher im praktischen Betrieb von KWK-Anlagen
Für das Gelingen der Wärmewende und des von Klimaschutzminister Robert Habeck eingeforderten Wärmepumpenhochlaufs gilt es mannigfaltige Herausforderungen zu lösen. Welche Chancen in diesem Zusammenhang eine Kombination von Wärmepumpe und Kraft-Wärme-Kopplung (KWK) eröffnet, wird im folgenden Beitrag erörtert.
Annotations of subject IDs in images are very important as ground truth for face recognition applications and news retrieval systems. Face naming is becoming a significant research topic in news image indexing applications. By exploiting the uniqueness of name, face naming is transformed to the problem of multiple instance learning (MIL) with exclusive constraint, namely the eMIL problem. First, the positive bags and the negative bags are automatically annotated by a hybrid recurrent convolutional neural network and a distributed affinity propagation cluster. Next, positive instance selection and updating are used to reduce the influence of false-positive bag and to improve the performance. Finally, max exclusive density and iterative Max-ED algorithms are proposed to solve the eMIL problem. The experimental results show that the proposed algorithms achieve a significant improvement over other algorithms.
To prevent high buildings in endangered zones suffering from seismic attack, TMD are applied successfully. In many applications the dampers are placed along the height of the edifice to reduce the damage during the earthquake. The dimensioning of TMD is a multidimensional optimisation problem with many local maxima. To find the absolute best or a very good design, advanced optimisation strategies have to be applied. Bionic optimization proposes different methods to deal with such tasks but requires many repeated studies of the buildings and dampers design. To improve the speed of the analysis, the authors propose a reduced model of the building including the dampers. A series of consecutive generations shows a growing capacity to reduce the impact of an earthquake on the building. The proposals found help to dimension the dampers. A detailed analysis of the building under earthquake loading may yield an efficient design.
Drei Stufen geben Sicherheit
(2018)
GaN-Transistoren bieten ein enormes Potenzial für kompakte Leistungselektronik, indem sie die Größe von passiven Bauelementen verringern. Allerdings bringt das schnelle Schalten Herausforderungen für den Gate-Treiber mit sich. Ein vollständig integrierter Treiber mit drei Spannungsstufen hilft, diese zu lösen.
Es wird ein hochintegrierter Gatetreiber für 600V-Anwendungen mit einer galvanischen Isolation zwischen der Ansteuerelektronik und der Treiberseite vorgestellt. Eine Besonderheit ist die bidirektionale Signalübertragung und die Energieversorgung über einen einzigen Transformator. Die Treiberansteuersignale werden mittels 10/20 MHz Frequenzmodulation übertragen. Die Signalrückübertragung ist in Form einer 1Mbit/s Amplitudenmodulation realisiert. Die Energieübertragung über den Transformator erlaubt ein dauerhaftes Einschalten des Treibers. Der Energiebedarf während des Schaltvorgangs wird hauptsächlich durch eine Bootstrapschaltung bereitgestellt. Eine weitere Besonderheit ist die Verwendung einer flächeneffizienten Integration einer NMOS Treiberausgangsstufe. Der Gatetreiber wurde in einer 180nm Hochvolt-BiCMOS-Technologie hergestellt. Messungen bestätigen die Funktion des Treibers.
Der vorliegende Beitrag zeigte die Anwendung eines Extended Kalman Filters für die Beurteilung des Verschleißzustandes von Rollenketten. Anders als in den üblicherweise eingesetzten signalbasierten Verfahren wurde damit ein modellbasierter Ansatz gewählt. Der Einsatz des Extended Kalman Filters ermöglicht die Schätzung von Parametern eines reduzierten Kettenmodells, das die Dynamik der einzigen Messgröße, nämlich des Drehmoments des antreibenden Motors näherungsweise nachbildet. Im Beitrag wurde dieses Verfahren auf Messdaten aus vier Dauerversuchen an Rollenketten eingesetzt und gezeigt, dass mit steigendem Verschleiß eine Änderung ausgewählter Modellparameter erfolgt.
Diese Vorgehensweise ist ein erster Ansatz, der durch weitere Forschungsarbeiten noch verbessert werden muss. In zukünftigen Forschungsarbeiten wird zusätzlich zur Parameterschätzung eine Prädiktion durchgeführt, um einen Schätzwert für die Restlebensdauer zu erhalten. Hierzu gibt es Ansätze in der Literatur, die auf das konkrete Problem angepasst werden müssen. Zudem muss die Modellierungssystematik so erweitert werden, dass Wissen über das Prozessverhalten in die Modellierung mit eingebracht wird, um die Aussagekraft der Ergebnisse sowie die Robustheit des Verfahrens bezüglich Betriebsparametern, Umgebungsbedingungen und Exemplarstreuungen zu verbessern.
Ein wesentliches Ziel der unter dem Schlagwort Industrie 4.0 gebündelten neuen Entwicklungen ist die Vernetzung intelligenter Komponenten in industriellen Anlagen, um Prozesse transparenter und effizienter zu gestalten. Ein weiteres Ziel ist das Condition Monitoring, d.h. die Überwachung des Zustands der Komponenten während der Laufzeit und die Abschätzung der Restlebensdauer, damit die gesamte Lebensdauer der Komponente ausgenutzt und Wartungsintervalle besser geplant werden können. Die Bewertung des Komponentenzustands erfolgt anhand von Messgrößen, die entweder durch zusätzlich in den Prozess eingebrachte Sensoren erfasst werden oder durch Prozessdaten, die in den Regel- und Steuereinrichtungen verfügbar sind. Diese Messdaten werden ausgewertet und das Ergebnis wird dem Anwender angezeigt.
Der vorliegende Beitrag gibt einen kurzen Überblick über verwendete Messgrößen sowie verwendete Auswerteverfahren. Darüber hinaus wird ein Verfahren erläutert, das die Schwierigkeiten bei der Beurteilung der üblicherweise verwendeten Frequenzspektren vermeidet.
Understanding the factors that influence the accuracy of visual SLAM algorithms is very important for the future development of these algorithms. So far very few studies have done this. In this paper, a simulation model is presented and used to investigate the effect of the number of scene points tracked, the effect of the baseline length in triangulation and the influence of image point location uncertainty. It is shown that the latter is very critical, while the other all play important roles. Experiments with a well known semi-dense visual SLAM approach are also presented, when used in a monocular visual odometry mode. The experiments show that not including sensor bias and scale factor uncertainty is very detrimental to the accuracy of the simulation results.
Im Team zum fliegenden Traum
(2024)
Das Buch behandelt alle in der Praxis wichtigen Fragen und Probleme beim Entwurf und der Auswahl von Schaltnetzteilen im unteren bis mittleren Leistungsbereich, also von mW bis etwa 1kW. Zunächst erfolgt eine Einführung in die klassischen Wandler und Resonanzwandler. Danach werden die Leistungsbauelemente beschrieben und erprobte Ansteuerschaltungen vorgestellt. Im letzten Teil werden EMV-Aspekte behandelt. Wichtige, in der Praxis erprobte Schaltungstechniken werden vorgestellt und beschrieben. Für in der Praxis tätige Techniker und Ingenieure stellt das Buch eine Zusammenfassung aller Themengebiete dar, die für die tägliche Arbeit gebraucht werden. Studenten kann es zum Selbststudium dienen oder den Stoff von Lehrveranstaltungen ergänzen.
Es werden eine elektronische Treiberschaltung und ein Ansteuerverfahren offenbart. Die Treiberschaltung weist einen Ausgang auf; einen ersten Ausgangstransistor mit einem Steuerknoten und einer Laststrecke, wobei die Laststrecke zwischen den Ausgang und einen ersten Versorgungsknoten geschaltet ist; einen Spannungsregler, der dazu ausgebildet ist, eine Spannung über der Laststrecke des ersten Ausgangstransistors zu steuern; und einen ersten Treiber, der dazu ausgebildet ist, den ersten Ausgangstransistor in Abhängigkeit von einem ersten Steuersignal anzusteuern.
Disclosed is an electronic drive circuit and a drive method. The drive circuit includes an output; a first output transistor comprising a control node and a load path, wherein the load path is coupled between the output and a first supply node; a voltage regulator configured to control a voltage across the load path of the first output transistor; and a first driver configured to drive the first output transistor based on a first control signal.
Die vorliegende Erfindung betrifft ein Verfahren zum Bestimmen einer Fehlspannung eines Stromrichters, an den eine Last, insbesondere in Form einer Drehfeldmaschine wie Asynchronmaschine, angeschlossen ist, bestimmt und ggf. kompensiert wird, wobei eine Ausgangsspannung an dem Stromrichter stufen- oder schrittweise erhöht und der sich hierbei als Sprungantwort einstellende Strom gemessen wird. Die Erfindung betrifft weiterhin eine Drehfeldmaschine beispielsweise in Form einer Asynchronmaschine, mit einer Leistungselektronik umfassend einen tromrichter sowie einer Kompensationseinrichtung zum Kompensieren der Fehlspannung des Stromrichters, sowie weiterhin ein Verfahren zum Betreiben und/oder Steuern einer solchen Drehfeldmaschine, bei dem die Fehlspannung des Stromrichters bestimmt und kompensiert wird.
Anders als Digital-ICs, die hochautomatisiert entworfen werden können, ist der Entwurf analoger ICs bis heute Handarbeit. Übliche auf Optimierung basierende Automatisierungsverfahren scheitern. Die Ursachen wurden jetzt in einem Forschungsprojekt untersucht, um neue Ansätze zur Entwurfsautomatisierung analoger ICs abzuleiten.
Der Entwurf analoger integrierter Schaltkreise ist bis heute durch einen weitgehend manuellen Entwurfsstil mit anschließender Verifikation gekennzeichnet. Das Backend dieses Prozesses bildet der Layoutentwurf, der mit der SDL-Methode (schematic driven layout) durchgeführt und mit den Verifikationsschritten DRC und LVS abgeschlossen wird. Als Ziel wird i.a. in Analogie zu den im Digitalbereich existierenden Lösungen eine vollautomatische Layoutsynthese auch für Analogschaltungen angestrebt. Die hier vorgeschlagene neue Designmethodik hat nicht diese vielfach geforderte Layoutsynthese im Analogbereich zum Inhalt. Sie stellt vielmehr einen realistischeren - und aus Sicht des Autors vor allem notwendigen - Zwischenschritt dar. Die Kernaussage besteht darin, dass zunächst eine Methode bereitzustellen ist, bei der alle die Schaltungsfunktion beeinflussenden Randbedingungen (constraints) rechnergestützt prüfbar sein müssen. Erst auf dieser Basis wird es gelingen, in einem weiteren Schritt analoges Layout zu synthetisieren. Diese These wird aus einer Betrachtung der historischen Entwicklung der EDA-Werkzeuge hergeleitet. Die Extrapolation dieser Historie lässt eine Wegskizze für einen neuen "constraint-driven" Designflow erkennen, dessen Hauptvorteil in einer rechnergestützten Absicherung der Schaltungsfunktion besteht. Weitere mögliche neue Merkmale eines solchen Designflows werden diskutiert: Abkehr von den klassischen sequentiellen Designschritten wie Platzierung und Routing hin zu einer "kontinuierlichen" Layoutentstehung und neuartige Chancen für eine wesentlich verbesserte Wiederverwendbarkeit (reuse) von Layoutergebnissen durch die Nutzung höherer Abstraktionsebenen.
Simulation models of the middle ear have rarely been used for diagnostic purposes due to their limited predictive ability with respect to pathologies. One big challenge is the large uncertainty and ambiguity in the choice of material parameters of the model.
Typically, the model parameters are determined by fitting simulation results to validation measurements. In a previous study, it was shown that fitting the model parameters of a finite-element model using the middle-ear transfer function and various other measurable output variables from normal ears alone is not sufficient to obtain a good predictive ability of the model on pathological middle-ear conditions. However, the inclusion of validation measurements on one pathological case resulted in a very good predictive ability also for other pathological cases. Although the found parameter set was plausible in all aspects, it was not yet possible to draw conclusions about the uniqueness and the accuracy or the uncertainty of the parameter set.
To answer these questions, statistical solution approaches are used in this study. Using the Monte Carlo method, a large number of plausible model data sets are generated that correctly represent the normal and pathological middle-ear characteristics in terms of various output variables like e.g., impedance, reflectance, umbo, and stapes transfer function. Subsequent principal component analyses (PCA) allow to draw conclusions about correlations, quantitative limits and statistical density of parameter values.
Furthermore, applying inverse PCA yields numerous plausible parameterizations of the middle-ear model, which can be used for data augmentation and training of a neural network which is capable of distinguishing between a normal middle ear and pathologies like otosclerosis, malleus fixation, and disarticulation based on objectively measured quantities like impedance, reflectance, and umbo velocity.
Current clinical practice is often unable to identify the causes of conductive hearing loss in the middle ear with sufficient certainty without exploratory surgery. Besides the large uncertainties due to interindividual variances, only partially understood cause–effect principles are a major reason for the hesitant use of objective methods such as wideband tympanometry in diagnosis, despite their high sensitivity to pathological changes. For a better understanding of objective metrics of the middle ear, this study presents a model that can be used to reproduce characteristic changes in metrics of the middle ear by altering local physical model parameters linked to the anatomical causes of a pathology. A finite-element model is, therefore, fitted with an adaptive parameter identification algorithm to results of a temporal bone study with stepwise and systematically prepared pathologies. The fitted model is able to reproduce well the measured quantities reflectance, impedance, umbo and stapes transfer function for normal ears and ears with otosclerosis, malleus fixation, and disarticulation. In addition to a good representation of the characteristic influences of the pathologies in the measured quantities, a clear assignment of identified model parameters and pathologies consistent with previous studies is achieved. The identification results highlight the importance of the local stiffness and damping values in the middle ear for correct mapping of pathological characteristics and address the challenges of limited measurement data and wide parameter ranges from the literature. The great sensitivity of the model with respect to pathologies indicates a high potential for application in model-based diagnosis.
In den letzten Jahren hat das Gebiet der additiven Fertigung einen unglaublichen Schub erfahren. Es haben sich kostengünstige Endkonsumerdrucker in der sogenannten "Makerszene" verbreitet, die vielfältige neue Fertigungsmöglichkeiten bieten. Überzogene Berichterstattungen über diese Möglichkeiten haben einen wahren Hype ausgelöst. Trotz der entstandenen neuen Chancen zur Fertigung von Produkten bleiben die realisierbaren Möglichkeiten oft hinter den Erwartungen zurück. Einerseits liegt das an der Teilequalität und an den zur Verfügung stehenden Materialien. Andererseits kommen im Endkonsumerbereich überwiegend Drucker auf der Basis des FDM- oder DLP-Verfahrens zum Einsatz, damit ergibt sich folglich eine sehr eingeschränkte Verfahrenspalette.
Werkstoffkundeunterricht wird in den allermeisten Fällen als reiner Frontalunterricht abgehalten. Ergänzender Laborunterricht zur Werkstoffkunde findet teilweise statt, nur beziehen sich hier die durchgeführten Experimente größtenteils auf sehr wenige Teilgebiete, wie z.B. den Zugversuch. Im Curriculum mancher Studiengänge ist für derartige im Labor druchgeführte Experimente gar keine Zeit vorgesehen. Das Wissen muss komplett im Unterricht vermittelt werden.
Ziel von ExperiMat ist es, praxistaugliche Schauexperimente für den werkstoffkundlichen Unterricht zu beschreiben.
The field of additive manufacturing has experienced an incredible surge over the last few years. Affordable end-user printers, which open a wide variety of new production opportunities, have spread throughout the so called "maker community", while overblown reports about the possibilities on offer have whipped up a real hype. Although new ways of making products have now become available, what can actually be achieved often lags behind people's expectations. On the one hand, this is down to component quality and the materials being used, while on the other hand, most printers found in the end-user sphere use the FDM or DLP process, which significantly restricts the printing methods that can be utilized.
On-chip metallization, especially in modern integrated BCD technologies, is often subject to high current densities and pronounced temperature cycles due to heat dissipation from power switches like LDMOS transistors. This paper continues the work on a sensor concept where small sense lines are embedded in the metallization layers above the active area of a switching LDMOS transistor. The sensors show a significant resistance change that correlates with the number of power cycles. Furthermore, influences of sense line layer, geometry and the dissipated energy are shown. In this paper, the focus lies on a more detailed analysis of the observed change in sense line resistance.
Compared to diesel or gasoline, using compressed natural gas as a fuel allows for significantly decreased carbon dioxide emissions. With the benefits of this technology fully exploited, substantial increases of engine efficiency can be expected in the near future. However, this will lead to exhaust gas temperatures well below the range required for the catalytic removal of residual methane, which is a strong greenhouse gas. By combination with a countercurrent heat exchanger, the temperature level of the catalyst can be raised significantly in order to achieve sufficient levels of methane conversion with minimal additional fuel penalty. This thesis provides fundamental theoretical background of these so-called heat-integrated exhaust purification systems. On this basis, prototype heat exchangers and appropriate operating strategies for highly dynamic operation in passenger cars are developed and evaluated.
Avec le déploiement des compteurs intelligents en Europe, les fournisseurs d'énergie européens auront accès aux données clients de manière inédite.De récentes études suggèrent que le volume de données récupérées se situera entre 10 et 800 téraoctets par fournisseur par an ... L'objectif principal est d'améliorer la satisfaction du client et d'éviter un changement de fournisseur.
In diesem Beitrag wird ein kapazitiver Low Power DC-DC Wandler mit 15 konfigurierbaren Übersetzungsverhältnissen, einem hohen Eingangsspannungsbereich von 5 V bis 20 V und einer konstanten Ausgangsspannung von 5 V vorgestellt. Bei einer Ausgangsleistung von 5 mW wird ein maximaler Wirkungsgrad von 81% erreicht. Die Implementierung erfolgt in einem 350 nm Hochvolt-CMOS-Prozess. Während es für niedrige Eingangsspannungen eine Vielzahl an Topologien und Konzepten gibt, wurden vollintegrierte SC-Wandler für höhere Eingangsspannungen (> 8 V) bisher nur wenig untersucht. Höhere Spannungen erfordern den Einsatz von Hochvolttransistoren und eine aufwändigere Ansteuerung. Um über einen weiteren Eingangsspannungsbereicht mit hoher Genauigkeit und hohem Wirkungsgrad zu wandeln, erweist sich die Topologie des rekursiven Switched-Capacitor Wandlers (RSC Wandler) als vorteilhaft. In der vorliegenden 4-Bit Implementierung ist der RSC Wandler aus N = 4 2:1 Serien-Parallel Wandler-Zellen aufgebaut. Durch verschiedene Anordnung der einzelnen Zellen können 2ᴺ -1 = 15 Wandlungsverhältnisse realisiert werden. Mittels Rekursion werden in jedem Wandlungsverhältnis alle Kapazitäten genutzt, wodurch die Stromfähigkeit und der Wirkungsgrad des Wandlers deutlich verbessert werden. Einheitliche 2:1 Wandler-Zellen ermöglichen einen modularen Aufbau des Layouts.