Refine
Document Type
- Conference proceeding (273)
- Journal article (153)
- Book chapter (23)
- Book (22)
- Patent / Standard / Guidelines (15)
- Report (9)
- Doctoral Thesis (7)
- Working Paper (5)
- Anthology (2)
Is part of the Bibliography
- yes (509) (remove)
Institute
- Technik (509) (remove)
Publisher
- IEEE (141)
- VDE Verlag (42)
- Springer (34)
- Elsevier (25)
- Hochschule Ulm (12)
- Public Verlagsgesellschaft und Anzeigenagentur (11)
- Hochschule Reutlingen (9)
- Association for Computing Machinery (8)
- Hanser (7)
- MDPI (7)
Boost converters suffer from a bandwidth limitation caused by the right-half plane zero (RHPZ), which occurs in the control-to-output transfer function. In contrast, there are many applications that require superior dynamic behavior. Further, size and cost of boost converter systems can be minimized by reduced voltage deviations and fast transient responses in case of large signal load transients. The key idea of the proposed ΔV/Δt-intervention control concept is to adapt the controller output to its new steady state value immediately after a load transient by prediction from known parameters. The concept is implemented in a digital control circuit, consisting of an ASIC in a 110 nm-technology and a Xilinx Spartan-6 field programmable gate array (FPGA). In a boost converter with 3.5V input voltage, 6.3V output voltage, 1.2A load, and 500 kHz switching frequency, the output voltage deviations are 2.8x smaller, scaling down the output capacitor value by the same factor. The recovery times are 2.4x shorter in case of large signal load transients with the proposed concept. The control is widely applicable, as it supports constant switching frequencies and allows for duty cycle and inductor current limitations. It also shows various advantages compared to conventional control and to selected adaptive control concepts.
Externe Ladeinfrastruktur kann rechtskonform aus dem Stromnetz einer öffentlichen Liegenschaft versorgt werden. Bisher war die Vorgabe, die Versorgung über einen eigenen (neuen) Netzanschlusspunkt zu realisieren. Die hier vorgestellte Lösung ist ökologisch, wirtschaftlich und technisch deutlich günstiger und dient als Muster für die weitere Erschließung landeseigenen Parkraums in ganz Baden-Württemberg. Ein virtuelles Kraftwerk ermöglicht den gemeinschaftsdienlichen Betrieb.
This article proposes several modified quasi Z-source dc/dc boost converters. These can achieve soft-switching by using a clamp-switch network comprised of an active switch and a diode in parallel with a capacitor connected across one of the inductors of the Z-source network. In this way, ringing at the transistor switching node is mitigated, and the voltage at the turn-on of the transistor is reduced. Even a zero voltage switching (ZVS) of the main transistor is possible if the capacitor in the clamp-switch network is adequately chosen. The proposed circuit structure and operating mode are described and validated through simulations and measurements on a low-power prototype.
This paper introduces a highly scalable heteromodular origami art technique for constructing 3D framework structures using elementary struts and connectors folded from uncut sheets of standard A4 office paper. The presented technique, named ZEBRA, allows the design of meter-scale architectural objects, such as truss bridges and towers, which are capable of bearing substantial mechanical loads. Moving parts, ranging from simple levers to complete multi-bar linkages, can be integrated into static frameworks using a set of kinematic extensions. An overview is given of how the ZEBRA system can be used to teach university students various theoretical and practical aspects of the engineering sciences in an entertaining and hands-on way.
Für das Gelingen der Wärmewende und des von Klimaschutzminister Robert Habeck eingeforderten Wärmepumpenhochlaufs gilt es mannigfaltige Herausforderungen zu lösen. Welche Chancen in diesem Zusammenhang eine Kombination von Wärmepumpe und Kraft-Wärme-Kopplung (KWK) eröffnet, wird im folgenden Beitrag erörtert.
Wissen schaffen für klimafreundliche Energietechnik : das Erfolgsgeheimnis der Kraft-Wärme-Kopplung
(2017)
Als hocheffiziente Energieerzeugungstechnologie spielt die KWK eine wichtige Rolle bei der Energiewende und dem Klimaschutz. Gerade für den Gebäudebereich und Unternehmen kann die KWK eine wirtschaftliche und umweltschonende Möglichkeit sein, Strom und Wärme zu erzeugen. Für die Planung, Umsetzung und den Betrieb von KWK-Anlagen werden fachkundige Handwerke und Ingenieure gebraucht. Aus diesem Grund hat das Ministerium für Umwelt, Klima und Energiewirtschaft in den Jahren 2015 und 2016 zusammen mit dem Handwerkstag Baden-Württemberg ... den Qualifizierungskurs "Kraft-Wärme-Kopplung - Kompetenz für den Wärme- und Energiemarkt von heute und morgen" durchgeführt... Aufgrund des Erfolges der Seminarreihe wird diese auch 2017 ff. fortgesetzt.
Am Beispiel von zwei Unternehmen mit stark unterschiedlichen Strom- und Wärmebedarfswerten zeigt sich, dass aufgrund einer Amortisationszeit im günstigsten Fall von etwa 2 Jahren der Einsatz von Blockheizkraftwerken in jedem Fall wirtschaftlich lohnenswert ist. Dabei wird deutlich, dass die Auslegung des Blockheizkraftwerkes stark von den Strom- und Wärmebedarfswerten abhängt und dass der Pufferspeicher keinesfalls zu klein ausgelegt werden sollte. Das gute wirtschaftliche Ergebnis gilt bereits für den standardmäßig eingesetzten wärmegeführten Betrieb des Blockheizkraftwerkes, wobei eine intelligente stromoptimierte Steuerung mit Lastspitzenmanagement die Wirtschaftlichkeit weiter verbessert. Grundsätzlich ist darauf zu achten, dass Blockheizkraftwerke auf einen längerfristigen Betrieb ausgelegt sind. Bei jährlichen Betriebszeiten von 4.000 Stunden bis 8.000 Stunden ergibt sich ein Betrieb des Blockheizkraftwerkes über 6 bis 12 Jahre.
Der elektrische Wirkungsgrad stellt eines der wichtigsten Bewertungskriterien für BHKW dar, da über diese Größe ausgedrückt wird, wie viel des Wertproduktes „elektrische Energie“ bezogen auf die eingesetzte oder aufzuwendende Brennstoffenergie produziert werden kann. Ein hoher elektrischer Wirkungsgrad ist somit gleichbedeutend mit hohen Erlösen aus dem Verkauf der erzeugten elektrischen Energie und damit eine grundlegende Voraussetzung für einen wirtschaftlichen Betrieb eines BHKWs. Folglich sind die Hersteller von BHKW bestrebt, den elektrischen Wirkungsgrad ihrer Geräte kontinuierlich zu verbessern und nach oben zu treiben. Dieses Bemühen zeigt sich eindrucksvoll an der Entwicklung der mechanischen Effizienz von Gasmotoren der Firma GE Jenbacher. Während mit Motoren der Baureihe 6 im Leistungsbereich 1,8 – 4,4 MWel im Jahr 1988 eine mechanische Effizienz von 34% erreichbar war, liegt dieser Wert mittlerweile bei etwa 47,5%. Diese enorme Steigerung konnte im Wesentlichen durch eine Erhöhung des mittleren effektiven Zylinderarbeitsdrucks von etwa 10 bar im Jahr 1988 auf derzeit 24 bar erzielt werden. Dabei hilft der Magerbetrieb, der gleichzeitig ein Zurückdrängen der NOx-Emissionen bewirkt, die Klopfgrenze zu höheren Drücken hin zu verschieben. Eine sichere Zündung des Gas-Luft-Gemisches wird durch die Vorkammerzündung erreicht.
Willingness-to-pay for alternative fuel vehicle characteristics : a stated choice study for Germany
(2016)
In the light of European energy efficiency and clean air regulations, as well as an ambitious electric mobility goal of the German government, we examine consumer preferences for alternative fuel vehicles (AFVs) based on a Germany-wide discrete choice experiment among 711 potential car buyers. We estimate consumers’ willingness to-pay and compensating variation (CV) for improvements in vehicle attributes, also taking taste differences in the population into account by applying a latent class model with 6 distinct consumer segments. Our results indicate that about 1/3 of the consumers are oriented towards at least one AFV option, with almost half of them being AFV-affine, showing a high probability of choosing AFVs despite their current shortcomings. Our results suggest that German car buyers’ willingness-to-pay for improvements of the various vehicle attributes varies considerably across consumer groups and that the vehicle features have to meet some minimum requirements for considering AFVs. The CV values show that decision-makers in the administration and industry should focus on the most promising consumer group of ‘AFV aficionados’ and their needs. It also shows that some vehicle attribute improvements could increase the demand for AFVs cost-effectively, and that consumers would accept surcharges for some vehicle attributes at a level which could enable their private provision and economic operation (e.g. fast-charging infrastructure). Improvement of other attributes will need governmental subsidies to compensate for insufficient consumer valuation (e.g. battery capacity).
”I have never seen one who loves virtue as much as he loves beauty,” Confucius once said. If beauty is more important as goodness, it becomes clear why people invest so much effort in their first impression. The aesthetic of faces has many aspects and there is a strong correlation to all characteristics of humans, like age and gender. Often, research on aesthetics by social and ethic scientists lacks sufficient labelled data and the support of machine vision tools. In this position paper we propose the Aesthetic-Faces dataset, containing training data which is labelled by Chinese and German annotators. As a combination of three image subsets, the AF-dataset consists of European, Asian and African people. The research communities in machine learning, aesthetics and social ethics can benefit from our dataset and our toolbox. The toolbox provides many functions for machine learning with state-of-the-art CNNs and an Extreme-Gradient-Boosting regressor, but also 3D Morphable Model technolo gies for face shape evaluation and we discuss how to train an aesthetic estimator considering culture and ethics.
Bei der Zerspanung mit geometrisch definierter Schneide (z.B. Drehen, Fräsen, Bohren, Reiben, Sägen, Hobeln, Stoßen, Räumen) werden Zerspanwerkzeuge mit einer definierten Schneidengeometrie verwendet. Die Werte der einzelnen geometrischen Maße basieren auf Richt- und Erfahrungswerten. Die Definition der einzelnen Geometriemerkmale (z.B. Winkel) sind in DIN 6581 enthalten. In den letzten Jahren wurden zur Ermittlung des Prozessverhaltens unterschiedlicher Geometrieparameter Forschungsprojekte durchgeführt, die die Einflüsse der Schneidengestaltung untersuchen (z.B. Zabel 2010). Die Schneidengeometrie wird in der Regel mit den Verfahren Schleifen, Erodieren oder Laserbearbeitung erzeugt. Die Werkzeuge werden auf Universal- oder Spezial(werkzeugschleif)maschinen hergestellt und aufbereitet. Die Ausstattung und der Automatisierungsgrad richtet sich nach den zu bearbeitenden Merkmalen der Werkzeuge und deren Häufigkeit.
Die Additive Fertigung bietet großes Potenzial zur Erschließung neuer, flexibler und innovativer Fertigungsprozesse mit kurzen Durchlaufzeiten. Erhöhte Komplexität und die Integration von Funktionen in Bauteile wird gefördert. Zur Steigerung der Konkurrenzfähigkeit und weiteren Ausweitung des Einsatzgebietes sind automatisierte Fertigungsschritte nach dem Bauprozess erforderlich. Werkzeugmaschinen spielen auch in der Prozesskette der Additiven Fertigung eine zentrale Rolle bei der Erzeugung von genauen Funktionsflächen. Dabei ist evtl. eine andere Auslegung aufgrund reduzierter Zerspanvolumen und geringeren Flächen möglich.
Lehr- und Übungsbuch zur Werkstoffkunde und Werkstoffprüfung für Aus- und Fortbildung, Studium und Praxis. Das Lehrbuch beschreibt den Aufbau und die Eigenschaften der wichtigsten metallischen und nicht-metallischen Werkstoffe (Stähle, Eisengusswerkstoffe, Nichteisenmetalle und deren Legierungen, Kunststoffe, keramische Werkstoffe und Verbundwerkstoffe) sowie die Wechselwirkungen zwischen Werkstoffeigenschaften und Fertigungsverfahren. Es enthält jeweils ein Kapitel zur Tribologie und zur Werkstoffprüfung sowie die aktuelle europäische und internationale Werkstoffnormung. Für die 5. Auflage wurden Teile des Bildmaterials aktualisiert. Die CD enthält zusätzlich Musterklausuren mit Lösungsvorschlägen sowie das gesamte Bildmaterial des Buches in Dateiform zur Unterrichts- oder Vorlesungsgestaltung. Geeignet zur Verwendung am Whiteboard.
Die Erfindung betrifft eine Vorrichtung (100) und ein Verfahren zum elektrischen Verbinden und Trennen zweier elektrischer Potentiale (1, 2). Des Weiteren betrifft die Erfindung eine Verwendung der Vorrichtung (100). Dabei umfasst die Vorrichtung (100): – ein erstes Modul, welches einen ersten und einen zweiten Transistor (10a, 10b) umfasst, wobei der erste Transistor (10a) antiseriell zu dem zweiten Transistor (10b) geschaltet ist; und – ein zweites Modul, welches einen dritten und einen vierten Transistor (10c, 10d) umfasst, wobei der dritte Transistor (10c) antiseriell zu dem vierten Transistor (10d) geschaltet ist; wobei das erste Modul und das zweite Modul parallel geschaltet sind.
Die Bereitstellung von Wärme ist für ungefähr die Hälfte des Endenergieverbruchs in Deutschland verantwortlich und, angesichts eines Anteils erneuerbarer Energien an der Wärmebereitstellung von heute 14%, auch für einen bedeutenden Anteil der Treibhausgasemissionen. Die Bundesregierung strebt an, bis 2050 die Wärmeversorgung klimaneutral zu gestalten, sodass drei Ziele den zukünftigen Wärmemarkt und seine Innovationserfordernisse prägen: Reduktion des Wärmebedarfs, Steigerung des Anteils erneuerbarer Energien, Ausbau der Nah- und Fernwärmenetze. Für attraktive Geschäftsmodelle nicht minder wichtig sind jedoch die Kundenbedürfnisse, die sich auch aufgrund technologischer Entwicklungen stetig wandeln. Dementsprechend eröffnen sich neue Optionen für Geschäftsmodelle im Wärmesektor, z.B. erneuerbare Wärme mit Flatrate oder partizipative Wärme mit Energiesparanreizen.
In diesem Beitrag wird ein kapazitiver Low Power DC-DC Wandler mit 15 konfigurierbaren Übersetzungsverhältnissen, einem hohen Eingangsspannungsbereich von 5 V bis 20 V und einer konstanten Ausgangsspannung von 5 V vorgestellt. Bei einer Ausgangsleistung von 5 mW wird ein maximaler Wirkungsgrad von 81% erreicht. Die Implementierung erfolgt in einem 350 nm Hochvolt-CMOS-Prozess. Während es für niedrige Eingangsspannungen eine Vielzahl an Topologien und Konzepten gibt, wurden vollintegrierte SC-Wandler für höhere Eingangsspannungen (> 8 V) bisher nur wenig untersucht. Höhere Spannungen erfordern den Einsatz von Hochvolttransistoren und eine aufwändigere Ansteuerung. Um über einen weiteren Eingangsspannungsbereicht mit hoher Genauigkeit und hohem Wirkungsgrad zu wandeln, erweist sich die Topologie des rekursiven Switched-Capacitor Wandlers (RSC Wandler) als vorteilhaft. In der vorliegenden 4-Bit Implementierung ist der RSC Wandler aus N = 4 2:1 Serien-Parallel Wandler-Zellen aufgebaut. Durch verschiedene Anordnung der einzelnen Zellen können 2ᴺ -1 = 15 Wandlungsverhältnisse realisiert werden. Mittels Rekursion werden in jedem Wandlungsverhältnis alle Kapazitäten genutzt, wodurch die Stromfähigkeit und der Wirkungsgrad des Wandlers deutlich verbessert werden. Einheitliche 2:1 Wandler-Zellen ermöglichen einen modularen Aufbau des Layouts.
Ein virtuelles Kraftwerk ist ein Verbund von Energieanlagen, koordiniert von einem gemeinsamen Leitsystem, um eine bessere Ausnutzung wetterabhängiger Energiequellen oder die gemeinsame Vermarktung von erzeugtem Strom zu ermöglichen. Der Demonstrator Virtuelles Kraftwerk Neckar-Alb ist eine Demonstrationsplattform für Forschung und Lehre, die Anlagen auf dem Campus der Hochschule Reutlingen und verteilte Anlagen in der Region Neckar-Alb integriert.
In order to evaluate the performance of different stapes prosthesis types, a coupled finite element (FE) model of human ear was developed. First, the middle-ear FE model was developed and validated using the middle-ear transfer function measurements available in literature including pathological cases. Then, the inner-ear FE model was developed and validated using tonotopy, impedance, and level of cochlea amplification curves from literature. Both models are based on pre-existing research with some improvements and were combined into one coupled FE model. The stapes in the coupled FE ear model was replaced with a model of a stapes prosthesis to create a reconstructed ear model that can be used to estimate how different types of protheses perform relative to each other as well as to the natural ear. This will help in designing of new innovative types of stapes prostheses or any other type of middle-ear prostheses as well as to improve the ones that are already available on the market.
The Virtual Power Plant Neckar-Alb is a demonstration platform for operation, optimization and control of distributed energy resources, which are able to produce, store or consume electric energy. A heterogeneous set of distributed energy devices has been installed at the Campus of Reutlingen University by the Reutlingen Energy Centre (REZ) of the School of Engineering. The distributed energy devices have been combined to local microgrids and connected to an operative central power plant with additional participants. The demonstration platform serves students, researchers and industry experts for education and investigation of new technologies, devices and software.
Today the optimization of metal forming processes is done using advanced simulation tools in a virtual process, e.g. FEM-studies. The modification of the free parameters represents the different variants to be analysed. So experienced engineers may derive useful proposals in an acceptable time if good initial proposals are available. As soon as the number of free parameters growths or the total process takes long times and uses different succeeding forming steps it might be quite difficult to find promising initial ideas. In metal forming another problem has to be considered. The optimization using a series of local improvements, often called a gradient approach may find a local optimum, but this could be far away from a satisfactory solution. Therefore non-deterministic approaches, e.g. Bionic Optimization have to be used. These approaches like Evolutionary Optimization or Particle Swarm Optimization are capable to cover a large range of high dimensional optimization spaces and discover many local optima. So the chance to include the global optimum increases when using such non-deterministic methods. Unfortunately these bionic methods require large numbers of studies of different variants of the process to be optimized. The number of studies tends to increase exponentially with the number of free parameters of the forming process. As the time for one single study might be not too small as well, the total time demand will be inacceptable, taking weeks to months even if high performance computing will be used. Therefore the optimization process needs to be accelerated. Among the many ideas to reduce the time and computer power requirement Meta- and Hybrid Optimization seem to produce the most efficient results. Hybrid Optimization often consists of global searches of promising regions within the parameter space. As soon as the studies indicate that there could be a local optimum, a deterministic study tries to identify this local region. If it shows better performance than other optima found until now, it is preserved for a more detailed analysis. If it performs worse than other optima the region is excluded from further search. Meta-Optimization is often understood as the derivation of Response Surfaces of the functions of free parameters. Once there are enough studies performed, the optimization is done using the Response Surfaces as representatives e.g. for the goal and the restrictions of the optimization problem. Having found regions where interesting solutions are to be expected, the studies available up to now are used to define the Response Surfaces. In many cases low degree polynomials are used, defining their coefficients by least square methods. Both proposals Hybrid Optimization and Meta-Optimization, sometimes used in combination often help to reduce the total optimization processes by large numbers of variants to be studied. In consequence they are highly recommended when dealing with time consuming optimization studies.
The purpose of this article is to provide insight of a new simple forecasting method based on a state-estimation algorithm known as the Kalman filter. While the accuracy of such algorithm is not comparable to state-of-the-art forecasting algorithms for PV-power production it does not require any internet connection, eyefish cameras or time intensive training. The algorithm was tested with several months of real high-resolution data with adequate results for the intended applications. The minimization of the necessary spinning reserve on a PV-diesel hybrid system to increase the solar fraction and reduce diesel consumption.
Verification of an active time constant tuning technique for continuous-time delta-sigma modulators
(2022)
In this work we present a technique to compensate the effects of R-C / g m -C time-constant (TC) errors due to process variation in continuous-time delta-sigma modulators. Local TC error compensation factors are shifted around in the modulator loop to positions where they can be implemented efficiently with finely tunable circuit structures, such as current-steering digital-to-analog converters (DAC). We apply our technique to a third-order, single-bit, low-pass continuous-time delta-sigma modulator in cascaded integrator feedback structure, implemented in a 0.35-μm CMOS process. A tuning scheme for the reference currents of the feedback DACs is derived as a function of the individual TC errors and verified by circuit simulations. We confirm the tuning technique experimentally on the fabricated circuit over a TC parameter variation range of ±20%. Stable modulator operation is achieved for all parameter sets. The measured performances satisfy the expectations from our theoretical calculations and circuit-level simulations.
Der Verschleiß von Werkzeugen bei der Zerspanung mit geometrisch definierter Schneide ist wesentliches Kriterium für die Qualität der bearbeiteten Werkstücke, die Zuverlässigkeit der Bearbeitungsprozesse sowie der Wirtschaftlichkeit. Die Wirtschaftlichkeit der Bearbeitung wird vor allem durch die Anzahl der mit einem Werkzeug zuverlässig bearbeitbaren Werkstücke beeinflusst. Die Standzeit / der Standweg der Werkzeuge sowie die einsetzbaren Technologieparameter sind von unterschiedlichen Faktoren abhängig. Dabei sind neben dem Werkzeug und deren Eingriffsbedingungen (z. B. axiale und radiale Zustellung) auch die Einflüsse seitens der Maschine (z. B. Steifigkeit, Eigenfrequenzen, Drehmoment), des Werkstückes (z. B. Werkstoff, Genauigkeiten) und des Bearbeitungsprozesses mit den dabei auftretenden Kräften, Drehmomenten, Drehzahlen und Vorschüben abhängig. Trotz verschiedener Bemühungen der vergangenen beiden Jahrzehnte zur Bearbeitung ohne Kühlschmierstoff oder mit Minimalmengenschmierung werden heute immer noch zahlreiche Bearbeitungsprozesse unter Einsatz von Kühlschmierstoff durchgeführt. Dadurch lassen sich aufgrund der geringeren thermischen Belastung von Werkzeug und Werkstück teilweise deutlich höhere Schnittbedingungen und/oder Standzeiten erzielen.
Erfindungsgemäß wird ein Verfahren zur Optimierung des Betriebs eines in einem Regelkreis für einen Aufwärtswandler vorgesehenen digitalen Reglers (30) zur Verfügung gestellt. Das Verfahren umfasst die folgenden Verfahrensschritte: Auswerten (S1) mindestens einer Ausgangsgröße des digitalen Reglers im Betrieb des Aufwärtswandlers. Schätzen (S2) des instantanen Lastwiderstandswertes (RL) in der Strecke des Regelkreises anhand der mindestens einen ausgewerteten Ausgangsgröße. Einstellen (S3) mindestens eines Reglerkoeffizienten des digitalen Reglers anhand des geschätzten instantanen Lastwiderstandswertes (RL) im Betrieb des Aufwärtswandlers. Erfindungsgemäß bedingt eine Veränderung in der Einstellung des mindestens einen Reglerkoeffizienten eine Veränderung der Transitfrequenz im Regelkreis. Ferner wird ein Regelkreis für einen Aufwärtswandler mit einem digitalen Regler zur Verfügung gestellt, welcher eingerichtet ist, um die Schritte des erfindungsgemäßen Verfahrens durchzuführen. Des Weiteren wird ein Computerprogrammprodukt mit computerausführbarem Programmcode zur Durchführung des erfindungsgemäßen Verfahrens zur Verfügung gestellt.
Die vorliegende Erfindung betrifft ein Verfahren zum Bestimmen einer Fehlspannung eines Stromrichters, an den eine Last, insbesondere in Form einer Drehfeldmaschine wie Asynchronmaschine, angeschlossen ist, bestimmt und ggf. kompensiert wird, wobei eine Ausgangsspannung an dem Stromrichter stufen- oder schrittweise erhöht und der sich hierbei als Sprungantwort einstellende Strom gemessen wird. Die Erfindung betrifft weiterhin eine Drehfeldmaschine beispielsweise in Form einer Asynchronmaschine, mit einer Leistungselektronik umfassend einen tromrichter sowie einer Kompensationseinrichtung zum Kompensieren der Fehlspannung des Stromrichters, sowie weiterhin ein Verfahren zum Betreiben und/oder Steuern einer solchen Drehfeldmaschine, bei dem die Fehlspannung des Stromrichters bestimmt und kompensiert wird.
Die vorliegende Erfindung betrifft ein Verfahren zur Regelung einer Totzeit in einem Synchronwandler (100), in welchem ein zyklisches Schalten eines Steuerschalters (2) und eines Synchronschalters (3) erfolgen, wobei der Steuerschalter (2) mittels eines ersten Schaltsignals (S1) und der Synchronschalter (3) mittels eines zweiten Schaltsignals (S2) geschaltet werden. Das Verfahren umfasst ein Erfassen und Vorhalten eines Spannungswertes, welcher eine Spannung (VSW) über den Synchronschalter (3) zu einem bestimmten Zeitpunkt beschreibt, und ein Anpassen des ersten und/oder zweiten Schaltsignals (S1, S2) für einen folgenden Zyklus basierend auf dem vorgehaltenen Spannungswert.
The paper illustrates the status quo of a research project for the development of a control system enabling CHP units for a demand-oriented electricity production by an intelligent management of the heat storage tank. Thereby the focus of the project is twofold. One is the compensation of the fluctuating power production by the renewable energies solar and wind. Secondly, a reduction of the load on the power grid is intended by better matching local electricity demand and production.
In detail, the general control strategy is outlined, the method utilized for forecasting heat and electricity demand is illustrated as well as a correlation method for the temperature distribution in the heat storage tank based on a Sigmoid function is proposed. Moreover, the simulation model for verification and optimization of the control system and the two field test sites for implementing and testing the system are introduced.
Despite the unstoppable global drive towards electric mobility, the electrification of sub-Saharan Africa’s ubiquitous informal multi-passenger minibus taxis raises substantial concerns. This is due to a constrained electricity system, both in terms of generation capacity and distribution networks. Without careful planning and mitigation, the additional load of charging hundreds of thousands of electric minibus taxis during peak demand times could prove catastrophic. This paper assesses the impact of charging 202 of these taxis in Johannesburg, South Africa. The potential of using external stationary battery storage and solar PV generation is assessed to reduce both peak grid demand and total energy drawn from the grid. With the addition of stationary battery storage of an equivalent of 60 kWh/taxi and a solar plant of an equivalent of 9.45 kWpk/taxi, the grid load impact is reduced by 66%, from 12 kW/taxi to 4 kW/taxi, and the daily grid energy by 58% from 87 kWh/taxi to 47 kWh/taxi. The country’s dependence on coal to generate electricity, including the solar PV supply, also reduces greenhouse gas emissions by 58%.
The coupling of the heat and power sector is required as supply and demand in the German electricity mix drift further and further apart with a high percentage of renewable energy. Heat pumps in combination with thermal energy storage systems can be a useful way to couple the heat and power sectors. This paper presents a hardware-in the-loop test bench for experimental investigation of optimized control strategies for heat pumps. 24-hour experiments are carried out to test whether the heat pump is able to serve optimized schedules generated by a MATLAB algorithm. The results show that the heat pump is capable of following the generated schedules, and the maximum deviation of the operational time between schedule and experiment is only 3%. Additionally, the system can serve the demand for space heating and DHW at any time.
In kleinen und mittleren Unternehmen (KMU) werden Energieeffizienz-Potentiale in geringerem Maße ausgeschöpft als in Großunternehmen. Zugleich bilden KMU den überwältigenden Anteil deutscher Unternehmen. Die Steigerung der Energieeffizienz verspricht einen substanziellen Beitrag zur Umweltentlastung. Energiemanagement wird gemeinhin als wesentlicher Treiber von Energieeffizienz Maßnahmen in Deutschland betrachtet. Im Kontext von Unternehmen wird Energiemanagement üblicherweise synonym mit dem Energiemanagement-standard ISO 50001 betrachtet. Problematisch zeigt sich diese Perspektive mit Blick auf KMU, für die eine aufwändige Implementierung eines solchen System in den überwiegenden Fällen nicht infrage kommt. Vor diesem Hintergrund darf sich eine Förderung von Energiemanagement in KMU jedoch nicht entmutigen lassen. Im Rahmen des Projekts wurde ein bedarfsgerechtes und an den Bedürfnissen von KMU orientiertes Konzept von Energiemanagement für KMU entwickelt. Die Ausarbeitung erfolgte in einem sogenannten Reallabor, das gleichsam als Partner-Netzwerk die Ergebnisse des Projekts kooperativ produziert hat. Das Reallabor setzte sich zusammen aus den koordinierenden Partnern aus der Wissenschaft (REZ Hochschule Reutlingen, Institut für Energieeffizienz in der Produktion EEP), sechs KMU aus der Region Reutlingen und einem Sounding-Board bestehend aus vier weiteren Partnern.
Im Rahmen des Reallabors wurden jene Bausteine definiert, die Energiemanagement für KMU ausmachen. Sensibilität und Basiswissen ist für KMU unumgänglich in den Bereichen: 1. Motivation für Energieeffizienz & Klimaneutralität, 2. Organisation-Entscheiden-Verhalten, 3. Energie-Daten Management und 4. Energieeffizienz-Maßnahmen (Querschnitt-Technologien). Den vier festgelegten Bausteinen wurden unterschiedliche Inhalte Schwerpunkte zugeordnet. Die Bausteine und Schwerpunkte wurden jeweils begründet und mit konkreten Lehr-, Lern- und Sensibilisierungszielen benannt. Parallel zur Festlegung der Bausteine und Schwerpunkte von Energiemanagement wurden Lehr-, Lern- und Sensibilisierungs-Materialien ausgearbeitet, bestehend aus Leitfäden und Checklisten. Die Ausarbeitung wurde jeweils mit Themen-Workshops parallel begleitet. Die entwickelten Lehr-, Lern- und Sensibilisierungs-Materialien wurden in und mit den Partnerunternehmen getestet. Alle Materialien stehen mit Abschluss des Projekts für die Verbreitung zur freien Verfügung.
Der zukünftige Beitrag zur Umweltentlastung hängt von der breiten Umsetzung außerhalb des Projektkontexts ab. Die Sensibilisierung und Qualifizierung für Energiemanagement schafft eine nachhaltige Energiesparkultur in KMU. Eine breite Anwendung des entwickelten Konzepts im Rahmen von moderierten Unternehmens-Netzwerken fördert die nachhaltige Befähigung von KMU Energieeffizienz zu planen und umzusetzen.
Universelle OTA-Testbench
(2014)
Es wird eine universell einsetzbare Testbench zur Simulation von integrierten Schaltungen innerhalb der OTA-Schaltungsklasse (Operational Transconductance Amplifier; Transkonduktanzverstärker) vorgestellt. Transkonduktanzverstärker sind in der analogen Schaltungstechnik weit verbreitet und daher von großer Bedeutung. Sie treten sowohl als eigenständige Schaltungen innerhalb eines Chips, sowie als Bestandteil anderer Schaltungen (z.B. als erste und zweite Stufe von Operationsverstärkern) auf. Es kann davon ausgegangen werden, dass heute kaum ein analoger oder Mixed-Signal-Chip gefertigt wird, in dem keine Transkonduktanzverstärker verbaut sind. Die Entscheidungsfindung des Entwicklers bei der Auslegung eines OTAs beruht maßgeblich auf einer anwendungsspezifischen Simulation. Die Erstellung einer eigenen Testbench für jede Anwendung bedeutet allerdings einen hohen Zeitaufwand und erschwert den Vergleich der Simulationsergebnisse unterschiedlicher Schaltungsvarianten. Durch eine universelle Testbench kann zum einen der Zeitaufwand verringert werden, zum anderen können nun Simulationsergebnisse direkt miteinander verglichen werden. Hierdurch wird die Entscheidungsfindung des Entwicklers objektiviert und beschleunigt. Neben dem Vergleich unterschiedlicher Schaltungen innerhalb einer Technologie ist auch der Vergleich einer Schaltung in unterschiedlichen Technologien denkbar. Die Idee einer universell anwendbaren Testbench lässt sich auch auf andere analoge Schaltungsklassen anwenden und damit als Prinzip verallgemeinern.
Die Alterungsbeständigkeit von geschirmten Kabeln und Kontaktpaaren gewinnt angesichts des zunehmenden Einsatzes elektronischer softwarebasierter Steuerungen in Transportmitteln an Relevanz. Elektro- und Hybridantriebe sowie die Implementierung von Fahrassistenzsystemen bis hin zu autonom fahrenden Fahrzeugen führen zu komplexen Kabelbäumen mit einer großen Zahl von geschirmten Kabeln und Steckverbindern.
Um die Stabilität von Kontaktsystemen hinsichtlich ihrer Stabilität zu prüfen, werden Hochspannungskabel unterschiedlicher Hersteller und Dimensionierung für den Einsatz in Hybridfahrzeugen untersucht. Diese wurden mit Modellsteckern versehen, die die Schimung kontaktierten und hinreichend gewährleisteten.
Impedanz und Schirmwirkungsdämpfung wurden an thermisch belasteten Kabeln und Kontaktpaaren vergleichend zu Neuteilen untersucht. Der Einfluss der in Anlehnung an die LV 214 induzierten thermischen Alterung auf das frequenzabhängige Übertragungsprofil sowie den Gesamtstreuverlust wurde messtechnisch ermittelt. Zusätzlich wurden die Alterungseffekte an den Leitungsmaterialien mittels moderner bildgebender Analytik dokumentiert.
Die vorliegende Erfindung betrifft ein Transmission Line Pulssystem zum Erzeugen eines elektrischen Pulses, sowie ein diesbezügliches Verfahren. Dabei umfasst das Transmission Line Pulssystem: eine Transmission Line, eine Energieversorgungsquelle zum Aufladen der Transmission Line und einen Entladungsschalter zum Auslösen einer Entladung der aufgeladenen Transmission Line, dadurch gekennzeichnet, dass die Transmission Line eine Vielzahl von Einzelsegmenten umfasst, wobei jedes Einzelsegment über ein zugehöriges Einstellglied mit einem gemeinsamen Massepotential elektrisch verbunden ist, und wobei zumindest eines der Einstellglieder einen Einstellkondensator und einen Einstellschalter aufweist.
The experimental characterization of the thermal impedance Zth of large power MOSFETs is commonly done by measuring the junction temperature Tj in the cooling phase after the device has been heated, preferably to a high junction temperature for increased accuracy. However, turning off a large heating current (as required by modern MOSFETs with low on-state resistances) takes some time because of parasitic inductances in the measurement system. Thus, most setups do not allow the characterization of the junction temperature in the time range below several tens of μs.
In this paper, an optimized measurement setup is presented which allows accurate Tj characterization already 3 μs after turn-off of heating. With this, it becomes possible to experimentally investigate the influence of thermal capacitances close to the active region of the device. Measurement results will be presented for advanced power MOSFETs with very large heating currents up to 220 A. Three bonding variants are investigated and the observed differences will be explained.
This paper aims at presenting a solution that enables end customers of the energy system to participate in new local micro-energy-markets by providing them with a distributed, decentralized, transparent and secure Peer to Peer (P2P) payment system, which functions automatically applying new concepts of Machine to Machine (M2M) communication technologies. This work was performed within the German project VK_2G, funded by the DBU. The key results were: Providing means to perform microtransactions in a P2P fashion between end consumers and prosumers in local communities at low cost in a transparent and secure manner; Developing a platform with pre-defined smart contracts able to be tailored to different end customers ‘needs in an easy way and; Integrating both the market platform as well as the local control of generation and loads. This solution has been developed, integrated and tested in a laboratory prototype. This paper discusses this solution and presents the results of the first test.
The aim of this work is the development of artificial intelligence (AI) application to support the recruiting process that elevates the domain of human resource management by advancing its capabilities and effectiveness. This affects recruiting processes and includes solutions for active sourcing, i.e. active recruitment, pre-sorting, evaluating structured video interviews and discovering internal training potential. This work highlights four novel approaches to ethical machine learning. The first is precise machine learning for ethically relevant properties in image recognition, which focuses on accurately detecting and analysing these properties. The second is the detection of bias in training data, allowing for the identification and removal of distortions that could skew results. The third is minimising bias, which involves actively working to reduce bias in machine learning models. Finally, an unsupervised architecture is introduced that can learn fair results even without ground truth data. Together, these approaches represent important steps forward in creating ethical and unbiased machine learning systems.
In this work, a comparison between different brushless harmonic-excited wound-rotor synchronous machines is performed. The general idea of all topologies is the elimination of the slip rings and auxiliary windings by using the already existing stator and rotor winding for field excitation. This is achieved by injecting a harmonic airgap field with the help of power electronics. This harmonic field does not interact with the fundamental field, it just transfers the excitation power across the airgap. Alternative methods with varying number of phases, different pole-pair combinations, and winding layouts are covered and compared with a detailed Finite-Element-parameterized model. Parasitic effects due to saturation and coupling between the harmonic and main windings are considered.
The increase in distributed energy generation, such as photovoltaic systems (PV) or combined heat and power plants (CHP), poses new challenges to almost every distribution network operator (DNO). In the low-voltage (LV) grids, where installed PV capacity approaches the magnitude of household load, reverse power flow occurs at the secondary substa-tions. High PV penetration leads to voltage rise, flicker and loading problems. These problems have been addressed by the application of various techniques amongst which is the deployment of step voltage regulators (SVR). SVR can solve the voltage problem, but do not prevent or reduce reverse power flows. Therefore, the application of SVR in low voltage grids can result in significant power losses upstream. In this paper we present part of a research project investi-gating the application of remote-controlled cable cabinets (CC) with metering units in a low-voltage network as a possible alternative for SVR. A new generation of custom-made remote-control cable cabinets has been deployed and dynamic network reconfigurations (NR) have been realized with the following objectives: (i) reduction of reverse power flow through the secondary substation to the upstream network and therefore a reduction of upstream losses, (ii) reduction of the voltage rise caused by distributed energy resources and (iii) load balancing in the low-voltage grid. Secondary objec-tives are to improve the DNO's insight into the state of the network and to provide further information on future smart grid integration.
Instead of waiting for and constantly adapting to details of political interventions, utilities need to focus on their environment from a holistic perspective. The unique position of the company - be it a local utility, a bigger player, or an international utility specializing in specitic segments - has to be the basis of goals and strategies. But without consistent translation of these goals and strategies into processes, structures, and company culture, a strategy remains pure theory. Companies need to engage in a continuing learning process. This means being willing to pass on strategies, to slow down or speed up, to work from a different angle etc.
In the course of a more intensive energy generation from regenerative sources, an increased number of energy storages is required. In addition to the widespread means of storing electric energy, storing energy thermally can contribute significantly. However, limited research exists on the behaviour of thermal energy storages (TES) in practical operation. While the physical processes are well known, it is nevertheless often not possible to adequately evaluate its performance with respect to the quality of thermal stratification inside the tank, which is crucial for the thermodynamic effectiveness of the TES. The behaviour of a TES is experimentally investigated in cyclic charging and discharging operation in interaction with a cogeneration (CHP) unit at a test rig in the lab. From the measurements the quality of thermal stratification is evaluated under varying conditions using different metrics such as normalised stratification factor, modified MIX number, exergy number and exergy efficiency, which extends the state of art for CHP applications. The results show that the positioning of the temperature sensors for turning the CHP unit on and off has a significant influence on both the effective capacity of a TES and the quality of thermal stratification inside the tank. It is also revealed that the positioning of at least one of these sensors outside the storage tank, i.e. in the return line to the CHP unit, prevents deterioration of thermal stratification, thereby enhancing thermodynamic effectiveness. Furthermore, the effects of thermal load and thermal load profile on effective capacity and thermal stratification are discussed, even though these are much smaller compared to the effect of positioning the temperature sensors.
In der Mikroelektronik werden Chips häufig in Mold-Gehäusen verpackt. Die elektrischen Verbindungen vom Chip zu den Anschlussbeinchen des Gehäuses werden mit Bonddrähten realisiert. Für die Berechnung der Gleichgewichtstemperatur in einem Bonddraht bei konstantem Strom sowie von Temperaturverläufen bei transienten Strömen ist die herkömmliche FEM-Methode langsam und unhandlich. Daher wurde der Bondrechner entwickelt, der ein zylindersymmetrisches Ersatz-Modell für das Package in geeigneten mathematischen Gleichungen abbildet.
Im Gegensatz zum Bondrechner der ersten Generation [1], der auf den Gleichungen von [2] basiert, bietet ein neuer mathematischer Ansatz die Möglichkeit, eine endliche effektive Package-Größe, sowie einen endlichen Wärmeübergang zwischen Bonddraht und Mold-Masse zu berücksichtigen. Ebenso wurde die Berechnung der Interaktion von mehreren benachbarten Drähten verfeinert. Die Berechnung von beliebigen transienten Pulsformen mittlerer Länge wurde ebenfalls verbessert. Eine quadratische Komponente in der Temperaturabhängigkeit des spezifischen Widerstandes des Drahtmaterials kann jetzt ebenfalls berücksichtigt werden.
Die Ergebnisse wurden erfolgreich mit FEM-Berechnungen verglichen und die Geschwindigkeit der Berechnung ist um Größenordnungen schneller als mit kommerziellen FEM-Programmen.
This paper investigates the electrothermal stability and the predominant defect mechanism of a Schottky gate AlGaN/GaN HEMT. Calibrated 3-D electrothermal simulations are performed using a simple semiempirical dc model, which is verified against high-temperature measurements up to 440°C. To determine the thermal limits of the safe operating area, measurements up to destruction are conducted at different operating points. The predominant failure mechanism is identified to be hot-spot formation and subsequent thermal runaway, induced by large drain–gate leakage currents that occur at high temperatures. The simulation results and the high temperature measurements confirm the observed failure patterns.
Induced by a societal decision to phase out conventional energy production - the so-called Energiewende (energy transition) - the rise of distributed generation acts as a game changer within the German energy market. The share of electricity produced from renewable resources increased to 31,6% in 2015 (UBA, 2016) with a targeted share of renewable resources in the electricity mix of 55%-60% in 2035 (RAP, 2015), opening perspectives for new products and services. Moreover, the rapidly increasing degree of digitization enables innovative and disruptive business models in niches at the grid's edge that might be the winners of the future. It also stimulates the market entry of newcomers and competitors from other sectors, such as IT or telecommunication, challenging the incumbent utilities. For example, virtual and decentral market places for energy are emerging; a trend that is likely to speed up considerably by blockchain technology, if the regulatory environment is adjusted accordingly. Consequently, the energy business is turned upside down, with customers now being at the wheel. For instance, more than one-third of the renewable production capacities are owned by private persons (Trendsearch, 2013). Therefore, the objective of this chapter is to examine private energy consumer and prosumer segments and their needs to derive business models for the various decentralized energy technologies and services. Subsequently, success factors for dealing with the changing market environment and consequences of the potentially disruptive developments for the market structure are evaluated.
Electromigration (EM) is becoming a progressively severe reliability challenge due to increased interconnect current densities. A shift from traditional (post-layout) EM verification to robust (pro-active) EM aware design - where the circuit layout is designed with individual EM-robust solutions - is urgently needed. This tutorial will give an overview of EM and its effects on the reliability of present and future integrated circuits (ICs). We introduce the physical EM process and present its specific characteristics that can be affected during physical design. Examples of EM countermeasures which are applied in today’s commercial design flows are presented. We show how to improve the EM-robustness of metallization patterns and we also consider mission proiles to obtain application-oriented current density limits. The increasing interaction of EM with thermal migration is investigated as well. We conclude with a discussion of application examples to shift from the current post layout EM verification towards an EM aware physical design process. Its methodologies, such as EM-aware routing, increase the EM-robustness of the layout with the overall goal of reducing the negative impact of EM on the circuit’s reliability.
Purpose
Injury or inflammation of the middle ear often results in the persistent tympanic membrane (TM) perforations, leading to conductive hearing loss (HL). However, in some cases the magnitude of HL exceeds that attributable by the TM perforation alone. The aim of the study is to better understand the effects of location and size of TM perforations on the sound transmission properties of the middle ear.
Methods
The middle ear transfer functions (METF) of six human temporal bones (TB) were compared before and after perforating the TM at different locations (anterior or posterior lower quadrant) and to different degrees (1 mm, ¼ of the TM, ½ of the TM, and full ablation). The sound-induced velocity of the stapes footplate was measured using single-point laser-Doppler-vibrometry (LDV). The METF were correlated with a Finite Element (FE) model of the middle ear, in which similar alterations were simulated.
Results
The measured and calculated METF showed frequency and perforation size dependent losses at all perforation locations. Starting at low frequencies, the loss expanded to higher frequencies with increased perforation size. In direct comparison, posterior TM perforations affected the transmission properties to a larger degree than anterior perforations. The asymmetry of the TM causes the malleus-incus complex to rotate and results in larger deflections in the posterior TM quadrants than in the anterior TM quadrants. Simulations in the FE model with a sealed cavity show that small perforations lead to a decrease in TM rigidity and thus to an increase in oscillation amplitude of the TM mainly above 1 kHz.
Conclusion
Size and location of TM perforations have a characteristic influence on the METF. The correlation of the experimental LDV measurements with an FE model contributes to a better understanding of the pathologic mechanisms of middle-ear diseases. If small perforations with significant HL are observed in daily clinical practice, additional middle ear pathologies should be considered. Further investigations on the loss of TM pretension due to perforations may be informative.
Electronic design automation approaches can roughly be divided into optimizers and procedures. While the former have enabled highly automated synthesis flows for digital integrated circuits, the latter play a vital (but mostly underestimated role) in the analog domain. This paper describes both automation strategies in comparison, identifying two fundamentally different automation paradigms that reflect the two basic design practices known as “top-down” and “bottom-up”. Then, with a focus on the latter, the history of procedural approaches is traced from their
early beginnings until today’s evolvements and future prospects to underline their practical importance and to accentuate their scientific value, both in itself and in the overall context of EDA.
Most Question-answering (QA) systems rely on training data to reach their optimal performance. However, acquiring training data for supervised systems is both time-consuming and resource-intensive. To address this, in this paper, we propose TFCSG, an unsupervised similar question retrieval approach that leverages pre-trained language models and multi-task learning. Firstly, topic keywords in question sentences are extracted sequentially based on a latent topic-filtering algorithm to construct unsupervised training corpus data. Then, the multi-task learning method is used to build the question retrieval model. There are three tasks designed. The first is a short sentence contrastive learning task. The second is the question sentence and its corresponding topic sequence similarity judgment task. The third is using question sentences to generate their corresponding topic sequence task. The three tasks are used to train the language model in parallel. Finally, similar questions are obtained by calculating the cosine similarity between sentence vectors. The comparison experiment on public question datasets that TFCSG outperforms the comparative unsupervised baseline method. And there is no need for manual marking, which greatly saves human resources.
3D assisted 2D face recognition involves the process of reconstructing 3D faces from 2D images and solving the problem of face recognition in 3D. To facilitate the use of deep neural networks, a 3D face, normally represented as a 3D mesh of vertices and its corresponding surface texture, is remapped to image-like square isomaps by a conformal mapping. Based on previous work, we assume that face recognition benefits more from texture. In this work, we focus on the surface texture and its discriminatory information content for recognition purposes. Our approach is to prepare a 3D mesh, the corresponding surface texture and the original 2D image as triple input for the recognition network, to show that 3D data is useful for face recognition. Texture enhancement methods to control the texture fusion process are introduced and we adapt data augmentation methods. Our results show that texture-map-based face recognition can not only compete with state-of-the-art systems under the same precon ditions but also outperforms standard 2D methods from recent years.
This paper covers test and verification of a forecast-based Monte Carlo algorithm for an optimized, demand-oriented operation of combined heat and power (CHP) units using the hardware-in-the-loop approach. For this purpose, the optimization algorithm was implemented at a test bench at Reutlingen University for controlling a CHP unit in combination with a thermal energy storage, both in real hardware. In detail, the hardware-in-the-loop tests are intended to reveal the effects of demand forecasting accuracy, the impact of thermal energy storage capacity and the influence of load profiles on demand-oriented operation of CHP units. In addition, the paper focuses on the evaluation of the content of energy in the thermal energy storage under practical conditions. It is shown that a 5-layer model allows to determine the energy stored quite accurately, which is verified by experimental results. The hardware-in-the-loop tests disclose that demand forecasting accuracies, especially electricity demand forecasting, as well as load profiles strongly impact the potential for CHP electricity utilization on-site in demand-oriented mode. Moreover, it is shown that a larger effective capacity of the thermal energy storage positively affects demand-oriented operation. In the hardware-in-the-loop tests, the fraction of electricity generated by the CHP unit utilized on-site could thus be increased by a maximum of 27% compared to heat-led operation, which is still the most common modus operandi of small-scale CHP plants. Hence, the hardware-in-the-loop tests were adequate to prove the significant impact of the proposed algorithm for optimization of demand-oriented operation of CHP units.
Virtual prototyping of integrated mixed-signal smart-sensor systems requires high-performance co-simulation of analog frontend circuitry with complex digital controller hardware and embedded real-time software. We use SystemC/TLM 2.0 in combination with a cycle-count accurate temporal decoupling approach to simulate digital components and firmware code execution at high speed while preserving clock cycle accuracy and, thus, real-time behavior at time quantum boundaries. Optimal time quanta ensuring real-time capability can be calculated and set automatically during simulation if the simulation engine has access to exact timing information about upcoming communication events. These methods fail in case of non-deterministic, asynchronous events resulting in a possibly invalid simulation result. In this paper, we propose an extension of this method to the case of asynchronous events generated by blackbox sources from which a-priori event timing information is not available, such as coupled analog simulators or hardware in the loop. Additional event processing latency and/or rollback effort caused by temporal decoupling is minimized by calculating optimal time quanta dynamically in a SystemC model using a linear prediction scheme. For an example smart-sensor system model, we show that quasi- periodic events that trigger activities in temporally decoupled processes are handled accurately after the predictor has settled.
Virtual prototyping of integrated mixed-signal smart sensor systems requires high-performance co-simulation of analog frontend circuitry with complex digital controller hardware and embedded real-time software. We use SystemC/TLM 2.0 in conjunction with a cycle-count accurate temporal decoupling approach (TD) to simulate digital components and firmware code execution at high speed while preserving clock-cycle accuracy and, thus, real-time behavior at time quantum boundaries. Optimal time quanta ensuring real-time capability can be calculated and set automatically during simulation if the simulation engine has access to exact timing information about upcoming inter-process communication events. These methods fail in the case of non-deterministic, asynchronous events, resulting in potentially invalid simulation results. In this paper, we propose an extension to the case of asynchronous events generated by blackbox sources from which a priori event timing information is not available, such as coupled analog simulators or hardware in the loop. Additional event processing latency or rollback effort caused by temporal decoupling is minimized by calculating optimal time quanta dynamically in a SystemC model using a linear prediction scheme. We analyze the theoretical performance of the presented predictive temporal decoupling approach (PTD) by deriving a cost model that expresses the expected simulation effort in terms of key parameters such as time quantum size and CPU time per simulation cycle. For an exemplary smart-sensor system model, we show that quasi-periodic events that trigger activities in TD processes are handled accurately after the predictor has settled.
When a bonding wire becomes too hot, it fuses and fails. The ohmic heat that is generated in the wire can be partially dissipated to a mold package. For this cooling effect the thermal contact between wire and package is an important parameter. Because this parameter can degrade over lifetime, the fusing of a bonding wire can also occur as a long-term effect. Another important factor is the thermal power generated in the vicinity of the bond pads. Nowadays, the reliability of bond wires relies on robust dimensioning based on estimations. Smaller package sizes increase the need for better predictive methods.
The Bond Calculator, a new thermo-electrical simulation tool, is able to predict the temperature profiles along bond wires of arbitrary dimensions in dependence on the applied arbitrary transient current profile, the mold surrounding the wire, and the thermal contact between wire and mold.
In this paper we closely investigated the spatial temperature profiles along different bond wires in air in order to make a first step towards the experimental verification of the simulation model. We are using infrared microscopy in order to measure the thermal radiation generated along the bond wire. This is easier to perform quantitatively in air than in the mold package, because of the non-negligible absorbance of the mold material in the infrared wavelength region.
We discuss the fabrication technologies for IC chips in this chapter. We will focus on the main process steps and especially on those aspects that are of particular importance for understanding how they affect, and in some cases drive, the layout of ICs. All our analyses in this chapter will be for silicon as the base material; the principles and understanding gained can be applied to other substrates as well. Following a brief introduction to the fundamentals of IC fabrication (Sect. 2.1) and the base material used in it, namely silicon (Sect. 2.2), we discuss the photolithography process deployed for all structuring work in Sect. 2.3. We will then present in Sect. 2.4 some theoretical opening remarks on typical phenomena encountered in IC fabrication. Knowledge of these phenomena is very useful for understanding the process steps we cover in Sects. 2.5–2.8. We examine a simple exemplar process in Sect. 2.9 and observe how a field-effect transistor (FET) – the most important device in modern integrated circuits—is created. To drive the key points home, we provide a review of each topic at the end of every section from the point of view of layout design by discussing relevant physical design aspects.
In Germany, mobility is currently in a state of flux. Since June 2019, electric kick scooters (e-scooters) have been permitted on the roads, and this market is booming. This study employs a user survey to generate new data, supplemented by expert interviews to determine whether such e-scooters are a climate-friendly means of transport. The environmental impacts are quantified using a life cycle assessment. This results in a very accurate picture of e-scooters in Germany. The global warming potential of an e-scooter calculated in this study is 165 g CO2-eq./km, mostly due to material and production (that together account for 73% of the impact). By switching to e-scooters where the battery is swapped, the global warming potential can be reduced by 12%. The lowest value of 46 g CO2-eq./km is reached if all possibilities are exploited and the life span of e-scooters is increased to 15 months. Comparing these emissions with those of the replaced modal split, e-scooters are at best 8% above the modal split value of 39 g CO2-eq./km.
In recent years, significant progress was made on switched-capacitor DCDC converters as they enable fully integrated on chip power management. New converter topologies overcame the fixed input-to-output voltage limitation and achieved high efficiency at high power densities. SC converters are attractive to not only mobile handheld devices with small input and output voltages, but also for power conversion in IoTs, industrial and automotive applications, etc. Such applications need to be capable of handling high input voltages of more than 10V. This talk highlights the challenges of the required supporting circuits and high voltage techniques, which arise for high Vin SC converters. It includes level shifters, charge pumps and back-to-back switches. High Vin conversion is demonstrated in a 4:1 SC DCDC converter with an input voltage as high as 17V with a peak efficiency of 45 %, and a buckboost SC converter with an input voltage range starting from 2 up to 13V, which utilizes a total of 17 ratios and achieves a peak efficiency of 81.5 %. Furthermore a highly integrated micro power supply approach is introduced, which is connected directly to the 120/230 Vrms mains, with an output power of 3mW, resulting in a power density >390μW/mm², which exceeds prior art by a factor of 11.
Optimization-based analog layout automation does not yet find evident acceptance in the industry due to the complexity of the design problem. This paper presents a Self-organized Wiring and Arrangement of Responsive Modules (SWARM), able to consider crucial design constraints both implicitly and explicitly. The flexibility of algorithmic methods and the expert knowledge captured in PCells combine into a flow of supervised module interaction. This novel approach targets the creation of constraint-compliant layout blocks which fit into a specified zone. Provoking a synergetic self-organization, even optimal layout solutions can emerge from the interaction. Various examples depict the power of that new concept and the potential for future developments.
After more than three decades of electronic design automation, most layouts for analog integrated circuits are still handcrafted in a laborious manual fashion today. This book presents Self-organized Wiring and Arrangement of Responsive Modules (SWARM), a novel interdisciplinary methodology addressing the design problem with a decentralized multi-agent system. Its basic approach, similar to the roundup of a sheep herd, is to let autonomous layout modules interact with each other inside a successively tightened layout zone. Considering various principles of self-organization, remarkable overall solutions can result from the individual, local, selfish actions of the modules. Displaying this fascinating phenomenon of emergence, examples demonstrate SWARM’s suitability for floorplanning purposes and its application to practical place-and-route problems. From an academic point of view, SWARM combines the strengths of procedural generators with the assets of optimization algorithms, thus paving the way for a new automation paradigm called bottom-up meets top-down.
Despite 30 years of Electronic Design Automation, analog IC layouts are still handcrafted in a laborious fashion today due to the complex challenge of considering all relevant design constraints. This paper presents Self-organized Wiring and Arrangement of Responsive Modules (SWARM), a novel approach addressing the problem with a multi-agent system: autonomous layout modules interact with each other to evoke the emergence of overall compact arrangements that fit within a given layout zone. SWARM´s unique advantage over conventional optimization-based and procedural approaches is its ability to consider crucial design constraints both explicitly and implicitly. Several given examples show that by inducing a synergistic flow of self-organization, remarkable layout results can emerge from SWARM’s decentralized decision-making model.
This paper evaluates experimentally the susceptibility of IT-networks under influences and the threats of HPEM (High Power Electromagnetic) and IEMI (Intentional Electromagnetic Interferences). As HPEM source a PBG 5 (Pulse Burst Generator) adapted to a TEM (Transversal Electromagnetic) Horn type antenna and a 90 cm IRA (Impulse Radiating Antenna) type antenna is used. Different network cable types and categories with different lengths are used. The immunity of the IT network is examined and the breakdown failure rate of the system is defined for a PRF (Pulse Repetition Frequency) of 500 s-1 in duration of 10 seconds. Series of measurements were carried out and disturbances of keyboards, mouse, switches, distortions on monitors and failures of the IT network and, even crash of PCs were observed. It is shown amongst other that by increasing the pulse repetition rate or frequency, generic test IT-networks are more susceptible to interference. Obtained results provide another view of the susceptibility analysis of modern generic IT-networks against UWB-Threats.
Durch schnell schaltende Leistungsendstufen werden durch kapazitive Umladeströme Störungen ins Substrat und in empfindliche Schaltungselemente eingekoppelt, die dort zur Störung der Funktion führen können. In dieser Arbeit werden Substratstrukturen zur gezielten Ableitung dieser Störungen vorgestellt und ihre Wirksamkeit mit Hilfe von Device Simulation evaluiert. Ohne Ableitstrukturen kann eine Potentialanhebung des Substrats bis zu 20 V entstehen. Die Untersuchungen belegen, dass die Potentialanhebung durch p-Typ Guard-Ringe um 75 %, durch leitende Trenches um 88 % sowie durch Rückseitenmetallisierung um nahezu 100 % reduziert werden kann.
Substrate coupling is a critical failure mechanism especially in fast-switching integrated power stages controlling high-side NMOS power FETs. The parasitic coupling across the substrate in integrated power stages at rise times of up to 500 ps and input voltages of up to 40V is investigated in this paper. The coupling has been studied for the power stage of an integrated buck converter. In particular, dedicated diverting and isolation structures against substrate coupling are analyzed by simulations and evaluated with measurements from test chips in 180nm high-voltage BiCMOS. The results are compared regarding effectiveness, area as well as implementation effort and cost. Back-side metalization shows superior characteristics with nearly 100% noise suppression. Readily available p-guard ring structures bring 75% disturbance reduction. The results are applicable to advanced and future power management solutions with fully integrated switched-mode power supplies at switching frequencies >10 MHz.
The deterioration of the shielding performance of electromagnetic interference finger stock gaskets in a corrosive environment is investigated. The visualization of the real contact area shows a drastic reduction of the engaged active contact region between fingers and their mating surfaces in presence of corrosives residues. In fact, additional openings occur besides the “Tlike” holes due to the porous nature of gaskets. This leads to a strong degradation of the shielding effectiveness. Modified Bethe’s theory is used to estimate the equivalent circuit parameters while the shielding effectiveness in terms of ratio between two transfer functions is obtained upon applying the filter theory. Quantitative measurements carried out for different gasket types show a good agreement with calculated results, demonstrating thus the validity of the approach.
Die zunehmende erneuerbare Stromerzeugung erfordert Anstrengungen, um den Angebotsschwankungen und der Verteilungsproblematik entgegen zu wirken. Eine dezentrale und am Bedarf orientierte Stromerzeugung mittels Kraft-Wärme-Kopplung (KWK) kann einen wesentlichen Beitrag leisten, um diese Schwankungen auszugleichen und die Netze zu entlasten. Zu diesem Zweck ist aber ein Steuerungssystem für die KWK-Anlagen erforderlich, das sowohl für die Deckung des Wärmebedarfs im Objekt sorgt, als auch gewährleistet, dass die elektrische Energie genau zu den Zeiten erzeugt wird, zu denen sie im Objekt benötigt wird. Die Entkopplung von Stromerzeugung und Deckung des Wärmebedarfs kann dabei über den standardmäßig vorhandenen Wärmespeicher erfolgen. Dieser stellt damit das zentrale Element der Gesamtanlage dar, für die das Steuerungssystem zur Eigenstromoptimierung im Rahmen des Forschungsvorhabens entwickelt und erprobt werden soll.
Im Rahmen des vorliegenden Zwischenberichtes werden die Ergebnisse des 2. des auf insgesamt drei Jahre angelegten Forschungsprojektes vorgestellt. Im Einzelnen sind die Themen Prognose, Bestimmung des Energieinhaltes im Wärmespeicher, stromoptimiertes Steuerungssystem, Aufbau der Feldtestanlagen, Simulation und sozialwissenschaftliche Begleitforschung beschrieben.
Bei den umfangreichen Arbeiten zur Wärme- und Strombedarfsprognose hat sich gezeigt, dass die naive Prognose, die auf der Übernahme der Daten der Vortage beruht, aufgrund des starken Einflusses des individuellen Nutzerverhaltens eine nur schwer zu verbessernde Vorhersagegüte aufweist. Zur Bestimmung des Energieinhaltes im Wärmespeicher wird eine Sigmoidfunktion zur Beschreibung des Temperaturverlaufs über der Speicherhöhe verwendet. Schwierig ist dabei die Anpassung der vier Funktionsparameter mit nur drei Temperaturmesswerten, was jedoch durch geeignete Randbedingungen erreicht werden kann. Das stromoptimierte Steuerungssystem verwendet die Wärmebedarfskurven bei minimalem und maximalem Energieinhalt des Wärmespeichers als Begrenzungen des Optimierungsbereiches, um so die Deckung des Wärmebedarfs zu jeder Zeit zu gewährleisten. Die zwei im Projekt zur Verfügung stehenden Feldtestanlagen wurden mit zusätzlicher Mess- und Steuerungstechnik nachgerüstet, um das entwickelte Steuerungssystem implementieren und testen zu können. Das Simulationsmodell ist im Hinblick auf verschiedene Speicherkonfigurationen erweitert und auf Basis am BHKW-Prüfstand der Hochschule gewonnener Versuchsdaten verifiziert worden, und im Zuge der sozialwissenschaftlichen Begleitforschung werden die Ergebnisse einer im Rahmen des Projektes angefertigten Studie zu den Hemmnissen der KWK vorgestellt.
- Verschiebung des KWK-Betriebs in die Phasen mit hohem Stromverbrauch
- Wärme- und Stromlastprognose
- Bestimmung des Wärmeinhaltes im Pufferspeicher
- Erstellung eines optimierten Fahrplans für das KWK-Gerät
- Ergebnisse von praktischen Anlagen im Feldtest
- Simulation der Temperaturen im Pufferspeicher im praktischen Betrieb von KWK-Anlagen
Die zunehmende erneuerbare Stromerzeugung erfordert Anstrengungen, um den damit verbundenen Angebotsschwankungen und der zusätzlichen Netzbelastung entgegen zu wirken. Eine dezentrale und am Bedarf orientierte Stromerzeugung mittels Kraft-Wärme-Kopplung (KWK) kann hier einen wesentlichen Beitrag leisten, um eine sichere und konstante Stromversorgung zu gewährleisten und die Netze zu entlasten. Zu diesem Zweck ist jedoch ein Steuerungssystem erforderlich, das die KWK-Anlagen in die Lage versetzt, sowohl die Deckung des Wärmebedarfs im Objekt aufrecht zu erhalten, als auch die elektrische Energie genau zu den Zeiten zu erzeugen, in denen sie benötigt wird. Die Entkopplung von Stromerzeugung und Deckung des Wärmebedarfs kann dabei über den standardmäßig vorhandenen Wärmespeicher erfolgen. Dieser stellt damit das zentrale Element der Gesamtanlage dar, für die das Steuerungssystem zur Eigenstromoptimierung im Rahmen des Forschungsvorhabens entwickelt und erprobt wurde.
Der Wärmespeicher einer KWK-Anlage kann genutzt werden, um den Betrieb des BHKWs in die Zeiten des Stromverbrauchs zu verlagern. Die Ad-hoc-Zuschaltfunktion verbessert das Ergebnis gegenüber eines auf Basis von Prognosen erstellten Fahrplans. Zu beachten sind allerdings eine erhöhte Anzahl BHKW-Starts und erhöhte Wärmeverluste am Speicher. Die deutlich besten Ergebnisse werden für BHKW mit Leistungsmodulation erzielt.
Für die erfolgreiche Umsetzung der Energiewende in Deutschland ist die Kraft-Wärme-Kopplung (KWK) aufgrund ihrer hohen Effizienz und Flexibilität nicht mehr wegzudenken. Um die verfügbare Flexibilität einer KWK-Anlage unter Gewährleistung ihrer hohen Effizienz optimal nutzen zu können, ist an der Hochschule Reutlingen in mehrjährigen Forschungsarbeit ein prognosebasierter Steuerungsalgorithmus für Blockheizkraftwerke (BHKW) in Verbindung mit Wärmespeichern entwickelt worden.
In dem vorliegenden Zwischenbericht sind die Arbeiten und Ergebnisse zusammengefasst, die im Rahmen des Projektes GalvanoFlex_BW während der ersten acht Projektmonate der insgesamt 2 1/2 jährigen Laufzeit durchgeführt und erzielt wurden. Ziel des Projektes ist die Untersuchung und Verbesserung der Energieeffizienz in Industrieunternehmen mit dem speziellen Fokus auf der Einführung stromoptimiert betriebener KWK-Anlagen. Entsprechend des Arbeits- und Zeitplans sind die Literaturrecherche, die Festlegung von Prozesstypen, die Datenerfassung, die Strategieentwickung zur stromoptimierten KWK, die Optimierung der Schnittstelle zwischen KWK und Gleichrichtern, der Aufbau der Branchenplattform und die sozial-wissenschaftliche Begleitforschung beschrieben. Der aktuelle Projektstand deckt sich dabei im Wesentlichen mit den Vorgaben aus dem vorgelegten Zeitplan.
Dieser Bericht fasst die wesentlichen Arbeiten und Ergebnisse zusammen, die in dem Verbundvorhaben „GalvanoFlex_BW“ im Kalenderjahr 2018 durchgeführt und erzielt wurden. Dazu lässt sich zunächst sagen, dass die Messwertaufnahme und –auswertung abgeschlossen ist. Es wurden verschiedene Messkampagnen bei der Fa. NovoPlan durchgeführt. Bei C&C Bark konnte man teilweise auf bestehende Daten zurückgreifen, die punktuell durch weitere Messungen ergänzt wurden. Bei der Fa. Hartchrom konnten aufgrund von Personalmangel keine Messungen durchgeführt werden. Die aufgenommenen Daten wurden in eine Effizienzbewertung überführt, aus der im Folgenden allgemeine Aussagen abgeleitet werden sollen. Dazu ist ein Simulationsprogramm aufgesetzt worden, das in der Lage ist, Prozessketten energetisch abzubilden und zu optimieren. Zudem sollen aus den Messdaten verbesserte Profile für den Wärmebedarf in den Unternehmen entwickelt werden, die daraufhin der KWK-Optimierung zur Verfügung gestellt werden. Im Zuge der Entwicklung und Bewertung stromoptimierter KWK- Strategien ist ein bestehendes Simulationsmodell entsprechend weiterentwickelt worden. Konkret wurde das Modell um eine verbesserte Lastprognose für Strom und Wärme für Industriebetriebe ergänzt, und das Optimierungsverfahren wurde um eine zweite Dimension erweitert. Während bislang allein die Optimierung der Eigenstromdeckung mit einer Begrenzung der BHKW-Starts als Nebenbedingung möglich war, ist jetzt die Kappung der elektrischen Lastspitze zusätzlich in der Zielfunktion integriert. Gerade bei Industrieunternehmen lässt sich auf diese Weise eine weitere, zum Teil nicht unerhebliche Energiekosteneinsparung erreichen, was durch die ersten Berechnungen anhand der drei im Reallabor vertretenden Betriebe bestätigt wird. Die Ergebnisse werden unter AP 8 (Umsetzung) diskutiert. Der Dialog mit weiteren Unternehmen und Institutionen außerhalb des Vorhabens konnte über die Branchenplattfom weitergeführt werden. In 2018 wurden zwei Veranstaltungen dieser Art durchgeführt, und im Frühjahr 2019 wird ein weiterer Workshop zu diesem Thema durchgeführt. Die sozialwissenschaftliche Begleitforschung wurde mit der zweiten Phase der Firmenbefragungen ebenfalls planmäßig weitergeführt. Mit Blick auf die Umsetzung eines BHKW-Konzeptes haben sich dabei zwei wichtige Punkte wie folgt gezeigt: Zum einen muss die umsetzende Firma eine gewisse „Energieeffizienz-Reife“ besitzen, die sich u.a. in der Erfahrung bei der Durchführung von Energieeffizienzmaßnahmen zeigt, da die Installation eines BHKWs eine äußerst komplexe Maßnahme darstellt. Zum anderen müssen andere unternehmensspezifische Kontextfaktoren hinzukommen, wie z.B. aus anderen Gründen durchzuführende bauliche Maßnahmen, so dass gewisse zeitliche Entscheidungsfenster entstehen, in denen die Umsetzung von KWK-Maßnahmen sinnvoll sind.
Im Projekt GalvanoFlex_BW sind verschiedene Möglichkeiten zur Verbesserung der Energieeffizienz von energieintensiven Industrieunternehmen aufgezeigt und untersucht worden. Die Einführung der KWK im stromoptimierten Betrieb stellte dabei einen besonders betrachteten Aspekt dar. Neben der technischen Untersuchung ist zudem eine sozialwissenschaftliche Betrachtung vorgenommen worden, um die Einführung und Umsetzung entsprechender Maßnahmen auch unter diesem Aspekt zu betrachten. Ein zusätzlicher wichtiger Schwerpunkt des Projektes war die Übertragung des erarbeiteten Wissens an weitere Unternehmen, Institutionen etc., die nicht direkt am Projekt beteiligt waren.
Durch die Zusammenarbeit von vier Forschungs- und drei Industriepartnern sind die Arbeiten praxisorientiert auf Basis realer Messdaten sowie im Zuge von Befragungen der handelnden Personen bei den Projektpartnern im Sinne eines Reallabors durchgeführt worden.
Die Notwendigkeit zur Einsparung von Energie und damit zur Umsetzung von Effizienzmaßnahmen ist ein wichtiger Schritt, um die von der EU geplante Reduktion von Treibhausgasen zu erreichen. Darüber hinaus ist zu erwarten, dass die Energiekosten auch zukünftig weiter ansteigen. Dadurch werden Maßnahmen zur Steigerung der Energieeffizienz zu einem wichtigen Element, eine wettbewerbsfähige Produktion zu gewährleisten. Im Rahmen des Projektes sind deshalb verschiedene Energieeffizienzmaßnahmen speziell für die Galvanotechnik recherchiert, analysiert und in einen Maßnahmenkatalog überführt worden. Des Weiteren wurde eine Bewertungsmethode entwickelt, die die Unternehmen der Galvanotechnik bei der Identifikation von sinnvollen Energieeffizienzmaßnahmen unterstützen soll.
Bei den Untersuchungen zur Umsetzung von Kraft-Wärme-Kopplungsanlagen konnte am Beispiel von zwei Unternehmen mit stark unterschiedlichen Strom- und Wärmebedarfswerten gezeigt werden, dass der Einsatz entsprechender Anlagen wirtschaftlich lohnenswert ist. Im günstigsten Fall ergeben sich Amortisationszeiten von etwa zwei Jahren. Es hat sich weiterhin gezeigt, dass die Auslegung des Block-heizkraftwerkes stark von den Strom- und Wärmebedarfswerten abhängt und dass der Pufferspeicher keinesfalls zu klein ausgelegt werden sollte. Eine intelligente stromoptimierte Steuerung mit Lastspitzenmanagement kann die Wirtschaftlichkeit jedoch häufig nur noch wenig gegenüber dem wärmegeführten Betrieb verbessern. Ursache dafür ist, dass das derzeitige Förder- und Vergütungssystem für Kraft-Wärme-Kopplungsanlagen nahezu keine Anreize für einen am Strombedarf und damit an der Deckung von Residuallast orientierten Betrieb bietet. Einzig bei Unternehmen mit ausgeprägten Spitzen im Strombezug, kann der gezielte Einsatz eines Blockheizkraftwerkes zu einer signifikanten Senkung des Leistungspreises führen.
Darüber hinaus ist die Einführung einer Kraft-Wärme-Kopplungsanlage generell als komplexe Energieeffizienzmaßnahme anzusehen, die deshalb neben den wirtschaftlichen Aspekten erhöhte Anforderungen an die Unternehmen und das professionelle Umfeld stellt, die im Rahmen der sozialwissenschaftlichen Begleitforschung untersucht worden sind. Dabei konnten Treiber aber auch Hemmnisse zur Umsetzung der Technologie sowohl innerhalb der Unternehmen als auch außerhalb identifiziert werden. Die internen Hemmnisse sind dabei auf unterschiedliche Ursachen zurückzuführen, wie die hohe Komplexität der KWK-Technologie, die schwierige Bewertung des Gesamtnutzens im Unternehmen, die mangelnde personelle Ausstattung und fehlende Unternehmerentscheidungen. Abhilfe schaffen, und damit als Treiber wirken, können hier ein verbessertes Beratungsangebot insbesondere seitens neutraler Stellen sowie der Anlagenbetrieb im Contracting.
Die Übertragung der im Projekt erarbeiteten Ergebnisse ist bereits während der Projektlaufzeit über die Branchenplattform im Zuge verschiedener Workshops, die speziell auf Unternehmen und Institutionen außerhalb des Projektkonsortiums ausgerichtet waren, erfolgt. Zur Verstärkung der Verbreitung des erarbeiteten Wissens ist zum Projektende eine Serie aus vier Fachartikeln in einem namhaften Branchenmagazin erschienen, und es ist eine Internetseite zum Projekt erstellt worden (www.galvanoflex_bw.de). Letztere hat dabei nicht nur die Aufgabe der Wissensverbreitung, sondern sie soll auch über das Projektende hinaus als Kontaktplattform dienen, um die Umsetzung von Effizienzmaßnahmen mit dem im Projekt generierten Wissen zu unterstützen.
Das Thema Energieflexibilität und Anpassung der eigenerzeugten Energie an die Energieerzeugung aus regenerativen Energien gewinnt an Bedeutung. Regulierbare Eigenerzeugungsanlagen können zur Stabilisierung des Netzes einen enormen Beitrag leisten. Der Aufsatz zeigt, welchen Effekt der Einsatz von BHWK auf die Galvanikbranche hat und wie nicht nur die eigenen Energiekosten reduziert, sondern auch die Möglichkeit geschaffen wird, auf Signale der Energiewirtschaft zu reagieren, ohne die Energieversorgung zu unterbrechen.
Das Thema Energieflexibilität und Anpassung der eigenerzeugten Energie an die Energieerzeugung aus regenerativen Energien gewinnt an Bedeutung. Regulierbare Eigenerzeugungsanlagen können zur Stabilisierung des Netzes einen enormen Beitrag leisten. Dieser Aufsatz zeigt, welchen Effekt der Einsatz von BHWK auf die Galvanikbranche hat und wie nicht nur die eigenen Energiekosten reduziert, sondern auch die Möglichkeit geschaffen wird, auf Signale der Energiewirtschaft zu reagieren, ohne die Energieversorgung zu unterbrechen.
This publication gives a short introduction and overview of the European project SCOUT and introduces a methodology for a holistic approach to record the state of the art in technical (vehicle and connectivity, human factors regarding physiologic and ergonomic level) and non-technical enablers (societal, economic, legal, regulatory and policy level) of connected and automated driving in Europe. The paper addresses beside the technical topics of environmental perception, E/E architecture, actuators and security, the state of the art of the legal framework in the context of connected and automated driving.
Micro grids often consist of energy generators, storages and consumers with controllers which are not prepared for their integration into communication networks for energy systems. In this paper it will be presented, how standards from the field of energy automation can be applied in such controllers. The data for communication interfaces can be structured according to the IEC 61850- or the VHPREADY standard. It is investigated which requirements must be supported to implement such data models within the controllers. For the transmission of the data we propose the OPC UA protocol, which supports extensive security measures and which is today available for nearly all modern types of controllers and computers.
We present a compact battery charger topology for weight and cost sensitive applications with an average output current of 9A targeted for 36V batteries commonly found in electric bicycles. Instead of using a conventional boost converter with large DC-link capacitors, we accomplish PFC-functionality by shaping the charging current into a sin²-shape. In addition, a novel control scheme without input-current sensing is introduced. A-priori knowledge is used to implement a feed-forward control in combination with a closed-loop output current control to maintain the target current. The use of a full-bridge/half bridge LLC converter enables operation in a wide input-voltage range.
A fully featured prototype has been built with a peak output power of 1050W. An average output power of 400W was measured, resulting in a power density of 1.8 kW/dm³. At 9A charging current, a power factor of 0.96 was measured and the efficiency exceeds 93% on average with passive rectification.
The impact of pulse charging has been evaluated on a 400Wh battery which was charged with the proposed converter as well as CC-CV-charging for reference. Both charging schemes show similar battery surface temperatures.
Bis zum Jahr 2050 soll in Baden Württemberg mit dem Ziel „50-80-90“ der Energiebedarf um 50% reduziert werden, die erneuerbaren Energien sollen zu 80% an der Energieversorgung beteiligt sein und die Emissionen von Treibhausgasen um 90% sinken.Entsprechende Ziele sind für andere Regionen und Länder in ähnlicher Weise festgelegt.
Damit diese Ziele erreicht werden, muss bei der Gebäudewärmeversorgung ein konsequenter Umbau stattfinden. Hier spielt die Sektorenkopplung mit Hilfe von Wärmepumpen (WP) eine entscheidende Rolle. Zur Abschätzung des Potenzials sowie des Aufwandes für einen großflächigen Einsatz von Wärmepumpen ist es unmöglich, eine spezifische und angepasste Dimensionierung der Wärmepumpensysteme für jedes einzelne Gebäude durchzuführen. Stattdessen müssen auf Seiten der Bebauung Referenzgebäude definiert und auf Seiten der Wärmepumpensysteme mittlere Leistungsdaten der am Markt befindlichen Modelle verwendet werden. Während die Festlegung von Referenzgebäuden verschiedentlich in der Literatur zu finden ist, widmet sich der erste Teil der Veröffentlichung der Vorstellung von Korrelationsfunktionen für die thermische und elektrische Leistung sowie die Leistungszahl (COP) von Wärmepumpen, die auf Basis von Herstellerdaten in Abhängigkeit der Quellen- und Vorlauftemperatur ermittelt wurden.
Konkret wurden als Ausgangsbasis für die Korrelationsfunktionen Datenblätter verschiedener Sole- und Luft-Wasser Wärmepumpen (SWP, LWP) zusammengestellt und ausgewertet. Die Grundlage hierfür war die Liste „Wärmepumpen mit Prüfnachweis eines unabhängigen Prüfinstituts“ des Bundesamts für Wirtschaft und Ausfuhrkontrolle (BAFA).
Durch das Verbot der ozonschädigenden Fluor-Chlorkohlenwasserstoffen als Kältemittel und der heute überwiegend eingesetzten Fluor-Kohlenwasserstoffe, welche sich negativ auf den Treibhauseffekt auswirken, gewinnt das umweltfreundlichere CO2 (Kohlendioxid) in der Verwendung als Kältemittel an Bedeutung. Ausgangspunkt dieser Arbeit sind ein Prototyp einer reversiblen CO2 Wärmepumpe und ein Simulationsmodell derselbigen. Ziel dieser Arbeit ist es das Simulationsmodell, anhand von realen Messergebnissen des Prototyps, zu verifizieren. Durch die Berechnung von Vergleichsparametern, das Festlegen von Randbedingungen und geeigneten Messpunkten am Prototyp wird die Simulation optimiert. Abschließend folgt die Bewertung der Ergebnisse im Hinblick auf die Funktionalität der Wärmepumpe und deren Abbild in der Simulation.
Simulation eines dezentralen Regelungssystems zur netzdienlichen Erzeugung von grünem Wasserstoff
(2023)
Wasserstoff wird einen bedeutenden Beitrag zum Wandel von Industrie und Gesellschaft in eine klimaneutrale Zukunft leisten. Der Aufbau und die ökologisch und ökonomisch sinnvolle Nutzung einer Wasserstoffinfrastruktur sind hierbei die zentralen Herausforderungen. Ein notwendiger Baustein ist die effiziente Bereitstellung von grünem Strom und dem daraus produzierten grünen Wasserstoff. Der vorliegende Beitrag stellt ein dezentrales Regel- und Kommunikationssystem vor, mit dem Angebot und Nachfrage von grünem Strom und Wasserstoff in einem System aus dezentralen Akteuren in Einklang gebracht werden. In einer hierzu entwickelten Simulationsumgebung wird die Funktion und der Nutzen dieses dezentralen Ansatzes verdeutlicht.
In this paper, it aims to model wind speed time series at multiple sites. The five-parameter Johnson distribution is deployed to relate the wind speed at each site to a Gaussian time series, and the resultant m-dimensional Gaussian stochastic vector process Z(t) is employed to model the temporal-spatial correlation of wind speeds at m different sites. In general, it is computationally tedious to obtain the autocorrelation functions (ACFs) and cross-correlation functions (CCFs) of Z(t), which are different to those of wind speed times series. In order to circumvent this correlation distortion problem, the rank ACF and rank CCF are introduced to characterize the temporal-spatial correlation of wind speeds, whereby the ACFs and CCFs of Z(t) can be analytically obtained. Then, Fourier transformation is implemented to establish the cross-spectral density matrix of Z(t), and an analytical approach is proposed to generate samples of wind speeds at m different sites. Finally, simulation experiments are performed to check the proposed methods, and the results verify that the five-parameter Johnson distribution can accurately match distribution functions of wind speeds, and the spectral representation method can well reproduce the temporal-spatial correlation of wind speeds.
The current paper discusses the optimal choice of a filter time constant for filtering the steady state flux reference in an energy efficient control strategy for changing load torques. It is shown that by appropriately choosing the filter time constant as a fraction of the rotor time constant the instantaneous power losses after a load torque step can be significantly reduced compared to the standard case. The analysis for the appropriate choice of the filter time constant is based on a numerical study for three different induction motors with different rated powers.
Modern production systems are characterized by the increasingly use of CPS and IoT networks. However, processing the available information for adaptation and reconfiguration often occurs in relatively large time cycles. It thus does not take advantage of the optimization potential available in the short term. In this paper, a concept is presented that, considering the process information of the individual heterogeneous system elements, detects optimization potentials and performs or proposes adaptation or reconfiguration. The concept is evaluated utilizing a case study in a learning factory. The resulting system thus enables better exploitation of the potentials of the CPPS.
This article illustrates a method for sensorless control of a switched reluctance motor. The detection of the time instants for switching between the working phases is determined based on the evaluation of the switching frequency of the hysteresis current controllers for appropriately selected sensing phases. This enables a simple and cost efficient implementation. The method is compared with a pulse injection method in terms of efficiency and resolution.
For collision and obstacle avoidance as well as trajectory planning, robots usually generate and use a simple 2D costmap without any semantic information about the detected obstacles. Thus a robot’s path planning will simply adhere to an arbitrarily large safety margin around obstacles. A more optimal approach is to adjust this safety margin according to the class of an obstacle. For class prediction, an image processing convolutional neural network can be trained. One of the problems in the development and training of any neural network is the creation of a training dataset. The first part of this work describes methods and free open source software, allowing a fast generation of annotated datasets. Our pipeline can be applied to various objects and environment settings and is extremely easy to use to anyone for synthesising training data from 3D source data. We create a fully synthetic industrial environment dataset with 10 k physically-based rendered images and annotations. Our da taset and sources are publicly available at https://github.com/LJMP/synthetic-industrial-dataset. Subsequently, we train a convolutional neural network with our dataset for costmap safety class prediction. We analyse different class combinations and show that learning the safety classes end-to-end directly with a small dataset, instead of using a class lookup table, improves the quantity and precision of the predictions.
Die vorliegende Erfindung betrifft eine Schaltungsanordnung mit einer Bootstrap-Schaltung, die zumindest eine Hauptkapazität aufweist, von der die erste Seite mit einem ersten Zweig der Schaltungsanordnung und die zweite Seite mit einem auf veränderlichem Potential liegenden zweiten Zweig der Schaltungsanordnung verbunden ist. Die vorgeschlagene Schaltungsanordnung zeichnet sich dadurch aus, dass die Bootstrap-Schaltung parallel zur Hauptkapazität wenigstens eine weitere Kapazität aufweist, die über eine zweite Versorgungsspannung auf eine höhere Spannung aufladbar ist als die Hauptkapazität und über wenigstens ein Schaltelement zur Unterstützung der Hauptkapazität zuschaltbar ist. Bei der vorgeschlagenen Schaltungsanordnung kann in Abhängigkeit von der Dimensionierung der Bootstrap-Kapazitäten eine sehr viel kleinere Fläche mit höherem oder gleich bleibenden Spannungseinbruch oder eine nicht so starke Flächenreduzierung mit kleinerem Spannungseinbruch verglichen mit einer herkömmlichen Bootstrap-Schaltung erzielt werden.
Das Buch behandelt alle in der Praxis wichtigen Fragen und Probleme beim Entwurf und der Auswahl von Schaltnetzteilen im unteren bis mittleren Leistungsbereich, also von mW bis etwa 1kW. Zunächst erfolgt eine Einführung in die klassischen Wandler und Resonanzwandler. Danach werden die Leistungsbauelemente beschrieben und erprobte Ansteuerschaltungen vorgestellt. Im letzten Teil werden EMV-Aspekte behandelt. Wichtige, in der Praxis erprobte Schaltungstechniken werden vorgestellt und beschrieben. Für in der Praxis tätige Techniker und Ingenieure stellt das Buch eine Zusammenfassung aller Themengebiete dar, die für die tägliche Arbeit gebraucht werden. Studenten kann es zum Selbststudium dienen oder den Stoff von Lehrveranstaltungen ergänzen.
Energy efficient electric control of drives is more and more important for electric mobility and manufacturing industries. Online dynamic optimization of induction machines is challenging due to the computational complexity involved and the variable power losses during dynamic operation of induction machines. This paper proposes a simple technique for sub-optimal online loss optimization using rotor flux linkage templates for energy efficient dynamic operation of induction machines. Such a rotor flux linkage template is given by a rotor flux linkage trajectory which is optimal for a specific scenario. This template is calculated in an offline optimization process. For a specific scenario during real time operation the rotor flux linkage is calculated by appropriately scaling the given template.
On-chip metallization, especially in modern integrated BCD technologies, is often subject to high current densities and pronounced temperature cycles due to heat dissipation from power switches like LDMOS transistors. This paper continues the work on a sensor concept where small sense lines are embedded in the metallization layers above the active area of a switching LDMOS transistor. The sensors show a significant resistance change that correlates with the number of power cycles. Furthermore, influences of sense line layer, geometry and the dissipated energy are shown. In this paper, the focus lies on a more detailed analysis of the observed change in sense line resistance.
Lithographical hotspot (LH) detection using deep learning (DL) has received much attention in the recent years. It happens mainly due to the facts the DL approach leads to a better accuracy over the traditional, state-of-the-art programming approaches. The purpose of ths study is to compare existing data augmentation (DA) techniques for the integrated circuit (IC) mask data using DL methods. DA is a method which refers to the process of creating new samples similar to the training set, thereby helping to reduce the gap between classes as well as improving the performance of the DL system. Experimental results suggest that the DA methods increase overall DL models performance for the hotspot detection tasks.
Repräsentativ zur Erkenntnis
(2022)
In einer immer komplexeren Welt wird es zunehmend schwierig, den Blick aufs große Ganze zu bewahren. Trainingsprofis können Führungskräfte und Teams dabei unterstützen -etwas mit einer speziellen Aufstellungstechnik, der prototypischen Strukturaufstellung. Kerstin Reich erklärt anhand eines Praxisbeispiels, wie sie funktioniert.
Bionic optimisation is one of the most popular and efficient applications of bionic engineering. As there are many different approaches and terms being used, we try to come up with a structuring of the strategies and compare the efficiency of the different methods. The methods mostly proposed in literature may be classified into evolutionary, particle swarm and artificial neural net optimisation. Some related classes have to be mentioned as the non-sexual fern optimisation and the response surfaces, which are close to the neuron nets. To come up with a measure of the efficiency that allows to take into account some of the published results the technical optimisation problems were derived from the ones given in literature. They deal with elastic studies of frame structures, as the computing time for each individual is very short. General proposals, which approach to use may not be given. It seems to be a good idea to learn about the applicability of the different methods at different problem classes and then do the optimisation according to these experiences. Furthermore in many cases there is some evidence that switching from one method to another improves the performance. Finally the identification of the exact position of the optimum by gradient methods is often more efficient than long random walks around local maxima.
Perforations of the tympanic membrane (TM) can occur as a result of injury or inflammation of the middle ear. These perforations can lead to conductive hearing loss (HL), where in some cases the magnitude of HL exceeds that attributable to the observed TM perforation alone. We aim with this study to better understand the effects of location and size of TM perforations on the sound transmitting properties of the middle ear.
The middle ear transfer function (METF) of six human temporal bones (TB; freshly frozen specimen of body donors) were compared before and after perforation of the TM at different locations (anterior or posterior lower quadrant) and of different sizes (1mm, ¼ of the TM, ½ of the TM, and full ablation). The
METF were correlated with a Finite Element (FE) model of the middle ear, in which similar alterations were simulated.
The measured and simulated FE model METFs exhibited frequency and perforation size dependent amplitude losses at all locations and severities. In direct comparison, posterior TM perforations affected the transmission properties to a larger degree than perforations of the anterior quadrant. This could possibly be caused by an asymmetry of the TM, where the malleus-incus complex rotates and results in larger deflections in the posterior TM half than in the anterior TM half. The FE model of the TM with a sealed cavity suggest that small perforations result in a decrease of TM rigidity and thus to an increase in oscillation amplitude of the TM, mostly above 1 kHz.
The location and size of TM perforations influence the METF in a reproducible way. Correlating our data with the FE model could help to better understand the pathologic mechanisms of middle-ear diseases. If small TM perforations with uncharacteristically significant HL are observed in daily clinical practice, additional middle ear pathologies should be considered. Further investigations on the loss of TM pretension due to perforations may be informative.
Die sogenannte Systemsimulation, bei der mehrere physikalische Domänen gemeinsam simuliert werden, erlaubt die Analyse komplexer und damit realitätsnaher Systeme und spielt eine zunehmend größere Rolle bei der Auslegung von Komponenten. Enthält das System Teile, die durch Feldgrößen aus unterschiedlichen physikalischen Domänen beschrieben werden müssen, kann man Co-Simulationen einsetzen, die allerdings zeitaufwändig sind. Für die Auslegung des Systems ist es dagegen notwendig, Systemsimulationen schnell durchzuführen zu können. Hierfür können für ausgewählte Bauteile oder Domänen schnellere reduzierte Ersatzmodelle (ROM) eingesetzt werden. In dieser Arbeit stellen wir ein reduziertes Modell für elektromechanische Bauteile mit Berücksichtigung von Wirbelströmen vor. Wirbelstromeffekte hängen nicht nur vom aktuellen Zustand, sondern auch von der Geschichte der elektromagnetischen Domäne ab. Das vorgestellte Ersatzmodell basiert auf Daten, die mit einer Reihe von stationären Feldsimulationen vorab erzeugt werden. Für die Modellierung der geschichtsabhängigen Wirbelstromeffekte wird ein Konvolutionsansatz (Faltungsansatz) verwendet. Vergleiche mit entsprechenden Co-Simulationen in ANSYS Maxwell und Simplorer zeigen am Beispiel eines Hubankers, dass das Ersatzmodell in der Lage ist, die wesentlichen Eigenschaften des Bauteils physikalisch korrekt abzubilden.
Reconstructing 3D face shape from a single 2D photograph as well as from video is an inherently ill-posed problem with many ambiguities. One way to solve some of the ambiguities is using a 3D face model to aid the task. 3D morphable face models (3DMMs) are amongst the state of the art methods for 3D face reconstruction, or so called 3D model fitting. However, current existing methods have severe limitations, and most of them have not been trialled on in-the-wild data. Current analysis-by- synthesis methods form complex non linear optimisation processes, and optimisers often get stuck in local optima. Further, most existing methods are slow, requiring in the order of minutes to process one photograph.
This thesis presents an algorithm to reconstruct 3D face shape from a single image as well as from sets of images or video frames in real-time. We introduce a solution for linear fitting of a PCA shape identity model and expression blendshapes to 2D facial landmarks. To improve the accuracy of the shape, a fast face contour fitting algorithm is introduced. These different components of the algorithm are run in iteration, resulting in a fast, linear shape-to- landmarks fitting algorithm. The algorithm, specifically designed to fit to landmarks obtained from in-the-wild images, by tackling imaging conditions that occur in in-the-wild images like facial expressions and the mismatch of 2D–3D contour correspondences, achieves the shape reconstruction accuracy of much more complex, nonlinear state of the art methods, while being multiple orders of magnitudes faster.
Second, we address the problem of fitting to sets of multiple images of the same person, as well as monocular video sequences. We extend the proposed shape-to-landmarks fitting to multiple frames by using the knowledge that all images are from the same identity. To recover facial texture, the approach uses texture from the original images, instead of employing the often-used PCA albedo model of a 3DMM. We employ an algorithm that merges texture from multiple frames in real-time based on a weighting of each triangle of the reconstructed shape mesh.
Last, we make the proposed real-time 3D morphable face model fitting algorithm available as open-source software. In contrast to ubiquitous available 2D-based face models and code, there is a general lack of software for 3D morphable face model fitting, hindering a widespread adoption. The library thus constitutes a significant contribution to the community.
We present a fully automatic approach to real-time 3D face reconstruction from monocular in-the-wild videos. We use a 3D morphable face model to obtain a semi-dense shape and combine it with a fast median-based super-resolution technique to obtain a high-fidelity textured 3D face model. Our system does not need prior training and is designed to work in uncontrolled scenarios.