541 resultados para Pädagogische Herausforderung
Resumo:
In der vorliegenden Dissertation wurden kreuzkonjugierte organische Verbindungen basierend auf Diazafluorenmethyliden- sowie Dipyridylmethyliden-Bausteinen synthetisiert, die zum einen photoredoxaktive Metallfragmente komplexieren können und zum anderen erweiterte π-konjugierte Pfade auf der Grundlage von Alkineinheiten ermöglichen. Das kreuzkonjugierte Motiv wurde über die Kupplung von Alkineinheiten an halogenierte Methyliden-Einheiten, den so genannten Dibromolefinen, zugänglich gemacht. Zur Synthese von Dibromolefinen wurden verschiedene Methoden untersucht. Literaturbekannte Methoden wie die Wittig-Reaktion und ihre Modifikationen sowie die Corey-Fuchs-Reaktion konnten für die Diazafluoreneinheit nicht erfolgreich angewendet werden. Bei einer mikrowellenunterstützten Reaktion konnte sowohl ausgehend von Diazafluoren-9-on als auch von Di-2-pyridylketon eine Dibromolefinierung (55 % und 65 %) erreicht werden. Die Eignung der Mikrowellenstrahlung für Dibromolefinierungsreaktionen nach Corey und Fuchs wurde weiterhin an verschiedenen Aldehyden und Ketonen untersucht. In den meisten Fällen konnten gute bis sehr gute Ergebnisse erzielt werden. Durch die erfolgreiche Synthese von Dibromolefinen über Mikrowellensynthese wurde die Realisierung von diversen π-konjugierten Systemen möglich. Dies erfolgte exemplarisch durch die Kupplung der Alkine 5-Ethinyl-2,2’-bipyridin, 1-(Ferrocenylethinyl)-4-(ethinyl)benzol, Tri(tolyl)propin sowie der TIPS- und TMS-Acetylene. Neben der Vielfalt an Möglichkeiten zur Funktionalisierung von Dipyridyl- und Diazafluorenbausteinen zeigte sich zudem, dass sogar räumlich anspruchsvolle Verbindungen wie die geminale angeordneten voluminösen Tri(tolyl)propinyl-Substituenten an der Doppelbindung erfolgreich synthetisiert werden können. Die Koordinationseigenschaften der neu synthetisierten Verbindungen konnten durch Umsetzungen der Diazafluoren- und Dipyridylverbindungen mit PdCl2 und [RuCl2(bpy)2] erfolgreich gezeigt werden. Im Hinblick auf die Herstellung von Funktionsmaterialien eignen sich die Endiin-Strukturmotive aufgrund von diversen Variationsmöglichkeiten wie Koordination von Übergangsmetallen sowie Funktionalisierung der Peripherie gut. Dadurch können die elektronischen Eigenschaften wie die Absorption oder elektrochemische Potentiale der Verbindungen modifiziert werden. Die UV/Vis-Spektren der neu synthetisierten Verbindungen zeigen, dass Absorptionen in längerwelligen Bereichen durch Verlängerung des Konjugationspfades gesteuert werden können. Zudem lassen sich weitere photophysikalische Eigenschaften wie MC-, LC-, LMCT- oder MLCT-Übergänge durch Koordination von Metallen generieren. Die elektrochemischen Potentiale der Dipyridyl- und Diazafluorenbausteine konnten durch Anbindung von verschiedenen Substituenten beeinflusst werden. Es zeigte sich, dass sich die Reduktionswellen im Vergleich zu denen der Ketone zu niedrigeren Potentialen verschieben, wenn Alkine an die Dipyridylmethyliden- und Diazafluorenmethyliden-Bausteine geknüpft wurden. Zudem konnte beobachtet werden, dass die Signale nicht immer reversibel sind. Insbesondere die Dipyridylverbindungen zeichneten sich durch irreversible Reduktionswellen aus. Die Realisierung von π-konjugierten Systemen gelang auch mit cyclischen kohlenstoffbasierten Verbindungen. Über das separat synthetisierte 2,2’-Diethinyltolan konnte eine cyclische Verbindung, ein dehydroannulen-radialenisches System, erfolgreich hergestellt werden. Die Koordination von redoxaktiven Metallzentren wie [Ru(bpy)2] konnte für diese Verbindung ebenfalls erfolgreich gezeigt werden. Die elektronische Wechselwirkung zwischen dem Metallzentrum und dem dehydroannulenischen System könnte sowohl über theoretische Methoden (zeitabhängige Dichtefunktionaltheorie) als auch experimentell wie z. B. über transiente Absorptionsspektroskopie untersucht werden. Diese zukünftig durchzuführenden Untersuchungen können Aufschluss über die Ladungstransferraten und -dauer geben. Im Hinblick auf die Realisierung von Modellverbindungen für molekulare Drähte wurden lineare Systeme basierend auf der Diazafluoreneinheit synthetisiert. Zur Synthese von derartigen Systemen war es zunächst notwendig, die Dibromolefine unsymmetrisch zu alkinylieren. Die unsymmetrische Substitution gestaltete sich als Herausforderung, da eine Einfachkupplung mit einem Acetylen nicht möglich war. In den meisten Fällen wurden zweifach substituierte Spezies mit den identischen Alkinen erhalten. Die besten Ausbeuten konnten durch die konsekutive Zugabe von TIPS-Acetylen und darauffolgend TMS-Acetylen in die Reaktionsmischung erhalten werden. Offenbar spielt der räumliche Anspruch des Erstsubstituenten in diesem Zusammenhang eine Rolle. Die selektive Entschützung der unterschiedlich silylierten Verbindungen erfolgte mit K2CO3 in MeOH/THF (1:1). Die oxidative Homokupplungsreaktion erfolgte ohne Isolierung der entschützten Spezies, da diese instabil ist und zur Polymerisation neigt. Aufgrund der Instabilität der entschützten Spezies sowie möglichen Nebenreaktionen waren die Ausbeuten sowohl bei der TIPS-geschützten Verbindung als auch bei der TTP-geschützten Verbindung gering. Versuche, lineare Systeme von dipyridylbasierten Verbindungen zu erhalten, schlugen fehl. Die π-konjugierten Systeme lassen aufgrund der effektiven Überlappung der beteiligten π-Orbitale hohe Ladungsträgermobilitäten vermuten. Die im Rahmen dieser Arbeit synthetisierten Verbindungen könnten mit Schwefelverbindungen die Anbindung an Elektroden zulassen, worüber die Leitfähigkeiten der Verbindungen gemessen werden könnten.
Resumo:
Eine kleine Grünfläche im städtischen Freiraum, eine Baumscheibe, ca. 5 m² groß, öffentlich zugänglich. Dort wo eigentlich blühende Pflanzen das Straßenbild verschönern könnten, sieht man alle zwei Wochen, wenn es wieder auf den Müllabholungstag zugeht, eine Lawine aus Gelben Säcken, die immer weiter über die Grünfläche zu rollen scheint, und so auch das letzte bisschen Grün unter sich begräbt. Und die Gelben Lawinen beschränken sich dabei nicht nur auf eine einzelne Fläche, sondern nehmen gleich ganze Straßenzüge in Beschlag. Diese Beobachtungen im Kassler Stadtteil Nord-Holland bildeten den ersten Impuls für das Thema der vorliegenden Arbeit. Es entstand die Überlegung, ob diese gravierende Vermüllung der Flächen und damit die Abwertung des gesamten Straßenbildes (wenn nicht sogar des gesamten Stadtteils) nur eine persönliche Wahrnehmung ist oder ob es durchaus andere Menschen (und besonders die direkten Anwohner) gibt, die diese Ansicht teilen. Auch kam die Frage auf, wie hoch die Wertschätzung der Flächen von Seiten der Kommune her einzuschätzen ist. Unter Berücksichtigung der scheinbar zunehmend knapper werdenden Haushaltsmittel der Kommune, für die Pflege öffentlicher Grünflächen, in Kombination mit dem sich immer weiter verbreitenden Trend des „Urbanen Gärtnerns“, entstand die Idee, Strategien zur Aufwertung der Flächen zu entwickeln, dessen Grundlage aus einer Kooperation zwischen der Kommune und privaten Akteuren besteht. Wer diese Akteure sind (bzw. seien könnten), welche Bedürfnisse sie haben, wie sie zu einem Engagement ihrerseits motiviert werden und wie konkrete Projekte zur Aufwertung der Flächen aussehen können, soll in dieser Masterarbeit vorgestellt werden. Da der Stadtteil Nord-Holland im allgemeinen als „Sozialer Brennpunkt“ gilt (besonders der nördliche Teil), ist zu erwarten, dass besonders die Initiierung des Engagements der privaten Akteure dabei eine zusätzliche Herausforderung darstellen wird. Da es bereits verschiedene Strategien zur Aufwertung von städtischen Grünflächen gibt, sollen einige von ihnen, sowohl aus Kassel als auch aus anderen Städten, betrachtet und auf ihre Anwendbarkeit auf die ausgewählten Flächen geprüft werden.
Resumo:
Das Beurteilen von Schülerleistungen, das Erfassen ihrer unterschiedlichen Lernvoraussetzungen und das Beobachten und Beurteilen von Schülerlernprozessen stellen wichtige Handlungsroutinen im Alltag von Lehrkräften dar. Dem gegenüber steht die Tatsache, dass sich noch bis vor einigen Jahren nur wenige Arbeiten und Projekte explizit mit der Diagnosekompetenz von angehenden und praktizierenden Lehrkräften beschäftigt haben. Die vorliegende Arbeit, die ein Teilprojekt innerhalb eines größeren interdisziplinären Projektes zur Diagnosekompetenz von Lehramtsstudierenden darstellt, möchte einen Beitrag leisten zur Debatte um die diagnostische Kompetenz. Ihr Hauptaugenmerk richtet sie dabei auf die diagnostische Kompetenz von Biologie-Lehramtsstudierenden im Bereich der naturwissenschaftlichen Erkenntnisgewinnung. Im Zuge der notwenigen theoretischen Konzeptionierung präsentiert die Arbeit einen im Gesamtprojekt erarbeiteten Vorschlag für eine Modellierung der (fachbezogenen) Diagnosekompetenz von Lehramtsstudierenden. Ergänzend dazu findet im Rahmen der Arbeit eine Klärung der in der Forschungsliteratur oftmals uneinheitlich benutzten Begrifflichkeiten zur diagnostischen Kompetenz statt. Weiterhin wird ein Vergleich von verschiedenen in der Literatur verwendeten Konzeptualisierungsansätzen vorgenommen. Da in der Forschungsliteratur keine geeigneten Instrumente zum Erfassen der hier im Speziellen betrachteten diagnostischen Kompetenz vorlagen, mussten diese im Rahmen der Arbeit neu entwickelt werden. Ein wesentlicher Ansatz dabei war eine Unterscheidung von status- und prozessdiagnostischen Kompetenzen und die Entwicklung entsprechend geeigneter Erhebungsinstrumente. Die neu entwickelten Testinstrumente wurden bei zwei Studierenden-Jahrgängen an verschiedenen Zeitpunkten im Verlauf ihres Studiums eingesetzt. Im Test zur Messung ihrer statusdiagnostischen Kompetenzen hatten die Studierenden Schülerlösungen aus dem Bereich der naturwissenschaftlichen Erkenntnisgewinnung zu analysieren und zu beurteilen. Dabei zeigte sich als ein zentraler Befund, dass die Probanden das Leistungsniveau der Schülerlösungen umso schlechter korrekt beurteilen konnten, je höher es war. Weiterhin wurde deutlich, dass die diagnostische Kompetenz der Lehramtsstudierenden für die typischen Teilschritte im Rahmen der Erkenntnisgewinnung unterschiedlich hoch ausgeprägt ist. So fiel es ihnen am leichtesten, die Schülerlösungen zum Teilschritt „Datenanalyse“ zu beurteilen, wohingegen sie deutlich größere Schwierigkeiten hatten, das Leistungsniveau der Schülerlösungen zum Teilschritt „Planen einer Untersuchung“ korrekt einzuschätzen. Im Test zum Erfassen der prozessdiagnostischen Fähigkeiten der Studierenden wurde ihnen ein Experimentierprozess zweier Schüler vorgelegt. Auffällig in Bezug auf ihre diagnostische Kompetenz waren die massiven Schwierigkeiten beim Beurteilen des Schülerumgangs mit den Variablen. Im Vergleich der status- und prozessdiagnostischen Fähigkeiten erwies sich die Prozessdiagnostik als die für die Studierenden schwierigere Tätigkeit. Ein wesentliches Plus in Bezug auf das Gewinnen von Informationen über die diagnostische Kompetenz brachte der Einsatz von Videoanalysen zusätzlich zu den beschriebenen paper-pencil basierten Testinstrumenten. Über eine Analyse der Testbearbeitungsprozesse der Studierenden wurde untersucht, aus welchen Beweggründen und auf Basis welcher Annahmen diese zu ihren diagnostischen Urteilen gekommen waren. Mit Hilfe der auf diese Weise gewonnenen prozessbezogenen Informationen war es möglich, die spezifischen Schwierigkeiten der Studierenden beim Diagnostizieren genauer herauszuarbeiten. Neben den genannten Untersuchungen zu den Ausprägungen von diagnostischer Kompetenz im Bereich Erkenntnisgewinnung wurden im Rahmen der Arbeit auch ihre postulierten Bedingungsfaktoren untersucht: das fachmethodische Vorwissen der Studierenden und ihr Wissenschaftsverständnis. Nur für ersteres konnte ein wenngleich geringer, aber doch signifikanter Zusammenhang festgestellt werden. Ergänzend zum Blick auf die möglichen Bedingungsfaktoren wurden auch Zusammenhänge zwischen der diagnostischen Kompetenz und verschiedenen ausgewählten Personen- und Kontextvariablen untersucht (z.B. die von den Studierenden gewählte Lehramtsform, ihre Fächerkombination, ihr Geschlecht und ihre Abiturnote). Von allen untersuchten Variablen erwies sich die von den Studierenden gewählte Lehramtsform als derjenige Faktor, der den wenngleich ebenfalls nur schwachen, aber doch durchgängig vorhandensten Zusammenhang aufwies. Zusätzlich zu der (objektiven) Erfassung der diagnostischen Kompetenzen mit Hilfe der Messinstrumente präsentiert die Arbeit Ergebnisse zum Verlauf der subjektiven Selbsteinschätzungen der Studierenden hinsichtlich ihres diagnostischen Wissens. Es zeigte sich, dass die Studierenden das Studium für die Ausbildung ihrer diagnostischen Kompetenz als weniger hilfreich empfinden als für den Aufbau der anderen Bereiche ihres Professionswissens. Die Arbeit endet mit einem Fazit zu den Testinstrument-Entwicklungen und den in den verschiedenen Untersuchungen gewonnenen Befunden, verbunden mit einem Ausblick auf mögliche Implikationen für die Lehrerausbildung und sich anschließende Forschungsvorhaben.
Resumo:
Die Trocknung ist eines der am häufigsten verwendeten Verfahren, um die Haltbarkeit von landwirtschaftlichen Gütern zu verlängern. Von den vielen gebräuchlichen Trocknungsarten ist die Konvektionstrocknung, die Luft als Energie- und Feuchteträger verwendet, weiterhin die wichtigste. Trotz ihrer Nachteile und ihres hohen spezifischen Energieverbrauchs sind Satztrockner für die Getreide-, Kräuter- und Heutrocknung noch weit verbreitet. Ferner werden Konvektionstrockner gemeinhin zur künstlichen Trocknung eingesetzt. Diese Arbeit ist Teil eines Forschungsprojekts, welches eine sorptionsgestützte solare Trocknung von landwirtschaftlichen Gütern untersucht. Bei dieser wird kühle feuchte Luft in Kontakt mit einer konzentrierten hygroskopischen Salzlösung gebracht. Während dieses Prozesses wird die Luft entfeuchtet und mit Hilfe der freigesetzten Verdampfungsenthalpie erwärmt. Die Anwendung dieses Verfahrens zur Trocknung landwirtschaftlicher Güter ist besonders interessant für Produkte, die bei niedrigen Temperaturen verarbeitet werden, um ihre Qualität nicht negativ zu beeinflussen. Bei allen energieintensiven Prozessen und vor allem bei der Verwendung von Solarenergie ist ein effizienter Energieverbrauch äußerst wichtig für den technischen und ökonomischen Erfolg. Eine ungleichmäßige Trocknung ist oftmals bei Satztrocknern zu beobachten, was die Energieeffizienz negativ beeinflusst. Aus diesem Grund lag im agrartechnischen Teil des Projekts der Schwerpunkt auf der Trocknung bei niedrigen Temperaturen und geringer Luftfeuchte, die der Sorptionsprozess liefert, sowie auf der Verbesserung der Luftverteilung und der Gleichmäßigkeit der Trocknung in lockeren und verdichteten Schüttungen. Es wurden Dünnschicht-Trocknungsexperminente für Blattsellerie bei unterschiedlichen Lufttemperaturen und unterschiedlicher relativer Luftfeuchte durchgeführt. Die Ergebnisse zeigen eindeutig, dass nicht nur die Lufttemperatur einen großen Einfluss auf die Trocknungsgeschwindigkeit hat, sondern auch die relative Luftfeuchte. Dies ist vor allem bei niedrigen Temperaturen, wie sie vom Sorptionssystem geliefert werden, der Fall. Um die Luftverteilung und Gleichmäßigkeit der Trocknung lockerer Schüttungen zu untersuchen, wurde ein Kistentrockner experimentell und in Strömungssimulationen getestet. Die Leistung des ursprünglichen Trockners wurde signifikant durch einfache Veränderungen des Designs verbessert. Diese stellten einen gleichmäßigeren Luftstrom durch das Produkt sicher. Die Trocknung von Heu-Rundballen stellt eine Herausforderung dar, da diese sehr stark verdichtet sind und die Dichte innerhalb eines Ballens stark schwankt. Strömungs- und Trocknungssimulationen so wie experimentelle Messungen zeigten, dass das Trocknerdesign einen großen Einfluss auf die Gleichmäßigkeit der Trocknung hat. Bei den einfachsten Trocknervarianten war die Verteilung auch bei optimal gepressten Ballen unzureichend, während komplexere Trockner eine gleichmäßigere Trocknung erzielten. Jedoch werden auch hier die Ergebnisse stark von der Verteilung der Dichte im Ballen beeinflusst, welche in der Praxis weiterhin nicht ideal ist. Abschließend wurde, um den Trocknungsfortschritt zu überwachen, eine Methodik getestet, bei der zur Messung des durchschnittlichen aktuellen Feuchtegehalts des Produktes psychrometrische Messungen und Messungen des Luftstroms in kurzen Abständen durchgeführt wurden. Die Menge des tatsächlich entfernten Wassers stimmte in den meisten Fällen gut mit der geschätzten Menge überein. Jedoch hängt der Erfolg dieser Methode stark von der Genauigkeit der Messfühler ab.
Resumo:
The traditional task of a central bank is to preserve price stability and, in doing so, not to impair the real economy more than necessary. To meet this challenge, it is of great relevance whether inflation is only driven by inflation expectations and the current output gap or whether it is, in addition, influenced by past inflation. In the former case, as described by the New Keynesian Phillips curve, the central bank can immediately and simultaneously achieve price stability and equilibrium output, the so-called ‘divine coincidence’ (Blanchard and Galí 2007). In the latter case, the achievement of price stability is costly in terms of output and will be pursued over several periods. Similarly, it is important to distinguish this latter case, which describes ‘intrinsic’ inflation persistence, from that of ‘extrinsic’ inflation persistence, where the sluggishness of inflation is not a ‘structural’ feature of the economy but merely ‘inherited’ from the sluggishness of the other driving forces, inflation expectations and output. ‘Extrinsic’ inflation persistence is usually considered to be the less challenging case, as policy-makers are supposed to fight against the persistence in the driving forces, especially to reduce the stickiness of inflation expectations by a credible monetary policy, in order to reestablish the ‘divine coincidence’. The scope of this dissertation is to contribute to the vast literature and ongoing discussion on inflation persistence: Chapter 1 describes the policy consequences of inflation persistence and summarizes the empirical and theoretical literature. Chapter 2 compares two models of staggered price setting, one with a fixed two-period duration and the other with a stochastic duration of prices. I show that in an economy with a timeless optimizing central bank the model with the two-period alternating price-setting (for most parameter values) leads to more persistent inflation than the model with stochastic price duration. This result amends earlier work by Kiley (2002) who found that the model with stochastic price duration generates more persistent inflation in response to an exogenous monetary shock. Chapter 3 extends the two-period alternating price-setting model to the case of 3- and 4-period price durations. This results in a more complex Phillips curve with a negative impact of past inflation on current inflation. As simulations show, this multi-period Phillips curve generates a too low degree of autocorrelation and too early turnings points of inflation and is outperformed by a simple Hybrid Phillips curve. Chapter 4 starts from the critique of Driscoll and Holden (2003) on the relative real-wage model of Fuhrer and Moore (1995). While taking the critique seriously that Fuhrer and Moore’s model will collapse to a much simpler one without intrinsic inflation persistence if one takes their arguments literally, I extend the model by a term for inequality aversion. This model extension is not only in line with experimental evidence but results in a Hybrid Phillips curve with inflation persistence that is observably equivalent to that presented by Fuhrer and Moore (1995). In chapter 5, I present a model that especially allows to study the relationship between fairness attitudes and time preference (impatience). In the model, two individuals take decisions in two subsequent periods. In period 1, both individuals are endowed with resources and are able to donate a share of their resources to the other individual. In period 2, the two individuals might join in a common production after having bargained on the split of its output. The size of the production output depends on the relative share of resources at the end of period 1 as the human capital of the individuals, which is built by means of their resources, cannot fully be substituted one against each other. Therefore, it might be rational for a well-endowed individual in period 1 to act in a seemingly ‘fair’ manner and to donate own resources to its poorer counterpart. This decision also depends on the individuals’ impatience which is induced by the small but positive probability that production is not possible in period 2. As a general result, the individuals in the model economy are more likely to behave in a ‘fair’ manner, i.e., to donate resources to the other individual, the lower their own impatience and the higher the productivity of the other individual. As the (seemingly) ‘fair’ behavior is modelled as an endogenous outcome and as it is related to the aspect of time preference, the presented framework might help to further integrate behavioral economics and macroeconomics.
Resumo:
Eine wesentliche Funktionalität bei der Verwendung semantischer Technologien besteht in dem als Reasoning bezeichneten Prozess des Ableitens von impliziten Fakten aus einer explizit gegebenen Wissensbasis. Der Vorgang des Reasonings stellt vor dem Hintergrund der stetig wachsenden Menge an (semantischen) Informationen zunehmend eine Herausforderung in Bezug auf die notwendigen Ressourcen sowie der Ausführungsgeschwindigkeit dar. Um diesen Herausforderungen zu begegnen, adressiert die vorliegende Arbeit das Reasoning durch eine massive Parallelisierung der zugrunde liegenden Algorithmen und der Einführung von Konzepten für eine ressourceneffiziente Ausführung. Diese Ziele werden unter Berücksichtigung der Verwendung eines regelbasierten Systems verfolgt, dass im Gegensatz zur Implementierung einer festen Semantik die Definition der anzuwendenden Ableitungsregeln während der Laufzeit erlaubt und so eine größere Flexibilität bei der Nutzung des Systems bietet. Ausgehend von einer Betrachtung der Grundlagen des Reasonings und den verwandten Arbeiten aus den Bereichen des parallelen sowie des regelbasierten Reasonings werden zunächst die Funktionsweise von Production Systems sowie die dazu bereits existierenden Ansätze für die Optimierung und im Speziellen der Parallelisierung betrachtet. Production Systems beschreiben die grundlegende Funktionalität der regelbasierten Verarbeitung und sind somit auch die Ausgangsbasis für den RETE-Algorithmus, der zur Erreichung der Zielsetzung der vorliegenden Arbeit parallelisiert und für die Ausführung auf Grafikprozessoren (GPUs) vorbereitet wird. Im Gegensatz zu bestehenden Ansätzen unterscheidet sich die Parallelisierung insbesondere durch die gewählte Granularität, die nicht durch die anzuwendenden Regeln, sondern von den Eingabedaten bestimmt wird und sich damit an der Zielarchitektur orientiert. Aufbauend auf dem Konzept der parallelen Ausführung des RETE-Algorithmus werden Methoden der Partitionierung und Verteilung der Arbeitslast eingeführt, die zusammen mit Konzepten der Datenkomprimierung sowie der Verteilung von Daten zwischen Haupt- und Festplattenspeicher ein Reasoning über Datensätze mit mehreren Milliarden Fakten auf einzelnen Rechnern erlauben. Eine Evaluation der eingeführten Konzepte durch eine prototypische Implementierung zeigt für die adressierten leichtgewichtigen Ontologiesprachen einerseits die Möglichkeit des Reasonings über eine Milliarde Fakten auf einem Laptop, was durch die Reduzierung des Speicherbedarfs um rund 90% ermöglicht wird. Andererseits kann der dabei erzielte Durchsatz mit aktuellen State of the Art Reasonern verglichen werden, die eine Vielzahl an Rechnern in einem Cluster verwenden.
Resumo:
Der kundenindividuelle Anlagenbau (z. B. im Bereich Energie-, Kraftwerk- und Umwelttechnik) ist durch ein klassisches Projektgeschäft geprägt und erfordert ein individuelles Projektmanagement in Abhängigkeit von dem zu liefernden Produkt und den jeweiligen kunden- und projektindividuellen Rahmenbedingungen. So steht das Projektmanagement hier vor der Herausforderung, dass Anlagen in Form einer Baustellenfertigung als Unikate realisiert werden müssen, wobei die einzelnen Module häufig an unterschiedlichen Standorten gefertigt und dann unter Beachtung systemtechnischer, konstruktiver, lokaler, logistischer, energetischer, wetterbedingter, zeitlicher und finanzieller Randbedingungen beim Kunden montiert werden müssen. Zudem werden Projekterfahrungen selten über Projekte hinaus weitergereicht, d. h. es erfolgt nur bedingt eine Zusammenführung des Erfahrungswissens, das während der Projektrealisierung anwächst. Zur Risikovermeidung im Projektverlauf und zur Erreichung einer termingerechten Inbetriebnahme sind daher in Erweiterung zu den heutigen Projektmanagementwerkzeugen ergänzende Methoden zur Abschätzung von Projektunsicherheiten und zur Bewertung von Projektplänen, aber auch zur nachhaltige Nutzung von Projektwissen notwendig. Zur Verbesserung des logistikintegrierten Projektmanagements im kundenindividuellen Anlagenbau wurde daher eine Methodik zur projekt- und produktspezifischen Unterstützung des Projektmanagements entwickelt und anhand eines Demonstrators umgesetzt. Statt den Unsicherheiten im Projektverlauf mit zusätzlichen Pufferzeiten zu begegnen, bewertet jetzt eine mit Optimierungs-, Analyse- und Visualisierungsverfahren kombinierte Ablaufsimulation zufällige Einflüsse in den Plänen. Hierdurch wird eine Verbesserung des Risikomanagements in den Projekten erreicht, indem bestehende Unsicherheiten in den Planungsprozessen simuliert und reduziert werden. Um einen transparenten Projektmanagementprozess zu erhalten und auch Erfahrungswissen aus vorangegangenen Projekten einzubinden, lassen sich Referenzprojektpläne unter Berücksichtigung von Restriktionen nutzen, die durch das zu erstellende Produkt, die zu verwendenden Technologien, die zugrundeliegenden Prozesse oder die notwendigen logistischen Ressourcen bedingt sind. Die IT-Architektur der Plattform ist werkzeugneutral, so dass das entwickelte Konzept auf Branchen außerhalb des Anlagenbaus übertragbar ist. Dies haben Vertreter verschiedener Industrieunternehmen des Anlagenbaus aus den Bereichen der Umwelt- und Energietechnik, des Schiffbaus, der Automobilindustrie sowie dem OWL Maschinenbau e.V. bestätigt.
Resumo:
Wenn sich in einem wichtigen Bereich der Elektrotechnik ein neues Halbleitermaterial zu etablieren beginnt, weckt dies einerseits Erwartungen der Wirtschaft und Industrie, andererseits kann es eine erhebliche Herausforderung für die Hersteller bedeuten. Nachdem Gallium-Nitrid erstmalig vor 20 Jahren als Transistor verwendet wurde und seit über einer Dekade serienmäßig in der Hochfrequenztechnik eingesetzt wird, erobert es nun die Leistungselektronik. Die ausschlaggebenden Kriterien sind hier die Verwendbarkeit bei höheren Betriebstemperaturen, die Energieeffizienz und die Reduzierung von Größe und Gewicht durch den Betrieb bei höheren Schaltfrequenzen. Die vorliegende Arbeit basiert auf der Motivation zunächst einen möglichst breit angelegten Überblick des ständig wachsenden Angebotsspektrums zu geben, das mittlerweile durch die vielfältigen Varianten der verfügbaren Transistoren an Übersichtlichkeit etwas verloren hat. Nach einer ausführlichen Erläuterung der physikalischen und elektrischen Eigenschaften, werden die jeweiligen Typen in überschaubaren Abschnitten beschrieben und im Anschluss tabellarisch zusammengefasst. Die elektrischen Eigenschaften der hier ausgewählten EPC 2010 eGaN-HFETs (200 V Spannungsklasse) werden eingehend diskutiert. Das Schaltverhalten der eGaN-HFETs in einem Synchron-Tiefsetzsteller wird untersucht und modelliert. Eine Analyse aller in den GaN-FETs entstehenden Verlustleistungen wird durchgeführt. Zur Abschätzung der dynamischen Verlustleistungen wird eine analytische Methode umgesetzt und weiter entwickelt. Um die Vorteile der erhöhten Schaltfrequenzen nutzen zu können, erfolgt eine sehr ausführliche Betrachtung der notwendigen magnetischen Komponenten, deren Auswahl- und Verwendungskriterien im Detail untersucht, evaluiert und aufgegliedert werden. Diese werden im praktischen Teil ausgiebig in Verbindung mit den GaN-Transistoren ausgesucht und messtechnisch bewertet. Theoretische Betrachtungen hinsichtlich der Grenzen, die magnetische Bauelemente schnell schaltenden Halbleitern auferlegen, werden durchgeführt. Da die untersuchten Niedervolt-GaN-HFETs quasi kein Gehäuse haben, ist eine korrekte Strommessung nicht realisierbar. Am praktischen Beispiel eines Synchron-Tiefsetzstellers werden zwei experimentelle Methoden entwickelt, mit deren Hilfe die Verlustleistungen in den EPC 2010 eGaN-HFETs ermittelt werden. Anschließend wird das Verbesserungspotential der GaN-Leistungstransistoren erläutert sowie deren Anwendungsbereiche diskutiert.
Resumo:
Se recopila bibliografía sobre cine educativo y radiodifusión escolar correspondiente a los años comprendidos entre 1953 y 1963. Para ello, utiliza como fuentes de información La Hochschule für Internationale Pädagogische Forschung, de Frankfurt, y el Hessischer Rundfunk.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit der Synthese, Funktionalisierung und Charakterisierung hochverzweigter Polyphenylen-Dendrimere. Dendrimere sind sternförmig aufgebaute Makromoleküle mit regelmäßig verzweigten Armen. Trotz der Herstellung einer Vielfalt von unterschiedlichen Dendrimertypen bleibt die Herstellung steifer formpersistenter nanometergroßer Dendrimere eine Herausforderung. Ein Ansatz zur Herstellung von form- und größenstabilen 'Nanoobjekten' wird in dieser Arbeit vorgestellt. Grundlage der Synthese der in dieser Arbeit hergestellten Polyphenylen-Dendrimere ist die Diels-Alder-Cycloaddition zwischen Tetraphenylcyclopentadienonen und Ethinylderivaten. Auf diese Weise können monodisperse Makromoleküle mit Molekularmassen größer 20 kDa und Durchmessern von 6 nm erhalten werden. Funktionalisiert werden die Dendrimere mit Funktionen wie z. B. Alkyl, Hydroxy oder Carboxy. Die Charakterisierung erfolgt u. a. mit Hilfe der NMR, GPC, Lichtstreuung oder MALDI-TOF Massenspektrometrie, aber auch mit abbildenden Methoden, wie z. B. der AFM und TEM und der Kristallstrukturanalyse. Die Dynamik der vorgestellten Dendrimere wird zum einen mit molekulardynamischen Berechnungen, zum anderen mit der Festkörper-NMR untersucht.Die Ergebnisse der Untersuchungen beweisen, dass Polyphenylen-Dendrimere nanometergroße steife formstabile Moleküle sind. Sie besitzen in erster Näherung eine globuläre Form, die große Hohlräume enthalten, in die Gastmoleküle eindringen können. Weiterhin erlauben sie eine bezüglich der Anzahl und Position definierte Funktionalisierung.
Resumo:
In der vorliegenden Studie werden die wesentlichen Entwicklungen in der polnischen Sozialarbeit im Bedingungszusammenhang der Systemtransformationsprozesse nach 1989 analysiert. Die Transformation des gesamten Gesellschaftssystems hat einen umfassenden Wandel der Sozialstruktur und der Kultur ausgelöst. Sie bewirkte eine rasche Zunahme sozialer Probleme, solcher wie die Verarmung breiter Teile der polnischen Gesellschaft und Massenarbeitslosigkeit und stellte somit auch hohe Herausforderung an die Sozialpolitik und Sozialarbeit der Transformationszeit. In der Arbeit werden die Probleme und die Lösungsansätze der polnischen Sozialarbeit auf der Ebene der gesellschaftlichen Rahmenbedingungen, der Ebene der Institutionen und Organisationsformen sowie auf der Interaktions- und Handlungsebene der Akteure dargestellt und reflektiert.
Resumo:
Zusammenfassung Im Rahmen dieser Arbeit konnten vier neue Ligandsysteme fürPolymerisationskatalysatoren entwickelt werden, dieisoelektronisch zu Cp-Liganden (L2X-Ligand) oder Ligandenvon ansa-Metallocenen (L4X2-Ligand) sind. Dazu zählensubstituierte Azacyclopentadiene, 2-(Amionomethyl)thiophene,donorfunktionalisierte Amidine und1,4-Dithiabutan-verbrückte Bis(phenole).Alle Liganden wurden erfolgreich komplexiert. Bis auf diePyrrolkomplexe zeigten alle Komplexe zum Teil sehr hohePolymerisationsaktivitäten. Die Bis(phenolato)-Katalysatorenpolymerisieren Styrol isotaktisch und bieten Anwendungen fürverschiedene Copolymerisationsexperimente.Die neu entwickelten Katalysatoren haben sich trotz ihrerCp-isoelektronischen Ligandsysteme höchst unterschiedlichbezüglich ihrer Eignung als Polymerisations-Katalysatorengezeigt. Vor diesem Hintergrund wird deutlich, dass nebenden elektronischen Gegebenheiten ebenso sterische wiegeometrische Einflüsse von Bedeutung sind. Für die Zukunftwird das Aufklären der Struktur-Wirkungs-Beziehung einewichtige Herausforderung bleiben. Ferner konnten meisten Syntheseschritte so ausgearbeitetwerden, dass High Throughput Experimente im Automatenmöglich sind.
Resumo:
The challenge of the present work was to synthesize and to characterize new classes of N-containing polymers via palladium-catalyzed aryl amination. This work was inspired by a desire to combine the properties of high-performance polymers such as PEKs with those of N-containing conductive polymers such as polyaniline (PANI), poly(aromatic amides) (PAAs), and the ready synthesis of N-containing simple aromatic compound by the Buchwald-Hartwig reaction. Careful investigation of a model reaction was carried out to provide insights into the formation of side products which will have a negative effect upon the molecular weight or upon the materials properties of the desired polymers in the polycondensation reaction. In this thesis, five new different polymer classes namely, poly(imino ketone)s (PIKs), poly(imino acridine)s (PIAcs), poly(imino azobenzene)s (PIAzos), poly(imino fluorenone)s (PIFOs), and poly(imino carbazole)s (PICs) were synthesized and fully characterized by means of 1H-NMR, elemental analysis, UV, FT-IR, X-ray, GPC, TGA, DSC, DMA, and dielectric spectroscopy. To optimize the polycondensation process, the influence of the concentration, temperature, ligands and the reactivity of the halogen containing monomers were investigated. A temperature of 100-165 °C and a concentration of 30-36 % were found to be optimal for the palladium-catalyzed polycondensation to produce polymer with high molecular weight (Mn = 85 900, Mw = 474 500, DP = 126). Four different ligands were used successfully in the Pd-catalyzed process, of which the Pd/BINAP system was found to be the most effective catalyst, producing the highest yield and highest molecular weight polymers. It was found that the reactivity decreases strongly with increasing electronegativity of the halogen atoms, for example better yields, and higher molecular weights were obtained by using dibromo compounds than dichloro compounds while difluoro compounds were totally unreactive. Polymer analogous transformations, such as the protonation reaction of the ring nitrogens in PIAcs, or of the azobenzene groups of PIAzos, the photo and thermal cis-trans-isomerization of PIAzos, and of poly(imino alcohol)s were also studied. The values of the dielectric constants of PIKs at 1 MHz were in the range 2.71-3.08. These low values of the dielectric constant are lower than that of "H Film", a polyimide Kapton film which is one of the most preferred high-performance dielectrics in microelectronic applications having a dielectric constant of 3.5. In addition to the low values of the dielectric constants, PIKs have lower and glass transition temperatures (Tgs) than arimides such as Kapton which may make them more easily processable. Cyclic voltammetry showed that PICs exhibited low oxidation and reduction potentials and their values were shifted to low values with increasing degree of polymerization i.e. with increasing of the carbazole content in backbone of PICs (PIC-7, 0.44, 0.33 V, DP= 37, PIC-5, 0.63, 0.46, DP= 16, respectively).