963 resultados para Cochran regressione lineare stima inferenza statistica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude conduit les traditions fragmentées de la culture littéraire de Trieste vers les préoccupations contemporaines de la littérature mondiale à l’époque actuelle où la mondialisation est largement perçue comme le paradigme historique prédominant de la modernité. Ce que j’appelle la « littérature globalisée » renvoie à la refonte de la Weltliteratur – envisagée par Goethe et traduite comme « world literature » ou la « littérature universelle » – par des discours sur la culture mondiale et le post-nationalisme. Cependant, lorsque les études littéraires posent les questions de la « littérature globalisée », elles sont confrontées à un problème : le passage de l’idée universelle inhérente au paradigme de Goethe entre le Scylla d’un internationalisme relativiste et occidental, et le Charybde d’un mondialisme atopique et déshumanisé. Les spécialistes de la littérature mondiale qui tendent vers la première position acquièrent un fondement institutionnel en travaillant avec l’hypothèse implicite selon laquelle les nations sont fondées sur les langues nationales, ce qui souscrit à la relation entre la littérature mondiale et les littératures nationales. L’universalité de cette hypothèse implicite est réfutée par l’écriture triestine. Dans cette étude, je soutiens que l’écriture triestine du début du XXe siècle agit comme un précurseur de la réflexion sur la culture littéraire globalisée du XXIe siècle. Elle dispose de sa propre économie de sens, de sorte qu’elle n’entre pas dans les nationalismes littéraires, mais elle ne tombe pas non plus dans le mondialisme atopique. Elle n’est pas catégoriquement opposée à la littérature nationale; mais elle ne permet pas aux traditions nationales de prendre racine. Les écrivains de Triestine exprimaient le désir d’un sentiment d’unité et d’appartenance, ainsi que celui d’une conscience critique qui dissout ce désir. Ils résistaient à l’idéalisation de ces particularismes et n’ont jamais réussi à réaliser la coalescence de ses écrits dans une tradition littéraire unifiée. Par conséquent, Trieste a souvent été considérée comme un non-lieu et sa littérature comme une anti-littérature. En contournant les impératifs territoriaux de la tradition nationale italienne – comme il est illustré par le cas de Italo Svevo – l’écriture triestine a été ultérieurement incluse dans les paramètres littéraires et culturels de la Mitteleuropa, où son expression a été imaginée comme un microcosme de la pluralité supranationale de l’ancien Empire des Habsbourg. Toutefois, le macrocosme projeté de Trieste n’est pas une image unifiée, comme le serait un globe; mais il est plutôt une nébuleuse planétaire – selon l’image de Svevo – où aucune idéalisation universalisante ne peut se réaliser. Cette étude interroge l’image de la ville comme un microcosme et comme un non-lieu, comme cela se rapporte au macrocosme des atopies de la mondialisation, afin de démontrer que l’écriture de Trieste est la littérature globalisée avant la lettre. La dialectique non résolue entre faire et défaire la langue littéraire et l’identité à travers l’écriture anime la culture littéraire de Trieste, et son dynamisme contribue aux débats sur la mondialisation et les questions de la culture en découlant. Cette étude de l’écriture triestine offre des perspectives critiques sur l’état des littératures canoniques dans un monde où les frontières disparaissent et les non-lieux se multiplient. L’image de la nébuleuse planétaire devient possiblement celle d’un archétype pour le monde globalisé d’aujourd’hui.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire cherche à relever, à travers la lecture du texte Le bain de Diane de Pierre Klossowski, les modalités propres au littéraire pour penser les liens entre les concepts d’immanence et de transcendance. Proposant en premier lieu la mise en place des concepts nécessaires à une telle entreprise, je m’attarde à des auteurs tels que Platon, Apulée, Pierre Hadot, Gilles Deleuze et Michel Foucault, ayant contribué à la conception du démon tel qu’il est décrit chez Klossowski, ainsi qu’au concept de simulacre, concept clé de la pensée de l’auteur à l’étude. En retraçant la création et la représentation de ces concepts dans divers textes, pour ensuite les retracer dans Le bain de Diane, je cherche à montrer l’importance de la figuration littéraire dans le rapport complexe que nous entretenons avec les notions de sensible et de suprasensible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we study some dynamic generalized information measures between a true distribution and an observed (weighted) distribution, useful in life length studies. Further, some bounds and inequalities related to these measures are also studied

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es werde das lineare Regressionsmodell y = X b + e mit den ueblichen Bedingungen betrachtet. Weiter werde angenommen, dass der Parametervektor aus einem Ellipsoid stammt. Ein optimaler Schaetzer fuer den Parametervektor ist durch den Minimax-Schaetzer gegeben. Nach der entscheidungstheoretischen Formulierung des Minimax-Schaetzproblems werden mit dem Bayesschen Ansatz, Spektralen Methoden und der Darstellung von Hoffmann und Laeuter Wege zur Bestimmung des Minimax- Schaetzers dargestellt und in Beziehung gebracht. Eine Betrachtung von Modellen mit drei Einflussgroeßen und gemeinsamen Eigenvektor fuehrt zu einer Strukturierung des Problems nach der Vielfachheit des maximalen Eigenwerts. Die Bestimmung des Minimax-Schaetzers in einem noch nicht geloesten Fall kann auf die Bestimmung einer Nullstelle einer nichtlinearen reellwertigen Funktion gefuehrt werden. Es wird ein Beispiel gefunden, in dem die Nullstelle nicht durch Radikale angegeben werden kann. Durch das Intervallschachtelungs-Prinzip oder Newton-Verfahren ist die numerische Bestimmung der Nullstelle moeglich. Durch Entwicklung einer Fixpunktgleichung aus der Darstellung von Hoffmann und Laeuter war es in einer Simulation moeglich die angestrebten Loesungen zu finden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sowohl die Ressourcenproblematik als auch die drohenden Ausmaße der Klimaänderung lassen einen Umstieg auf andere Energiequellen langfristig unausweichlich erscheinen und mittelfristig als dringend geboten. Unabhängig von der Frage, auf welchem Niveau sich der Energiebedarf stabilisieren lässt, bleibt dabei zu klären, welche Möglichkeiten sich aus technischer und wirtschaftlicher Sicht in Zukunft zur Deckung unseres Energiebedarfs anbieten. Eine aussichtsreiche Option besteht in der Nutzung regenerativer Energien in ihrer ganzen Vielfalt. Die Arbeit "Szenarien zur zukünftigen Stromversorgung, kostenoptimierte Variationen zur Versorgung Europas und seiner Nachbarn mit Strom aus erneuerbaren Energien" konzentriert sich mit der Stromversorgung auf einen Teilaspekt der Energieversorgung, der zunehmend an Wichtigkeit gewinnt und als ein Schlüssel zur nachhaltigen Energieversorgung interpretiert werden kann. Die Stromversorgung ist heute weltweit für etwa die Hälfte des anthropogenen CO2-Ausstoßes verantwortlich. In dieser Arbeit wurden anhand verschiedener Szenarien Möglichkeiten einer weitgehend CO2–neutralen Stromversorgung für Europa und seine nähere Umgebung untersucht, wobei das Szenariogebiet etwa 1,1 Mrd. Einwohner und einen Stromverbrauch von knapp 4000 TWh/a umfasst. Dabei wurde untersucht, wie die Stromversorgung aufgebaut sein sollte, damit sie möglichst kostengünstig verwirklicht werden kann. Diese Frage wurde beispielsweise für Szenarien untersucht, in denen ausschließlich heute marktverfügbare Techniken berücksichtigt wurden. Auch der Einfluss der Nutzung einiger neuer Technologien, die bisher noch in Entwicklung sind, auf die optimale Gestaltung der Stromversorgung, wurde anhand einiger Beispiele untersucht. Die Konzeption der zukünftigen Stromversorgung sollte dabei nach Möglichkeit objektiven Kriterien gehorchen, die auch die Vergleichbarkeit verschiedener Versorgungsansätze gewährleisten. Dafür wurde ein Optimierungsansatz gewählt, mit dessen Hilfe sowohl bei der Konfiguration als auch beim rechnerischen Betrieb des Stromversorgungssystems weitgehend auf subjektive Entscheidungsprozesse verzichtet werden kann. Die Optimierung hatte zum Ziel, für die definierte möglichst realitätsnahe Versorgungsaufgabe den idealen Kraftwerks- und Leitungspark zu bestimmen, der eine kostenoptimale Stromversorgung gewährleistet. Als Erzeugungsoptionen werden dabei u.a. die Nutzung Regenerativer Energien durch Wasserkraftwerke, Windenergiekonverter, Fallwindkraftwerke, Biomassekraftwerke sowie solare und geothermische Kraftwerke berücksichtigt. Abhängig von den gewählten Randbedingungen ergaben sich dabei unterschiedliche Szenarien. Das Ziel der Arbeit war, mit Hilfe unterschiedlicher Szenarien eine breite Basis als Entscheidungsgrundlage für zukünftige politische Weichenstellungen zu schaffen. Die Szenarien zeigen Optionen für eine zukünftige Gestaltung der Stromversorgung auf, machen Auswirkungen verschiedener – auch politischer – Rahmenbedingungen deutlich und stellen so die geforderte Entscheidungsgrundlage bereit. Als Grundlage für die Erstellung der Szenarien mussten die verschiedenen Potentiale erneuerbarer Energien in hoher zeitlicher und räumlicher Auflösung ermittelt werden, mit denen es erstmals möglich war, die Fragen einer großräumigen regenerativen Stromversorgung ohne ungesicherte Annahmen anhand einer verlässlichen Datengrundlage anzugehen. Auch die Charakteristika der verschiedensten Energiewandlungs- und Transportsysteme mussten studiert werden und sind wie deren Kosten und die verschiedenen Potentiale in der vorliegenden Arbeit ausführlich diskutiert. Als Ausgangsszenario und Bezugspunkt dient ein konservatives Grundszenario. Hierbei handelt es sich um ein Szenario für eine Stromversorgung unter ausschließlicher Nutzung erneuerbarer Energien, die wiederum ausschließlich auf heute bereits entwickelte Technologien zurückgreift und dabei für alle Komponenten die heutigen Kosten zugrundelegt. Dieses Grundszenario ist dementsprechend auch als eine Art konservative Worst-Case-Abschätzung für unsere Zukunftsoptionen bei der regenerativen Stromversorgung zu verstehen. Als Ergebnis der Optimierung basiert die Stromversorgung beim Grundszenario zum größten Teil auf der Stromproduktion aus Windkraft. Biomasse und schon heute bestehende Wasserkraft übernehmen den überwiegenden Teil der Backup-Aufgaben innerhalb des – mit leistungsstarker HGÜ (Hochspannungs–Gleichstrom–Übertragung) verknüpften – Stromversorgungsgebiets. Die Stromgestehungskosten liegen mit 4,65 €ct / kWh sehr nahe am heute Üblichen. Sie liegen niedriger als die heutigen Preisen an der Strombörse. In allen Szenarien – außer relativ teuren, restriktiv ”dezentralen” unter Ausschluss großräumig länderübergreifenden Stromtransports – spielt der Stromtransport eine wichtige Rolle. Er wird genutzt, um Ausgleichseffekte bei der dargebotsabhängigen Stromproduktion aus erneuerbaren Quellen zu realisieren, gute kostengünstige Potentiale nutzbar zu machen und um die Speicherwasserkraft sowie die dezentral genutzte Biomasse mit ihrer Speicherfähigkeit für großräumige Backup-Aufgaben zu erschließen. Damit erweist sich der Stromtransport als einer der Schlüssel zu einer kostengünstigen Stromversorgung. Dies wiederum kann als Handlungsempfehlung bei politischen Weichenstellungen interpretiert werden, die demnach gezielt auf internationale Kooperation im Bereich der Nutzung erneuerbarer Energien setzen und insbesondere den großräumigen Stromtransport mit einbeziehen sollten. Die Szenarien stellen detaillierte und verlässliche Grundlagen für wichtige politische und technologische Zukunftsentscheidungen zur Verfügung. Sie zeigen, dass bei internationaler Kooperation selbst bei konservativen Annahmen eine rein regenerative Stromversorgung möglich ist, die wirtschaftlich ohne Probleme zu realisieren wäre und verweisen den Handlungsbedarf in den Bereich der Politik. Eine wesentliche Aufgabe der Politik läge darin, die internationale Kooperation zu organisieren und Instrumente für eine Umgestaltung der Stromversorgung zu entwickeln. Dabei kann davon ausgegangen werden, dass nicht nur ein sinnvoller Weg zu einer CO2–neutralen Stromversorgung beschritten würde, sondern sich darüber hinaus ausgezeichnete Entwicklungsperspektiven für die ärmeren Nachbarstaaten der EU und Europas eröffnen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit umfaßt das elektromechanische Design und die Designoptimierung von weit durchstimmbaren optischen multimembranbasierten Bauelementen, mit vertikal orientierten Kavitäten, basierend auf der Finiten Element Methode (FEM). Ein multimembran InP/Luft Fabry-Pérot optischer Filter wird dargestellt und umfassend analysiert. In dieser Arbeit wird ein systematisches strukturelles Designverfahren dargestellt. Genaue analytische elektromechanischer Modelle für die Bauelemente sind abgeleitet worden. Diese können unschätzbare Werkzeuge sein, um am Anfang der Designphase schnell einen klaren Einblick zur Verfügung zu stellen. Mittels des FEM Programms ist der durch die nicht-lineare Verspannung hervorgerufene versteifende Effekt nachgeforscht und sein Effekt auf die Verlängerung der mechanischen Durchstimmungsstrecke der Bauelemente demonstriert worden. Interessant war auch die Beobachtung, dass die normierte Relation zwischen Ablenkung und Spannung ein unveränderliches Profil hat. Die Deformation der Membranflächen der in dieser Arbeit dargestellten Bauelementformen erwies sich als ein unerwünschter, jedoch manchmal unvermeidbarer Effekt. Es zeigt sich aber, dass die Wahl der Größe der strukturellen Dimensionen den Grad der Membrandeformation im Falle der Aktuation beeinflusst. Diese Arbeit stellt ein elektromechanisches in FEMLAB implementierte quasi-3D Modell, das allgemein für die Modellierung dünner Strukturen angewendet werden kann, dar; und zwar indem man diese als 2D-Objekte betrachtet und die dritte Dimension als eine konstante Größe (z.B. die Schichtdicke) oder eine Größe, welche eine mathematische Funktion ist, annimmt. Diese Annahme verringert drastisch die Berechnungszeit sowie den erforderlichen Arbeitsspeicherbedarf. Weiter ist es für die Nachforschung des Effekts der Skalierung der durchstimmbaren Bauelemente verwendet worden. Eine neuartige Skalierungstechnik wurde abgeleitet und verwendet. Die Ergebnisse belegen, dass das daraus resultierende, skalierte Bauelement fast genau die gleiche mechanische Durchstimmung wie das unskalierte zeigt. Die Einbeziehung des Einflusses von axialen Verspannungen und Gradientenverspannungen in die Berechnungen erforderte die Änderung der Standardimplementierung des 3D Mechanikberechnungsmodus, der mit der benutzten FEM Software geliefert wurde. Die Ergebnisse dieser Studie zeigen einen großen Einfluss der Verspannung auf die Durchstimmungseigenschaften der untersuchten Bauelemente. Ferner stimmten die Ergebnisse der theoretischen Modellrechnung mit den experimentellen Resultaten sehr gut überein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird die Wechselwirkung zwischen einem Photon und einem Elektron im starken Coulombfeld eines Atomkerns am Beispiel des radiativen Elektroneneinfangs beim Stoß hochgeladener Teilchen untersucht. In den letzten Jahren wurde dieser Ladungsaustauschprozess insbesondere für relativistische Ion–Atom–Stöße sowohl experimentell als auch theoretisch ausführlich erforscht. In Zentrum standen dabei haupsächlich die totalen und differentiellen Wirkungsquerschnitte. In neuerer Zeit werden vermehrt Spin– und Polarisationseffekte sowie Korrelationseffekte bei diesen Stoßprozessen diskutiert. Man erwartet, dass diese sehr empfindlich auf relativistische Effekte im Stoß reagieren und man deshalb eine hervorragende Methode zu deren Bestimmung erhält. Darüber hinaus könnten diese Messungen auch indirekt dazu führen, dass man die Polarisation des Ionenstrahls bestimmen kann. Damit würden sich neue experimentelle Möglichkeiten sowohl in der Atom– als auch der Kernphysik ergeben. In dieser Dissertation werden zunächst diese ersten Untersuchungen zu den Spin–, Polarisations– und Korrelationseffekten systematisch zusammengefasst. Die Dichtematrixtheorie liefert hierzu die geeignete Methode. Mit dieser Methode werden dann die allgemeinen Gleichungen für die Zweistufen–Rekombination hergeleitet. In diesem Prozess wird ein Elektron zunächst radiativ in einen angeregten Zustand eingefangen, der dann im zweiten Schritt unter Emission des zweiten (charakteristischen) Photons in den Grundzustand übergeht. Diese Gleichungen können natürlich auf beliebige Mehrstufen– sowie Einstufen–Prozesse erweitert werden. Im direkten Elektroneneinfang in den Grundzustand wurde die ”lineare” Polarisation der Rekombinationsphotonen untersucht. Es wurde gezeigt, dass man damit eine Möglichkeit zur Bestimmung der Polarisation der Teilchen im Eingangskanal des Schwerionenstoßes hat. Rechnungen zur Rekombination bei nackten U92+ Projektilen zeigen z. B., dass die Spinpolarisation der einfallenden Elektronen zu einer Drehung der linearen Polarisation der emittierten Photonen aus der Streuebene heraus führt. Diese Polarisationdrehung kann mit neu entwickelten orts– und polarisationsempfindlichen Festkörperdetektoren gemessen werden. Damit erhält man eine Methode zur Messung der Polarisation der einfallenden Elektronen und des Ionenstrahls. Die K–Schalen–Rekombination ist ein einfaches Beispiel eines Ein–Stufen–Prozesses. Das am besten bekannte Beispiel der Zwei–Stufen–Rekombination ist der Elektroneneinfang in den 2p3/2–Zustand des nackten Ions und anschließendem Lyman–1–Zerfall (2p3/2 ! 1s1/2). Im Rahmen der Dichte–Matrix–Theorie wurden sowohl die Winkelverteilung als auch die lineare Polarisation der charakteristischen Photonen untersucht. Beide (messbaren) Größen werden beträchtlich durch die Interferenz des E1–Kanals (elektrischer Dipol) mit dem viel schwächeren M2–Kanal (magnetischer Quadrupol) beeinflusst. Für die Winkelverteilung des Lyman–1 Zerfalls im Wasserstoff–ähnlichen Uran führt diese E1–M2–Mischung zu einem 30%–Effekt. Die Berücksichtigung dieser Interferenz behebt die bisher vorhandene Diskrepanz von Theorie und Experiment beim Alignment des 2p3/2–Zustands. Neben diesen Ein–Teichen–Querschnitten (Messung des Einfangphotons oder des charakteristischen Photons) wurde auch die Korrelation zwischen den beiden berechnet. Diese Korrelationen sollten in X–X–Koinzidenz–Messungen beobbachtbar sein. Der Schwerpunkt dieser Untersuchungen lag bei der Photon–Photon–Winkelkorrelation, die experimentell am einfachsten zu messen ist. In dieser Arbeit wurden ausführliche Berechnungen der koinzidenten X–X–Winkelverteilungen beim Elektroneneinfang in den 2p3/2–Zustand des nackten Uranions und beim anschließenden Lyman–1–Übergang durchgeführt. Wie bereits erwähnt, hängt die Winkelverteilung des charakteristischen Photons nicht nur vom Winkel des Rekombinationsphotons, sondern auch stark von der Spin–Polarisation der einfallenden Teilchen ab. Damit eröffnet sich eine zweite Möglichkeit zur Messung der Polaristion des einfallenden Ionenstrahls bzw. der einfallenden Elektronen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es werden die Grundlagen und wichtigsten Konzepte für zielorientierte Fehlerschätzer bei linearen und nichtlinearen Problemen vorgestellt. Mit ihrer Hilfe lassen sich Aussagen über die Güte einzelner lokaler Werte treffen und es ist möglich, das Netz innerhalb von adaptiven Verfahren derart zu optimieren, dass die betrachtete lokale Größe möglichst genau berechnet werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In den vorliegenden Untersuchungen wurde der Gehalt von Carotinoiden in Weizen, Mais und Möhren sowie der Polyphenolgehalt in Möhren mit analytischen Methoden zum Nachweis dieser Substanzen gemessen. Der Gehalt der Carotinoide in Mais und der Gehalt der phenolischen Bestandteile in Möhren wurde mit Messungen mittels HPLC-Analytik gemessen. Die Methoden wurden aus literaturbekannten Verfahren abgeleitet und an die Anforderungen der untersuchten Probenmatrices angepasst und validiert. Dem Verfahren lag die Frage zugrunde, ob es möglich ist, Kulturpflanzen aus verschiedenen Anbausystemen auf der Basis des Gehaltes bestimmter sekundärer Pflanzeninhaltsstoffe zu differenzieren und aufgrund von Unterschieden im Gehalt der sekundären Pflanzeninhaltsstoffe zu klassifizieren. Die Gesamtverfahren wurden dabei gemäß der ISO 17025 validiert. Für die Messungen standen Proben aus definierten Langzeitversuchen und Erzeugerproben ausgesuchter ökologisch bzw. konventionell arbeitender Anbaubetriebe zur Verfügung. Als Grundlage für eine valide Methodeneinschätzung wurden die Messungen an codierten Proben vorgenommen. Eine Decodierung der Proben erfolgte erst nach der Vorlage der Messergebnisse in den genannten Projekten. Die Messung und Auswertung des Carotinoidgehaltes in Weizen, Mais und Möhren vor dem Hintergrund der Differenzierung und Klassifizierung erfolgte in Proben eines Erntejahres. Die Messung des Gehaltes phenolischer Substanzen in Möhren erfolgte in Möhren aus 3 Erntejahren. Die verwendeten HPLC-Verfahren konnten in Bezug auf den analytischen Teil der Messungen in den einzelnen Verfahrensschritten Linearität, Spezifität, Präzision und Robustheit erfolgreich überprüft werden. Darüber hinaus wurden wichtige Einflussgrößen auf die Messungen bestimmt. Für die Verfahren zur photometrischen Bestimmung der Gesamtcarotinoide konnte eine Grundkalibrierung der Parameter Präzision und Linearität des Verfahrens erfolgreich durchgeführt werden. Während der Anwendung der HPLC-Methoden an codierten Proben konnten in allen untersuchten Probenmatrices quantitativ bedeutende Inhaltsstoffe nachgewiesen und identifiziert werden. Eine vollständige Identifizierung aller dargestellten Peaks konnte in den Untersuchungen der Polyphenole in Möhren und der Carotinoide in Mais nicht erfolgen. Im Hinblick auf die Frage nach der Differenzierung und Klassifizierung ergab sich in den verschiedenen Proben ein unterschiedliches Bild. Sowohl durch den Carotinoid- als auch den Polyphenolgehalt konnten einzelne Proben statistisch signifikant differenziert werden. Die Trennleistung hing dabei sowohl von den jeweiligen Komponenten als auch von der untersuchten Probenmatrix ab. Ein durchgängig höherer Gehalt sekundärer Pflanzeninhaltsstoffe in Proben aus ökologischem Anbau konnte nicht bestätigt werden. Für die Klassifizierung der Proben verschiedener Anbauvarianten und konnten multivariate statistische Methoden, wie lineare Diskriminantenanalyse (LDA) und Classification and Regression Tree (CART), erfolgreich angewandt werden. Eine Klassifizierung mit unterschiedlichen statistischen Verfahren erbrachte dabei unterschiedliche Ergebnisse. In der Klassifizierung der decodierten Proben mittels LDA wirkten sich die Faktoren Sorte und Standort stärker auf das Klassifizierungsergebnis aus als der Faktor Anbausystem. Eine Klassifizierung der decodierten Proben nach dem Anbausystem wurde mit dem CART-Verfahren durchgeführt. Auf dieser Basis wurden für die Polyphenole in Möhren 97 % der Proben richtig klassifiziert. Durch die Messwerte des Carotinoidgehaltes und des Luteingehaltes in Weizen konnte der größere Teil der Proben (90 %) korrekt klassifiziert werden. Auf der Basis des Carotinoidgehaltes in Mais wurde der Großteil der Proben (95 %) korrekt nach dem Anbausystem klassifiziert. Auf der Basis des mittels HPLC gemessenen Carotinoidgehaltes in Möhren konnten die Proben 97 % korrekt klassifiziert werden (97 %). Insgesamt erscheint der Grundgedanke der Klassifizierung durch den Gehalt sekundärer Pflanzeninhaltsstoffe vielversprechend. Durch die vielfältigen Einflussgrößen auf den Sekundärstoffwechsel von Pflanzen müssten Veränderungen, die durch Sorte und Standort auftreten, über mehrere Jahre erhoben und systematisiert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es wurden die optischen Eigenschaften einiger Spirooligophenylverbindungen untersucht. Bei den Verbindungen handelte es sich um lineare und verzweigte Derivate des Spirobifluorens. Es wurden dünne amorphe Schichten der Verbindungen mittels spincoating und Vakuumverdampfen (OMBD) auf unterschiedlichen Substraten hergestellt. Mit spektroskopischer Ellipsometrie konnten die Schichtdicken und optische Konstanten der dünnen Schichten bestimmt werden. Dafür sind die Extinktionsspektren mit Tauc-Lorentz-Oszillatoren modelliert worden. Auf diese Weise ließen sich die optischen Konstanten der amorphen Filme besser beschreiben als mit den üblicherweise verwendeten Gauß-Oszillatoren. In dünnen Filmen von Spirosexiphenyl konnte uniaxiale Anisotropie nachgewiesen werden. Im Bereich der pie,pie*-Bande beträgt das Verhältnis des ordentlichen zum außerordentlichen Extinktionskoeffizienten 2.09. Mit einer Integrationskugel wurden die absoluten Quantenausbeuten der Fluoreszenz in festen Filmen bestimmt. Dafür ist ein vereinfachtes Verfahren der Auswertung entwickelt worden. Im Vergleich der untersuchten Substanzen zeigt sich, dass die Verbindungen mit dem Sexiphenyl-Chromophor höhere Quantenausbeuten im Festkörper haben (31 % - 48 %) als die Verbindungen mit Quaterphenyl als Chromophor (15 % - 30 %). In den beiden Klassen haben jeweils die sterisch anspruchsvollen Octopusvarianten die höchsten Festkörperquantenausbeuten. Durch verdünnen mit m,m-Spirosexiphenyl konnte die Quantenausbeute von p,p-Spirosexiphenyl in dünnen festen Filmen bis auf 65 % (95 % m,m- und 5 % p,p-Spirosexiphenyl) gesteigert werden. Eine Korrelation der Quantenausbeuten in Lösung und im festen, unverdünnten Film wurde nicht festgestellt. Als dünne Filme in Wellenleitergeometrie zeigen Spirooligophenyle bei optischer Anregung verstärkte spontane Emission (ASE). Dies manifestiert sich in einer Einengung des Emissionsspektrums mit zunehmender Pumpleistungsdichte. Auch für stimulierte Emission sind die Verbindungen mit Sexiphenylchromophor besser geeignet. Die niedrigste Schwelle in einer unverdünnten Reinsubstanz wurde mit 0.23 µJ/cm² in einer aufgeschleuderten Schicht Spirosexiphenyl gemessen. Auch 4-Spiro³, Spiro-SPO und Octo-2 zeigten niedrige ASE-Schwellen von 0.45 µJ/cm², 0.45 µJ/cm² und 0.5 µJ/cm². Die ASE-Schwellwerte von Spiroquaterphenyl und seinen beiden Derivaten Methoxyspiroquaterphenyl und Octo-1 sind mit 1.8 µJ/cm², 1.4 µJ/cm² und 1.2 µJ/cm² höher als die der Sexiphenylderivate. Im gemischten System aus m,m- und p,p-Spirosexiphenyl konnte die ASE-Schwelle noch weiter gesenkt werden. Bei einer Konzentration von 5 % p,p-Spirosexiphenyl wurde ein Schwellwert von nur 100 nJ/cm² bestimmt. Durch Dotierung mit unterschiedlichen Farbstoffen in Spirosexiphenyl als Matrix konnte ASE fast über den gesamten sichtbaren Spektralbereich gezeigt werden. Mit der „variable Streifenlänge“ (VSL-) -Methode wurden die pumpleistungsabhängigen Gainspektren dünner aufgedampfter Proben gemessen. Hieraus konnten die Wechselwirkungsquerschnitte der stimulierten Emission der Substanzen ermittelt werden. In Übereinstimmung mit den Verhältnissen bei den Festkörperfluoreszenzquantenausbeuten und den Schwellwerten der ASE sind auch bei den Gainkoeffizienten reiner Spirooligophenyle die besten Werte bei den Sexiphenylderivaten gefunden worden. Der Wirkungsquerschnitt der stimulierten Emission beträgt für Methylspiroquaterphenyl und Octo-1 ca. 1.8*10^-17 cm². Für Spiro-SPO und Spirosexiphenyl wurden Wirkungsquerschnitte von 7.5*10^-17 cm² bzw. 9.2*10^-17 cm² bestimmt. Noch etwas größer waren die Werte im gemischten System aus m,m- und p,p-Spirosexiphenyl (1.1*10^-16 cm²) und für DPAVB dotiert in Spirosexiphenyl (1.4*10^-16 cm²). Der höchste Maximalwert des Gainkoeffizienten von 328 cm-1 bei einer absorbierten Pumpenergiedichte von 149 µJ/cm² wurde mit Spirosexiphenyl erreicht. Abschließend wurden DFB-Laser-Strukturen mit reinen und dotierten Spirooligophenylverbindungen als aktiven Materialien vorgestellt. Mit Spiroterphenyl konnte ein DFB-Laser mit der bisher kürzesten Emissionswellenlänge (361.9 nm) in einem organischen Festkörperlaser realisiert werden. Mit reinen Spirooligophenylverbindungen und Mischungen daraus habe ich DFB-Lasing bei Wellenlängen zwischen 361.9 nm und 479 nm aufgezeigt. Durch Dotierung mit DPAVB wurde der Bereich der erreichbaren Wellenlängen bis 536 nm erweitert, bei gleichzeitiger Erniedrigung der Schwellenergiedichten für Lasertätigkeit. Bei Emissionswellenlängen von 495 nm bis 536 nm blieb die Laserschwelle zwischen 0.8 µJ/cm² und 1.1 µJ/cm². Diese Werte sind für DFB-Laser zweiter Ordnung sehr niedrig und geben Anlass zu glauben, dass sich mit DFB-Strukturen erster Ordnung Schwellen im Nanojoule Bereich erzielen lassen. Damit würde man den Bedingungen für elektrisch gepumpten Betrieb nahe kommen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das von Maz'ya eingeführte Approximationsverfahren, die Methode der näherungsweisen Näherungen (Approximate Approximations), kann auch zur numerischen Lösung von Randintegralgleichungen verwendet werden (Randpunktmethode). In diesem Fall hängen die Komponenten der Matrix des resultierenden Gleichungssystems zur Berechnung der Näherung für die Dichte nur von der Position der Randpunkte und der Richtung der äußeren Einheitsnormalen in diesen Punkten ab. Dieses numerisches Verfahren wird am Beispiel des Dirichlet Problems für die Laplace Gleichung und die Stokes Gleichungen in einem beschränkten zweidimensionalem Gebiet untersucht. Die Randpunktmethode umfasst drei Schritte: Im ersten Schritt wird die unbekannte Dichte durch eine Linearkombination von radialen, exponentiell abklingenden Basisfunktionen approximiert. Im zweiten Schritt wird die Integration über den Rand durch die Integration über die Tangenten in Randpunkten ersetzt. Für die auftretende Näherungspotentiale können sogar analytische Ausdrücke gewonnen werden. Im dritten Schritt wird das lineare Gleichungssystem gelöst, und eine Näherung für die unbekannte Dichte und damit auch für die Lösung der Randwertaufgabe konstruiert. Die Konvergenz dieses Verfahrens wird für glatte konvexe Gebiete nachgewiesen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Für die Entwicklung selbstorganisierter Monoschichten (SAMs) auf Gold(111)-Oberflächen wurden neue, redox-funktionalisierte Schwefel-Tripodliganden synthetisiert. Um die tripodale Struktur zu realisieren, wurde Adamantan als vierbindiges Zentrum eingesetzt. Die Anbindung an die Goldoberfläche wurde durch Thioethereinheiten ermöglicht, eventuelle laterale Wechselwirkungen durch Alkylseitenketten an den Thioethereinheiten, sowie durch lineare, rigide Spacereinheiten wurden untersucht. Als redoxaktive, funktionelle Einheit wurde ein Ferrocenylrest an den Liganden eingeführt. Gebildete monomolekulare Filme der Liganden auf Gold wurden mit Hilfe von Röntgenphotoelektronenspektroskopie (XPS), Nahkanten-Reflexions-Röntgenabsorptionsspektroskopie (NEXAFS) und Sum-Frequency-Generation (SFG) charakterisiert, um die Filmqualität, die Bindung ans Substrat und Orientierungsordnung im Film zu ermitteln.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Arbeit werden zunächst die wesentlichsten Fakten über Schiefpolynome wiederholt, der Fokus liegt dabei auf Shift- und q-Shift-Operatoren in Charakteristik Null. Alle für die Arithmetik mit diesen Objekten notwendigen Konzepte und Algorithmen finden sich im ersten Kapitel. Einige der zur Bestimmung von Lösungen notwendigen Daten können aus dem Newtonpolygon, einer den Operatoren zugeordneten geometrischen Figur, abgelesen werden. Die Herleitung dieser Zusammenhänge ist das Thema des zweiten Kapitels der Arbeit, wobei dies insbesondere im q-Shift-Fall in dieser Form neu ist. Das dritte Kapitel beschäftigt sich mit der Bestimmung polynomieller und rationaler Lösungen dieser Operatoren, dabei folgt es im Wesentlichen der Darstellung von Mark van Hoeij. Der für die Faktorisierung von (q-)Shift Operatoren interessanteste Fall sind die sogenannten (q-)hypergeometrischen Lösungen, die direkt zu Rechtsfaktoren erster Ordnung korrespondieren. Im vierten Kapitel wird der van Hoeij-Algorithmus vom Shift- auf den q-Shift-Fall übertragen. Außerdem wird eine deutliche Verbesserung des q-Petkovsek-Algorithmus mit Hilfe der Daten des Newtonpolygons hergeleitet. Das fünfte Kapitel widmet sich der Berechnung allgemeiner Faktoren, wozu zunächst der adjungierte Operator eingeführt wird, der die Berechnung von Linksfaktoren erlaubt. Dann wird ein Algorithmus zur Berechnung von Rechtsfaktoren beliebiger Ordnung dargestellt. Für die praktische Benutzung ist dies allerdings für höhere Ordnungen unpraktikabel. Bei fast allen vorgestellten Algorithmen tritt das Lösen linearer Gleichungssysteme über rationalen Funktionenkörpern als Zwischenschritt auf. Dies ist in den meisten Computeralgebrasystemen nicht befriedigend gelöst. Aus diesem Grund wird im letzten Kapitel ein auf Evaluation und Interpolation basierender Algorithmus zur Lösung dieses Problems vorgestellt, der in allen getesteten Systemen den Standard-Algorithmen deutlich überlegen ist. Alle Algorithmen der Arbeit sind in einem MuPAD-Package implementiert, das der Arbeit beiliegt und eine komfortable Handhabung der auftretenden Objekte erlaubt. Mit diesem Paket können in MuPAD nun viele Probleme gelöst werden, für die es vorher keine Funktionen gab.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit befasst sich mit den Fehlern, die bei der Berechnung von Tragstrukturen auftreten können, dem Diskretisierungs- und dem Modellfehler. Ein zentrales Werkzeug für die Betrachtung des lokalen Fehlers in einer FE-Berechnung sind die Greenschen Funktionen, die auch in anderen Bereichen der Statik, wie man zeigen kann, eine tragende Rolle spielen. Um den richtigen Einsatz der Greenschen Funktion mit der FE-Technik sicherzustellen, werden deren Eigenschaften und die konsistente Generierung aufgezeigt. Mit dem vorgestellten Verfahren, der Lagrange-Methode, wird es möglich auch für nichtlineare Probleme eine Greensche Funktion zu ermitteln. Eine logische Konsequenz aus diesen Betrachtungen ist die Verbesserung der Einflussfunktion durch Verwendung von Grundlösungen. Die Greensche Funktion wird dabei in die Grundlösung und einen regulären Anteil, welcher mittels FE-Technik bestimmt wird, aufgespalten. Mit dieser Methode, hier angewandt auf die Kirchhoff-Platte, erhält man deutlich genauere Ergebnisse als mit der FE-Methode bei einem vergleichbaren Rechenaufwand, wie die numerischen Untersuchungen zeigen. Die Lagrange-Methode bietet einen generellen Zugang zur zweiten Fehlerart, dem Modellfehler, und kann für lineare und nichtlineare Probleme angewandt werden. Auch hierbei übernimmt die Greensche Funktion wieder eine tragende Rolle, um die Auswirkungen von Parameteränderungen auf ausgewählte Zielgrößen betrachten zu können.