118 resultados para MKS-Modell


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Optische Spektrometer sind bekannte Instrumente für viele Anwendungen in Life Sciences, Produktion und Technik aufgrund ihrer guten Selektivität und Sensitivität zusammen mit ihren berührungslosen Messverfahren. MEMS (engl. Micro-electro-mechanical system)-basierten Spektrometer werden als disruptive Technologie betrachtet, in der miniaturisierte Fabry-Pérot Filter als sehr attraktiv für die optische Kommunikation und 'Smart Personal Environments', einschließlich des medizinischen Anwendungen, zu nennen sind. Das Ziel dieser Arbeit ist, durchstimmbare Filter-Arrays mit kostengünstigen Technologien herzustellen. Materialien und technologische Prozesse, die für die Herstellung der Filter-Arrays benötigt werden, wurden untersucht. Im Rahmen dieser Arbeit, wurden durchstimmbare Fabry Pérot Filter-Arrays für den sichtbaren Spektralbereich untersucht, die als Nano-Spektrometer eingesetzt werden. Darüber hinaus wurde ein Modell der numerischen Simulation vorgestellt, die zur Ermittlung eines optimales geometrisches Designs verwendet wurde, wobei sich das Hauptaugenmerk der Untersuchung auf die Durchbiegung der Filtermembranen aufgrund der mechanischen Verspannung der Schichten richtet. Die geometrische Form und Größe der Filtermembranen zusammen mit der Verbindungsbrücken sind von entscheidender Bedeutung, da sie die Durchbiegung beeinflussen. Lange und schmale Verbindungsbrücken führen zur stärkeren Durchbiegung der Filtermembranen. Dieser Effekt wurde auch bei der Vergrößerung der Durchmesser der Membran beobachtet. Die Filter mit spiralige (engl. curl-bent) Verbindungsbrücken führten zu geringerer Deformation als die mit geraden oder gebogenen Verbindungsbrücken. Durchstimmbare Si3N4/SiO2 DBR-basierende Filter-Arrays wurden erfolgreich hergestellt. Eine Untersuchung über die UV-NIL Polymere, die als Opferschicht und Haltepfosten-Material der Filter verwendet wurden, wurde durchgeführt. Die Polymere sind kompatibel zu dem PECVD-Verfahren, das für die Spiegel-Herstellung verwendet wird. Die laterale Strukturierung der DBR-Spiegel mittels des RIE (engl. Reactive Ion Etching)-Prozesses sowie der Unterätz-Prozess im Sauerstoffplasma zur Entfernung der Opferschicht und zum Erreichen der Luftspalt-Kavität, wurden durchgeführt. Durchstimmbare Filter-Arrays zeigten einen Abstimmbereich von 70 nm bei angelegten Spannungen von weniger als 20 V. Optimierungen bei der Strukturierung von TiO2/SiO2 DBR-basierenden Filtern konnte erzielt werden. Mit der CCP (engl. Capacitively Coupling Plasma)-RIE, wurde eine Ätzrate von 20 nm/min erreicht, wobei Fotolack als Ätzmaske diente. Mit der ICP (engl. Inductively Coupling Plasma)-RIE, wurden die Ätzrate von mehr als 60 nm/min mit einem Verhältniss der Ar/SF6 Gasflüssen von 10/10 sccm und Fotolack als Ätzmasken erzielt. Eine Ätzrate von 80 bis 90 nm/min wurde erreicht, hier diente ITO als Ätzmaske. Ausgezeichnete geätzte Profile wurden durch den Ätzprozess unter Verwendung von 500 W ICP/300 W RF-Leistung und Ar/SF6 Gasflüsse von 20/10 sccm erreicht. Die Ergebnisse dieser Arbeit ermöglichen die Realisierung eines breiten Spektralbereichs der Filter-Arrays im Nano-Spektrometer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The rapid growth in high data rate communication systems has introduced new high spectral efficient modulation techniques and standards such as LTE-A (long term evolution-advanced) for 4G (4th generation) systems. These techniques have provided a broader bandwidth but introduced high peak-to-average power ratio (PAR) problem at the high power amplifier (HPA) level of the communication system base transceiver station (BTS). To avoid spectral spreading due to high PAR, stringent requirement on linearity is needed which brings the HPA to operate at large back-off power at the expense of power efficiency. Consequently, high power devices are fundamental in HPAs for high linearity and efficiency. Recent development in wide bandgap power devices, in particular AlGaN/GaN HEMT, has offered higher power level with superior linearity-efficiency trade-off in microwaves communication. For cost-effective HPA design to production cycle, rigorous computer aided design (CAD) AlGaN/GaN HEMT models are essential to reflect real response with increasing power level and channel temperature. Therefore, large-size AlGaN/GaN HEMT large-signal electrothermal modeling procedure is proposed. The HEMT structure analysis, characterization, data processing, model extraction and model implementation phases have been covered in this thesis including trapping and self-heating dispersion accounting for nonlinear drain current collapse. The small-signal model is extracted using the 22-element modeling procedure developed in our department. The intrinsic large-signal model is deeply investigated in conjunction with linearity prediction. The accuracy of the nonlinear drain current has been enhanced through several issues such as trapping and self-heating characterization. Also, the HEMT structure thermal profile has been investigated and corresponding thermal resistance has been extracted through thermal simulation and chuck-controlled temperature pulsed I(V) and static DC measurements. Higher-order equivalent thermal model is extracted and implemented in the HEMT large-signal model to accurately estimate instantaneous channel temperature. Moreover, trapping and self-heating transients has been characterized through transient measurements. The obtained time constants are represented by equivalent sub-circuits and integrated in the nonlinear drain current implementation to account for complex communication signals dynamic prediction. The obtained verification of this table-based large-size large-signal electrothermal model implementation has illustrated high accuracy in terms of output power, gain, efficiency and nonlinearity prediction with respect to standard large-signal test signals.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Thema „Modellierung“ nimmt einen großen Bestandteil der aktuellen mathematikdidaktischen Diskussion ein, nicht zuletzt durch die verbindliche Einführung der von der Kultusministerkonferenz (KMK) beschlossenen Bildungsstandards 2005/2006. Auch den Sichtweisen oder Vorstellungen der Lernenden bezüglich der Mathematik kam in den vergangenen Jahren ein reges Interesse der mathematikdidaktischen Diskussion entgegen, in deren Verlauf sich der Begriff „Belief“ manifestierte, der eine filternde Funktion aufweist und in Kapitel 2.1 aufgegriffen wird. Es stellt sich nun die Frage, ob Modellierungen die Beliefs der Lernenden beeinflussen und somit verändern können.Nach der Einleitung werden im zweiten Kapitel theoretische Grundlagen der Beliefs, die Aspekte mathematischer Weltbilder sowie Modellierungen aufgegriffen. Die anschließenden Aspekte mathematischer Weltbilder werden aus den Perspektiven von Grigutsch (1998) und Maaß (2004) betrachtet und daraufhin für den hiesigen Gebrauch definiert. Um zu erklären, was sich hinter der mathematischen Modellierung verbirgt, wird zunächst der darin enthaltene Begriff „Modell“ beleuchtet, um dann zur mathematischen Modellierung zu gelangen. Nachdem festgehalten wurde, dass diese die Beziehung zwischen der Mathematik und dem „Rest der Welt“ (Pollak 1979, 233; zitiert nach Blum 1996, 18) bezeichnet, steht der Stellenwert in den Bildungsstandards im Vordergrund. Es schließt sich eine Diskussion der Ziele mathematischer Modellierung an, die in eine Beschreibung der Modellierungskompetenzen mündet, da diese ein beachtliches Ziel des Einsatzes von Modellierungen darstellen. Den Abschluss des zweiten Kapitels bilden eine allgemeine Auseinandersetzung mit der mathematischen Modellierung in der Grundschule und die Präzisierung der Forschungsfragen. Das dritte Kapitel beschäftigt sich mit der in dieser Arbeit relevanten Methodik. Der allgemeinen Beschreibung qualitativer Forschung folgt eine Darstellung der Datenerhebung, indem auf das Sampling eingegangen wird. Der nachfolgenden Beleuchtung der Erhebungsmethoden - Fragebogen, Interview, Hospitation - schließt sich eine Auseinandersetzung mit den Auswertungsmethoden an. In Kapitel 4 wird die praktische Umsetzung der Studie beschrieben. Das fünfte Kapitel stellt die Ergebnisse der Erhebungsmethoden dar und diskutiert diese. Die abschließende Schlussbetrachtung fasst die Hauptaussagen der Arbeit noch einmal zusammen und beantwortet die Forschungsfragen, um somit ein Fazit zu ziehen und einen Ausblick geben zu können. Die Forschungsfragen leiten sich von der Hauptfrage dieser Arbeit ab, die sich folgendermaßen stellt: Veränderung der Sichtweise von Grundschulkindern zur Mathematik durch Modellierung? Die Komplexität der Forschungsfragen ergibt sich im weiteren Verlauf der Arbeit und wird an passender Stelle festgehalten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bei der Arbeit an sicherheitsgerichteten Kommunikationsprotokollen stellten sich immer wieder die Fragen nach der Eignung von einzelnen Mechanismen der Protokolle, um den Gefährdungen entsprechende Maßnahmen zur Beherrschung entgegenzusetzen. Dabei waren durchweg die Anforderungen der IEC 61508 mit dem Safety Integrity Level 3 zu erfüllen. Die IEC 61508-2 ist mit 5 Zeilen Umfang für die wesentlichen Anforderungen an die sicherheitsgerichtete Kommunikation sehr kurz gehalten und die IEC 61784-3 war zu Beginn der Arbeiten noch nicht veröffentlicht. Aber die IEC 61784-3 stellt auch heute nur einen unvollständigen Kriterienkatalog zusammen. Insbesondere die in IEC 61508-2 geforderte quantitative Analyse wird in der IEC 61784-3 nicht ausreichend thematisiert. In bisherigen sicherheitsgerichteten Protokollen und den relevanten Normen des Anwendungsbereichs fanden die Gefährdungspotentiale, wie Masquerading und Adressierung in offenen Übertragungssystemen, absichtliche Unterminierung der Sicherheitsmechanismen und fehlerhafte Konfiguration keine ausreichende Beachtung und die Gefährdungen durch absehbaren Missbrauch, absehbare Fehlbedienung und unberechtigter Zugriff auf sichere Kommunikationseinrichtungen wurde nur in Randgebieten diskutiert. Hier zeigt die vorliegende Arbeit die Bedeutung dieser für den Einsatz von sicherheitsgerichteten Kommunikationsprotokollen im industriellen Umfeld auf und folgert daraus die entsprechenden Maßnahmen, die in der Verantwortung des Anwenders liegen, bzw. zum Teil auch durch Protokollmechanismen beherrscht werden können. Die Arbeit stellt einen umfassenden Gefährdungskatalog auf und bewertet nach diesem Katalog die am weitest verbreiteten sicherheitsgerichteten Kommunikationsprotokolle nach einem einheitlichen Maßstab. Weiter zeigt die vorgelegte Arbeit, dass auch ein existierendes Zertifikat gemäß IEC 61508 SIL3 nicht in jedem Fall ausreichend ist, um die Eignung eines Protokolls für den Einsatz gemäß dem aktuellen Stand der Normen zu bestätigen. Hervor zu heben ist insbesondere die quantitative Bewertung jeder einzelnen Maßnahme der Protokolle. Bislang wurde diese nur für die Beherrschung von verfälschten Nachrichten durchgeführt. Die Arbeit führt diese quantitative Bewertung der eingesetzten Maßnahmen systematisch durch und zeigt dabei, dass diese Bewertung dringend erforderlich ist, da die betrachteten öffentlichen Protokolle nicht die für SIL3 notwendige Güte für alle ihre Maßnahmen aufweisen, bzw. aufwiesen. Einer der Schwerpunkte dieser Arbeit ist die Definition von Verarbeitungsmodellen für die Berechnung der maximalen Reaktionszeit und der Worst-Case Reaktionszeit. Dazu wurde ein Modell aus 5 Komponenten erstellt, dass geeignet ist, die Reaktionszeit über ein Kommunikationssystem für die im industriellen Umfeld gebräuchlichen Anwendungen zu untersuchen. Diese 5 Komponenten, das Eingangsmodul, die Sicherheitssteuerung, die Kommunikation zwischen beiden, sowie das Ausgangsmodul und die Kommunikation zwischen diesem und der Sicherheitssteuerung. Anhand dieses Modells wurde die maximale Reaktionszeit definiert. Dies ist die Zeit, die von der Änderung eines physikalischen Eingangssignals der Eingangskomponente, bis zur zugehörigen Reaktion des physikalischen Ausgangssignals der Ausgangskomponente, über die Sicherheitssteuerung hinweg, benötigt wird. Die maximale Reaktionszeit betrachtet dabei den Fall, dass im gesamten System aus diesen 5 Komponenten kein Fehler eine Wirkung entfaltet. Die Worst-Case Reaktionszeiten der Protokolle sind auf Grund der verschiedenen Konzepte sehr differenziert zu betrachten. Erschwerend kommt hier noch hinzu, dass die im konkreten System erreichte minimale Worst-Case Reaktionszeit stark von der Implementierung des jeweiligen Herstellers abhängt. Ebenso problematisch ist die unterschiedliche Modellbildung der jeweiligen Protokoll-Organisationen. Es werden Fehlerausschlüsse gemacht, wie die Annahme, dass nur ein Fehler auftritt und dieser Fehler sich nicht auf die Verbindung zwischen Eingangsmodul und Sicherheitssteuerung und auf die Verbindung zwischen Sicherheitssteuerung und Ausgangsmodul gleichzeitig auswirken kann. Da für den sicherheitsgerichteten Einsatz die maximale Reaktionszeit mit Fehlern die relevante Betrachtungseinheit darstellt, wurden anhand des Modells die Worst-Case 1 und 2 Reaktionszeiten definiert. Die erste definiert die Zeit die eine Reaktion maximal benötigt, wenn im Kommunikationssystem eine Fehlerwirkung vorliegt und bei der zweiten wird angenommen, dass mehrere der 5 Komponenten von Fehlerwirkungen betroffen sein können. Um einen vertieften Einblick in die Thematik zu erhalten, wurde im Rahmen dieser Arbeit ein eigenes sicherheitsgerichtetes Kommunikationsprotokoll spezifiziert, entworfen und realisiert. Hierbei wurde besonderer Augenmerk auf die Wirksamkeit des Verfälschungsschutzes mittels CRCs für kurze Nachrichten gelegt und ebenso die Wirksamkeit gekoppelter CRCs betrachtet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Auf dem Gebiet der Strukturdynamik sind computergestützte Modellvalidierungstechniken inzwischen weit verbreitet. Dabei werden experimentelle Modaldaten, um ein numerisches Modell für weitere Analysen zu korrigieren. Gleichwohl repräsentiert das validierte Modell nur das dynamische Verhalten der getesteten Struktur. In der Realität gibt es wiederum viele Faktoren, die zwangsläufig zu variierenden Ergebnissen von Modaltests führen werden: Sich verändernde Umgebungsbedingungen während eines Tests, leicht unterschiedliche Testaufbauten, ein Test an einer nominell gleichen aber anderen Struktur (z.B. aus der Serienfertigung), etc. Damit eine stochastische Simulation durchgeführt werden kann, muss eine Reihe von Annahmen für die verwendeten Zufallsvariablengetroffen werden. Folglich bedarf es einer inversen Methode, die es ermöglicht ein stochastisches Modell aus experimentellen Modaldaten zu identifizieren. Die Arbeit beschreibt die Entwicklung eines parameter-basierten Ansatzes, um stochastische Simulationsmodelle auf dem Gebiet der Strukturdynamik zu identifizieren. Die entwickelte Methode beruht auf Sensitivitäten erster Ordnung, mit denen Parametermittelwerte und Kovarianzen des numerischen Modells aus stochastischen experimentellen Modaldaten bestimmt werden können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit befasst sich mit der Modellbildung mechatronischer Systeme mit Reibung. Geeignete dynamische Modelle sind die Grundlage für verschiedenste Aufgabenstellungen. Sind dynamische Prozessmodelle verfügbar, so können leistungsfähige modellbasierte Entwurfsmethoden angewendet werden sowie modellbasierte Anwendungen entwickelt werden. Allerdings ist der Aufwand für die Modellbildung ein beschränkender Faktor für eine weite Verbreitung modellbasierter Applikationen in der Praxis. Eine Automatisierung des Modellbildungsprozesses ist deshalb von großem Interesse. Die vorliegende Arbeit stellt für die Klasse „mechatronischer Systeme mit Reibung“ drei Modellierungsmethoden vor: semi-physikalische Modellierung, Sliding-Mode-Beobachter-basierte Modellierung und empirische Modellierung mit einem stückweise affinen (PWA) Modellansatz. Zum Ersten wird die semi-physikalische Modellierung behandelt. Gegenüber anderen Verfahren, die häufig umfangreiche Vorkenntnisse und aufwändige Experimente erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand automatisiert werden kann. Zum Zweiten wird ein neuer Ansatz zur Reibkraftrekonstruktion und Reibmodellierung mittels Sliding-Mode-Beobachter präsentiert. Durch Verwendung des vorgestellten Sliding-Mode- Beobachters, der basierend auf einem einfachen linearen Zustandsraummodell entworfen wird, lässt sich die Reibung datengetrieben aus den Ein-/Ausgangsmessdaten (im offenen Regelkreis) rekonstruieren und modellieren. Im Vergleich zu anderen Reibmodellierungsmethoden, die häufig umfangreiche Vorkenntnisse und aufwändige Messungen im geschlossenen Regelkreis erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand weitgehend automatisiert werden kann. Zum Dritten wird ein PWA-Modellierungsansatz mit einer clusterungsbasierten Identifikationsmethode für Systeme mit Reibung vorgestellt. In dieser Methode werden die Merkmale in Hinblick auf Reibeffekte ausgewählt. Und zwar wird der klassische c-Means-Algorithmus verwendet, welcher bedienfreundlich, effizient und geeignet für große und reale Datensätze ist. Im Gegensatz zu anderen Methoden sind bei dieser Methode nur wenige Entwurfsparameter einzustellen und sie ist für reale Systeme mit Reibung einfach anwendbar. Eine weitere Neuheit der vorgestellten PWA-Methode liegt darin, dass die Kombination der Clustervaliditätsmaße und Modellprädiktionsfehler zur Festlegung der Anzahl der Teilmodelle benutzt wird. Weiterhin optimiert die vorgestellte Methode die Parameter der lokalen Teilmodelle mit der OE (Output-Fehler)-Schätzmethode. Als Anwendungsbeispiele werden Drosselklappen, Drallklappen und AGR-Ventile (Abgasrückführventil) im Dieselfahrzeug betrachtet und die erzeugten Modelle werden in der industriellen HiL-Simulation eingesetzt. Aufgrund der Effizienz und Effektivität der Modellierungsmethoden sind die vorgestellten Methoden direkt in der automobilen Praxis einsetzbar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die medienpädagogische Förderung junger Menschen aus problematischen Familien, sozio-kulturellen Problemlagen, der sogenannten neuen Unterschicht bzw. die Förderung von Hauptschülern, insbesondere Jungen, ist das zentrale Anliegen dieses Buches. Das sind diejenigen Lerner, die die Anforderungen für einen qualifizierten Schulabschluss, die Basiskompetenzen im Sinne der PISA-Studien, nicht oder kaum erfüllen, Distanz zur Schule haben bzw. aus schwierigen sozio-ökonomischen Bevölkerungsgruppen stammen. Diese Gruppe, meist Jungen, häufig mit Migrationshintergrund, versucht der Begriff Risikolerner zu fassen. Die Frage nach Risikolernern eröffnet die Perspektive auf Kompetenzen und kulturelle Ressourcen, mit denen es Risikolernern gelingt, Medien selbstbestimmt und reflexiv für die eigene Persönlichkeitsentwicklung sowie Lebens- und Alltagsbewältigung aktiv zu nutzen (Niesyto, 2010, S. 315). Zentrales Thema und Fragestellung dieses Buches ist, welche Bildungschancen in den Mediennutzungsmustern der Risikolerner stecken. Aus theoretischer Perspektive geht es um die Frage, wie und mit welchen Mustern sich Risikolerner Medien als Kulturgüter aneignen. Die pädagogische Leitfrage, die an den Gedanken der Bildung geknüpft ist, lautet, wie die Entwicklung und damit das Lernen der Risikolerner mit ihren Mediennutzungsmustern, also ihren Aneignungsmustern in Bezug auf Medien, verbunden ist. Die medienpädagogische Frage nach den Chancen für Medienbildung von Risikolernern fundiert auf der Theorie der Medienbildung und auf dem kulturtheoretischen Modell der Sozio-kulturellen Ökologie, wie sie von der London Mobile Learning Group (LMLG; www.londonmobilelearning.net) entwickelt wurde (Pachler, Bachmair, & Cook, 2010). Auf der Grundlage dieser Theorien verortet diese Arbeit die Gruppe der Risikolerner im Zusammenhang von Lebenswelt und Lebenslagen und ordnet diese spezifische Gruppe von Lernern mit Bezug auf individuelle, schulische und gesellschaftliche Risiken ein. Die Gender-Perspektive öffnet den Blick für bestimmte jungenspezifische Aneignungsmuster im Zusammenhang mit Medien und eröffnet im nächsten Schritt die Möglichkeit, Bildungschancen speziell für Jungen zu formulieren. Ein genderbezogener Entwicklungsprozess, der die Lebenswelt der Jungen betrifft, ist die Auflösung hegemonialer Männlichkeit und die Transformation hin zu multioptionalen und situierten Männlichkeiten, die es von Jungen auszubalancieren gilt. Die Sozialstrukturanalyse der Soziologie dient als methodischer Zugang, um Risikolerner systematisch zu identifizieren und um mithilfe der sozialen Segmentierung entsprechende Ergebnisse in Bezug auf Mediennutzung und Alltagsbewältigung zu formulieren. Diese medienpädagogische Forschung ist eine Rekonstruktion der Mediennutzung über die Spuren der Artikulation und Aneignung, wie sie in den Konsumdaten repräsentiert sind, mit dem Ziel, die Aneignungsprozesse und die darin inhärenten Bildungschancen sichtbar zu machen. Risikolerner sind in der Perspektive gesellschaftlicher und alltagsästhetischer Strukturen ein eher hedonistischer, widerständiger Lifestyle, geprägt von sozialer Benachteiligung und von aktivem Risikoverhalten sowie von einer Mediennutzung, die schulischen Aneignungsformen eher entgegengesetzt ist. Die zentralen Ergebnisse und damit Chancen für Medienbildung der Risikolerner entstehen in drei Bereichen der Mediennutzungsmuster: im Downloaden, Speichern und Tauschen vielfältiger Formate; im (mobilen) Gaming; sowie im vielfältigen Produzieren und Verarbeiten von auditivem und visuellem Material. Mit diesen Mustern sind drei bedeutsame Bildungschancen verknüpft: durch Risikolerner generierte alternative Räume der Medienbildung, die strukturell entgegen der Lernwelt Schule ausgerichtet sind; das kommunikative Organisieren des Alltags und der Mediennutzung; sowie das Generieren von digitalen Sammlungen und Archiven als persönlicher Besitz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hauptziel dieser Arbeit ist die Identifizierung, Verifizierung und Charakterisierung von Interaktionspartnern von HelF, einem Negativregulator der RNA-Interferenz in Dictyostelium discoideum (Popova et al. 2006). Es ist gelungen, die Interaktion von HelF und der 5‘ 3‘ Exonuklease Xrn1 nachzu-weisen, aber alle anderen Versuchen, bisher unbekannte Protein-Interaktionspartner zu identifizieren, schlugen fehl. Xrn1 ist in den Organismen D. melanogaster (Orban und Izaurralde 2005), C. elegans (Newbury und Woollard 2004) und A. thaliana (Gazzani et al. 2004) bereits als Regulator der RNA-Interferenz bekannt. Mit Aufreinigungen nach der TAP-Methode und mit dem Nanotrap wurde ebenfalls versucht, RNA-Interaktionspartner von HelF zu identifizieren. Es konnten in einigen Aufreinigungen putative, für HelF spezifische RNAs identifiziert werden, doch entweder es handelte sich nachweislich nicht um RNA oder die Reproduktion der Daten schlug trotz mehrfacher Versuche fehl. Bezüglich der zellulären Lokalisation von HelF und Xrn1 konnte gezeigt werden, dass HelF zusätzlich zur bekannten Lokalisation in Foci im Nukleus (Popova et al. 2006) vermutlich auch im Cytoplasma und dort angeordnet in mehreren Granula zu finden ist. Xrn1 ist nahezu ausschließlich im Cytoplasma lokalisiert, wo es in mehreren Foci organisiert ist. Es wird vermutet, dass es sich bei diesen Foci um Processing-Bodies (P-Bodies) handelt und dass möglicherweise Xrn1 und HelF in eben diesen P-Bodies co-lokalisieren. In der Entwicklung vom Einzeller zum mehrzelligen Organismus zeigen die Xrn1KO- und die HelFKO-Mutante jeweils einen eindeutigen Phänotyp, der vom Wildtyp abweicht. Die Phänotypen der beiden Mutanten unterscheiden sich deutlich voneinander. Beim Mischen von HelF-Knockout-Zellen mit grün fluoreszierenden Wildtyp-Zellen zeigt sich, dass beide Stämme innerhalb des sich entwickelnden Organismus an definierten Stellen lokalisieren. Entgegen den Erwartungen befinden sich die Zellen der Mutante in den Stadien „Finger“ und „Slug“ nicht hauptsächlich im vorderen Teil des Organismus, sondern sind auch im hinteren Teil, der später die Sporenmasse bildet, vertreten. Dies lässt vermuten, dass HelF-Knockout-Mutanten in gleichem Maße wie Wildtypzellen als Sporen in die nächste Generation übergehen. Weitere Mix-Experimente, in denen HelFKO-Zellen und Xrn1KO-Zellen mit grün fluoreszierenden Wildtypzellen gemischt wurden, belegen eindeutig, dass beide Knockoutmutanten in Konkurrenz zum Wildtyp bei der Generierung von Sporen und somit beim Übergang in die nächste Generation benachteiligt sind. Dies steht im Gegensatz zu den Ergebnissen der vorher beschriebenen Mix-Experimente, in denen der Organismus als Ganzes betrachtet wurde. Weiterhin konnte herausgefunden werden, dass Xrn1 ebenso wie HelF (Popova et al. 2006) eine Rolle als Negativregulator in der RNA-Interferenz innehat. Fraglich ist aber, ob HelF wie bisher angenommen auch Einfluss auf den Weg der Generierung von miRNAs nimmt, da in HelFKO für keinen der beiden miRNA-Kandidaten eine Hoch- bzw. Runterregulierung der reifen miRNAs im Vergleich zum Wildtyp beobachtet werden kann. Im Xrn1KO hingegen ist die reife miRNA ddi-mir-1176 im Vergleich zum Wildtyp hochreguliert. In Bezug auf die Generierung von siRNAs konnte herausgefunden werden, dass Xrn1 und HelF im Fall der Generierung von Skipper siRNAs regulierend eingreifen, dass aber nicht alle siRNAs von der negativen Regulierung durch HelF und Xrn1betroffen sind, was am Beispiel der DIRS-1-siRNAs belegt werden kann. Das von B. Popova entwickelte Modell (Popova 2005) bezüglich der Rolle von HelF in der RNA-Interferenz wurde basierend auf den neu gewonnenen Daten weiterentwickelt und um Xrn1 ergänzt, um die Funktionen von HelF und Xrn1 als Antagonisten der RNA-Interferenz näher zu beleuchten. Literatur: Gazzani, S., T. Lawrenson, et al. (2004). "A link between mRNA turnover and RNA interference in Arabidopsis." Science 306(5698): 1046-8. Newbury, S. and A. Woollard (2004). "The 5'-3' exoribonuclease xrn-1 is essential for ventral epithelial enclosure during C. elegans embryogenesis." Rna 10(1): 59-65. Orban, T. I. and E. Izaurralde (2005). "Decay of mRNAs targeted by RISC requires XRN1, the Ski complex, and the exosome." Rna 11(4): 459-69. Popova, B. (2005). HelF, a suppressor of RNAi mediated gene silencing in Dictyostelium discoideum. Genetik. Kassel, Universität Kassel. PhD: 200. Popova, B., M. Kuhlmann, et al. (2006). "HelF, a putative RNA helicase acts as a nuclear suppressor of RNAi but not antisense mediated gene silencing." Nucleic Acids Res 34(3): 773-84.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

To study the behaviour of beam-to-column composite connection more sophisticated finite element models is required, since component model has some severe limitations. In this research a generic finite element model for composite beam-to-column joint with welded connections is developed using current state of the art local modelling. Applying mechanically consistent scaling method, it can provide the constitutive relationship for a plane rectangular macro element with beam-type boundaries. Then, this defined macro element, which preserves local behaviour and allows for the transfer of five independent states between local and global models, can be implemented in high-accuracy frame analysis with the possibility of limit state checks. In order that macro element for scaling method can be used in practical manner, a generic geometry program as a new idea proposed in this study is also developed for this finite element model. With generic programming a set of global geometric variables can be input to generate a specific instance of the connection without much effort. The proposed finite element model generated by this generic programming is validated against testing results from University of Kaiserslautern. Finally, two illustrative examples for applying this macro element approach are presented. In the first example how to obtain the constitutive relationships of macro element is demonstrated. With certain assumptions for typical composite frame the constitutive relationships can be represented by bilinear laws for the macro bending and shear states that are then coupled by a two-dimensional surface law with yield and failure surfaces. In second example a scaling concept that combines sophisticated local models with a frame analysis using a macro element approach is presented as a practical application of this numerical model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese wissenschaftliche Examensarbeit beschäftigt sich mit der Frage, welche Rolle die Intuition beim Mathematischen Modellieren spielt. Da bisher kaum Erkenntnisse zu diesem Thema in der Welt der Mathematik existieren, findet hierzu eine empirische Annäherung in Form von Befragungen, Beobachtungen und Interviews von einer Gruppe von Schülern und Schülerinnen an einer Schule statt. Der erste theoretische Ausarbeitungsteil wird die Frage beantworten, was unter Intuition zu verstehen ist und wie dieser Begriff einzuordnen ist. Im zweiten Theorieteil wird das Mathematische Modellieren erklärt. Hierzu wird ein kurzer Überblick über die Aspekte der Begriffserklärung, des Prozesses und der Entwicklung von Aufgaben beim Mathematischen Modellieren gegeben. Dies soll dazu führen, dass sich der Leser/ die Leserin unter dem Mathematischen Modellieren und deren Bedeutung in der Welt der Mathematik etwas vorstellen kann. Im dritten Theorieteil werden die bisherigen empirischen Erkenntnisse im Bereich der Mathematik und der Intuition vorgestellt. Seitens des Mathematischen Modellierens kann lediglich auf eine empirische Quelle eingegangen werden, da die Intuition in diesem Bereich bisher kaum untersucht wurde. Im zweiten Kapitel dieser Arbeit werden die methodologischen und methodischen Grundlagen der empirischen Annäherung dargestellt. Innerhalb dieses Kapitels sind auch die von mir entwickelten und eingesetzten Fragebögen, die Fragen des Leitfadeninterviews und die Modellierungs-aufgaben samt ihrer stoffdidaktischen Analyse zu finden. Des Weiteren befindet sich hier der Zeitplan der Untersuchung und die Darstellung über die von mir verwendeten Auswertungsmethoden der empirischen Annäherung. Das dritte Kapitel gibt einen Überblick über meine gewonnenen Ergebnis-se und geht speziell auf die von mir aufgestellten Hypothesengenerierungen ein. Des Weiteren wird an Hand eines Fallbeispieles mein Vorgehen bei der Datenauswertung exemplarisch und detailliert erläutert. Im letzten Kapitel dieser wissenschaftlichen Examensarbeit findet eine Zusammenfassung aller wichtigen Erkenntnisse statt. Hier wird auch erklärt, ob Intuition beim Mathematischen Modellieren erkennbar ist oder nicht. Wenn ja, welche Rolle die Intuition beim Mathematischen Modellieren spielt und wie sich die Intuition beim Mathematischen Modellieren erkennen lässt. Darüber hinaus werden Perspektiven für eine mögliche vertiefende Untersuchung aufgezeigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Dissertation werden Systeme von parallel arbeitenden und miteinander kommunizierenden Restart-Automaten (engl.: systems of parallel communicating restarting automata; abgekürzt PCRA-Systeme) vorgestellt und untersucht. Dabei werden zwei bekannte Konzepte aus den Bereichen Formale Sprachen und Automatentheorie miteinander vescrknüpft: das Modell der Restart-Automaten und die sogenannten PC-Systeme (systems of parallel communicating components). Ein PCRA-System besteht aus endlich vielen Restart-Automaten, welche einerseits parallel und unabhängig voneinander lokale Berechnungen durchführen und andererseits miteinander kommunizieren dürfen. Die Kommunikation erfolgt dabei durch ein festgelegtes Kommunikationsprotokoll, das mithilfe von speziellen Kommunikationszuständen realisiert wird. Ein wesentliches Merkmal hinsichtlich der Kommunikationsstruktur in Systemen von miteinander kooperierenden Komponenten ist, ob die Kommunikation zentralisiert oder nichtzentralisiert erfolgt. Während in einer nichtzentralisierten Kommunikationsstruktur jede Komponente mit jeder anderen Komponente kommunizieren darf, findet jegliche Kommunikation innerhalb einer zentralisierten Kommunikationsstruktur ausschließlich mit einer ausgewählten Master-Komponente statt. Eines der wichtigsten Resultate dieser Arbeit zeigt, dass zentralisierte Systeme und nichtzentralisierte Systeme die gleiche Berechnungsstärke besitzen (das ist im Allgemeinen bei PC-Systemen nicht so). Darüber hinaus bewirkt auch die Verwendung von Multicast- oder Broadcast-Kommunikationsansätzen neben Punkt-zu-Punkt-Kommunikationen keine Erhöhung der Berechnungsstärke. Desweiteren wird die Ausdrucksstärke von PCRA-Systemen untersucht und mit der von PC-Systemen von endlichen Automaten und mit der von Mehrkopfautomaten verglichen. PC-Systeme von endlichen Automaten besitzen bekanntermaßen die gleiche Ausdrucksstärke wie Einwegmehrkopfautomaten und bilden eine untere Schranke für die Ausdrucksstärke von PCRA-Systemen mit Einwegkomponenten. Tatsächlich sind PCRA-Systeme auch dann stärker als PC-Systeme von endlichen Automaten, wenn die Komponenten für sich genommen die gleiche Ausdrucksstärke besitzen, also die regulären Sprachen charakterisieren. Für PCRA-Systeme mit Zweiwegekomponenten werden als untere Schranke die Sprachklassen der Zweiwegemehrkopfautomaten im deterministischen und im nichtdeterministischen Fall gezeigt, welche wiederum den bekannten Komplexitätsklassen L (deterministisch logarithmischer Platz) und NL (nichtdeterministisch logarithmischer Platz) entsprechen. Als obere Schranke wird die Klasse der kontextsensitiven Sprachen gezeigt. Außerdem werden Erweiterungen von Restart-Automaten betrachtet (nonforgetting-Eigenschaft, shrinking-Eigenschaft), welche bei einzelnen Komponenten eine Erhöhung der Berechnungsstärke bewirken, in Systemen jedoch deren Stärke nicht erhöhen. Die von PCRA-Systemen charakterisierten Sprachklassen sind unter diversen Sprachoperationen abgeschlossen und einige Sprachklassen sind sogar abstrakte Sprachfamilien (sogenannte AFL's). Abschließend werden für PCRA-Systeme spezifische Probleme auf ihre Entscheidbarkeit hin untersucht. Es wird gezeigt, dass Leerheit, Universalität, Inklusion, Gleichheit und Endlichkeit bereits für Systeme mit zwei Restart-Automaten des schwächsten Typs nicht semientscheidbar sind. Für das Wortproblem wird gezeigt, dass es im deterministischen Fall in quadratischer Zeit und im nichtdeterministischen Fall in exponentieller Zeit entscheidbar ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gegenstand der vorliegenden Arbeit ist die Analyse verschiedener Formalismen zur Berechnung binärer Wortrelationen. Dabei ist die Grundlage aller hier ausgeführten Betrachtungen das Modell der Restart-Automaten, welches 1995 von Jancar et. al. eingeführt wurde. Zum einen wird das bereits für Restart-Automaten bekannte Konzept der input/output- und proper-Relationen weiterführend untersucht, sowie auf Systeme von zwei parallel arbeitenden und miteinander kommunizierenden Restart-Automaten (PC-Systeme) erweitert. Zum anderen wird eine Variante der Restart-Automaten eingeführt, die sich an klassischen Automatenmodellen zur Berechnung von Relationen orientiert. Mit Hilfe dieser Mechanismen kann gezeigt werden, dass einige Klassen, die durch input/output- und proper-Relationen von Restart Automaten definiert werden, mit den traditionellen Relationsklassen der Rationalen Relationen und der Pushdown-Relationen übereinstimmen. Weiterhin stellt sich heraus, dass das Konzept der parallel kommunizierenden Automaten äußerst mächtig ist, da bereits die Klasse der proper-Relationen von monotonen PC-Systemen alle berechenbaren Relationen umfasst. Der Haupteil der Arbeit beschäftigt sich mit den so genannten Restart-Transducern, welche um eine Ausgabefunktion erweiterte Restart-Automaten sind. Es zeigt sich, dass sich insbesondere dieses Modell mit seinen verschiedenen Erweiterungen und Einschränkungen dazu eignet, eine umfassende Hierarchie von Relationsklassen zu etablieren. In erster Linie seien hier die verschiedenen Typen von monotonen Restart-Transducern erwähnt, mit deren Hilfe viele interessante neue und bekannte Relationsklassen innerhalb der längenbeschränkten Pushdown-Relationen charakterisiert werden. Abschließend wird, im Kontrast zu den vorhergehenden Modellen, das nicht auf Restart-Automaten basierende Konzept des Übersetzens durch Beobachtung ("Transducing by Observing") zur Relationsberechnung eingeführt. Dieser, den Restart-Transducern nicht unähnliche Mechanismus, wird im weitesten Sinne dazu genutzt, einen anderen Blickwinkel auf die von Restart-Transducern definierten Relationen einzunehmen, sowie eine obere Schranke für die Berechnungskraft der Restart-Transducer zu gewinnen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eine kleine Grünfläche im städtischen Freiraum, eine Baumscheibe, ca. 5 m² groß, öffentlich zugänglich. Dort wo eigentlich blühende Pflanzen das Straßenbild verschönern könnten, sieht man alle zwei Wochen, wenn es wieder auf den Müllabholungstag zugeht, eine Lawine aus Gelben Säcken, die immer weiter über die Grünfläche zu rollen scheint, und so auch das letzte bisschen Grün unter sich begräbt. Und die Gelben Lawinen beschränken sich dabei nicht nur auf eine einzelne Fläche, sondern nehmen gleich ganze Straßenzüge in Beschlag. Diese Beobachtungen im Kassler Stadtteil Nord-Holland bildeten den ersten Impuls für das Thema der vorliegenden Arbeit. Es entstand die Überlegung, ob diese gravierende Vermüllung der Flächen und damit die Abwertung des gesamten Straßenbildes (wenn nicht sogar des gesamten Stadtteils) nur eine persönliche Wahrnehmung ist oder ob es durchaus andere Menschen (und besonders die direkten Anwohner) gibt, die diese Ansicht teilen. Auch kam die Frage auf, wie hoch die Wertschätzung der Flächen von Seiten der Kommune her einzuschätzen ist. Unter Berücksichtigung der scheinbar zunehmend knapper werdenden Haushaltsmittel der Kommune, für die Pflege öffentlicher Grünflächen, in Kombination mit dem sich immer weiter verbreitenden Trend des „Urbanen Gärtnerns“, entstand die Idee, Strategien zur Aufwertung der Flächen zu entwickeln, dessen Grundlage aus einer Kooperation zwischen der Kommune und privaten Akteuren besteht. Wer diese Akteure sind (bzw. seien könnten), welche Bedürfnisse sie haben, wie sie zu einem Engagement ihrerseits motiviert werden und wie konkrete Projekte zur Aufwertung der Flächen aussehen können, soll in dieser Masterarbeit vorgestellt werden. Da der Stadtteil Nord-Holland im allgemeinen als „Sozialer Brennpunkt“ gilt (besonders der nördliche Teil), ist zu erwarten, dass besonders die Initiierung des Engagements der privaten Akteure dabei eine zusätzliche Herausforderung darstellen wird. Da es bereits verschiedene Strategien zur Aufwertung von städtischen Grünflächen gibt, sollen einige von ihnen, sowohl aus Kassel als auch aus anderen Städten, betrachtet und auf ihre Anwendbarkeit auf die ausgewählten Flächen geprüft werden.