992 resultados para Quantitative Analyse


Relevância:

100.00% 100.00%

Publicador:

Resumo:

(1) Neuropeptid Y (NPY), einer der häufigsten peptidergen Neurotransmitter im zentralen und peripheren Nervensystem der Säuger, ist an der Steuerung zahlreicher physiologischer Prozesse beteiligt. Auch Amphibien weisen eine verstärkte NPY-Immunreaktivität im Zentralnervensystem auf. Im Hinblick auf bereits gewonnene Erkenntnisse sollte in der vorliegenden Arbeit eine Modulierbarkeit retino-tectaler Aktivität durch Neuropeptid Y an der chinesischen Rotbauchunke (Bombina orientalis) überprüft und erstmals mit Hilfe der 14[C]-2-Desoxiglukose-Methode (14C-2DG) (Sokoloff et al. 1977) quantitativ analysiert werden. Als Vergleichstier diente die Agakröte (Bufo marinus). Zur Darstellung eines möglichen Effektes auf das Tectum opticum wurde NPY lokal auf die tectale Oberfläche visuell stimulierter Rotbauchunken appliziert. Mit Hilfe der 14C-2DG-Methode und den daraus autoradiographisch ermittelten Daten konnten die zerebralen Aktivitäten visualisiert, quantitativ ausgewertet und miteinander verglichen werden. In einer weiteren Versuchsreihe wurde hinterfragt, welche inhibitorische Wirkung NPY entwickeln kann, wenn zuvor der retinale Input pharmakologisch durch systemische Gabe von Apomorphin (APO) signifikant erhöht wurde. (2) Die 14C-2DG-Methode erlaubt einen Blick in die funktionale Aktivität des Gehirns und ermöglicht es, regional ablaufende physiologische und biochemische Energiestoffwechselprozesse innerhalb des Gehirns quantitativ zu erfassen. Mit Hilfe der 14C-2DG-Methode werden die neuromodulatorischen Wirkungen von NPY kartiert und analysiert. (3) Versuchstiergruppe 1 – Bombina orientalis – unbehandelt Zur Beurteilung pharmakologischer Effekte durch NPY bzw. APO auf den Hirnmetabolismus war es zunächst erforderlich, die Gehirnaktivitäten pharmakologisch unbeeinflusster Tiere nach visueller Reizgabe zu untersuchen. Im Bereich des medialen Mesencephalon wurden die tectalen 14C-2DG-Konzentrationen über zehn Messreihen pro Einzeltier sowohl an der rechten als auch an der linken tectalen Hälfte auf Höhe des ventrolateralen Tectum opticum ermittelt. Beim rechts-links Vergleich zeigen sich gleich verteilte Strahlungsintensitäten. Basierend auf dieser Aussage konnte NPY unilateral auf die tectale Oberfläche aufgebracht und auf seine Wirkung geprüft werden. (4) Versuchstiergruppe 2 – Bombina orientalis – NPY-Applikation Der unilaterale Einsatz von NPY auf die tectale Oberfläche des Versuchstieres bewirkt, dass die unter dem Einfluss von NPY stehende tectale Hälfte, im Gegensatz zur unbehandelten tectalen Hälfte, einen deutlich niedrigeren 14C-2DG-Gebrauch aufweist. Besonders in den oberen Schichten des Tectum opticum (Layer 9) zeigt die 14C-2DG-Methode qualitativ und quantitativ auswertbare Aktivitätsminderungen an. (5) Verhalten unter NPY: Durchschnittlich nach 10 min Versuchsdauer zeigt Bombina orientalis eine deutliche Abnahme in der Beutefangaktivität, die sich gegen Ende der Versuchszeit noch weiter reduziert. (6) Versuchstiergruppe 3 – Bombina orientalis – APO-Applikation Systemisch verabreichtes APO führt bei Bombina orientalis zu einer Verstärkung des retinalen Ausganges in die retino-tectalen Projektionsfelder. Die neuronalen Aktivitäten im Tectum opticum erhöhen sich unter dem Einfluss von APO im Durchschnitt um 40% im Vergleich zu APO-unbehandelten Tieren. (7) Verhalten unter APO: Bombina orientalis zeigt nach systemischer Applikation von APO keine verstärkten stereotypen Schnappreaktionen. Die Tiere reagieren ausschließlich mit Akinese, d.h. einem Ausfall gerichteter Lokomotionen und Orientierungsbewegungen. (8) Versuchstiergruppe 4 – Bombina orientalis – APO/NPY-Applikation Die durch systemisch verabreichtes APO erhöhten retino-tectalen Aktivitäten im Tectum opticum werden unter dem unilateralen Einsatz von NPY deutlich abgeschwächt. Eindeutig niedrigere 14C-2DG-Aufnahmen sind in den oberen Schichten des Tectum opticum messbar, was die starke Wirkung von NPY quantitativ belegt. (9) Versuchstiergruppe 2 – Bufo marinus – NPY-Applikation Der unilaterale Einsatz von NPY auf die tectale Oberfläche von Bufo marinus zeigt ebenfalls, dass die unter dem Einfluss von NPY stehende tectale Hälfte, im Gegensatz zur unbehandelten tectalen Hälfte, einen deutlich niedrigeren 14C-2DG-Gebrauch aufweist. Bufo marinus zeigt aber aufgrund erweiterter Versuchsbedingungen (On-Off-Beleuchtungswechsel) anders verteilte Strahlungsintensitäten über dem Tectum-Querschnitt als Bombina orientalis. Stärkere [14C]-Akkumulationen zeigen sich in den tieferen zentralen Schichten des Tectum opticum. (10) Versuchstiergruppe 4 – Bufo marinus – APO/NPY-Applikation Auch die durch systemisch verabreichtes APO erhöhten retino-tectalen Aktivitäten im Tectum opticum von Bufo marinus werden unter dem unilateralen Einsatz von NPY deutlich abgeschwächt. (11) Die Ergebnisse der vorliegenden Arbeit leisten einen Beitrag zum Einfluss von NPY auf den retino-tectalen Informationstransfer bei Anuren im Sinne einer praetecto-tectalen inhibitorischen Modulation. Im Einklang mit früheren neuroanatomischen, immuncytochemischen und elektro-physiologischen Befunden liefern diese Ergebnisse erstmals ein biochemisches Korrelat auf der Basis des tectalen Energiestoffwechsels. (12) Es ist hervorzuheben, dass NPY-vermittelte inhibitorische Modulationen visuellen Informationstransfers in der vorliegenden Arbeit an Bombina orientalis nachgewiesen wurden, die phylogenetisch zu den ältesten Anuren (Anamnioten) gehört. Vergleichbares ist an verschiedenen Amnioten – einschließlich Primaten – beschrieben worden, was darauf hinweist, dass solche NPY-vermittelten Prozesse sich innerhalb der Tetrapoden relativ früh herausgebildet haben und in der Evolution konserviert worden sind.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Unter dem Schlagwort “(Neo-)Extraktivismus” ist in den vergangenen Jahren eine rege Debatte über die Wirtschafts- und Sozialpolitik der neuen progressiven Regierungen in Lateinamerika entstanden. Kern des Konzepts ist die Kritik an einer hauptsächlich auf Rohstoffausbeutung basierenden Wachstums- und Entwicklungsstrategie, die, so die Vertreter der Debatte, für weite Teile der Region Lateinamerikas und der Karibik (nach wie vor) als vorherrschend betrachtet werden kann. Die geführte Auseinandersetzung basiert jedoch bis dato auf einer schmalen empirischen Grundlage. Der Gegenstand des Working Papers ist die Frage nach der quantitativen Dimension des (Neo-)Extraktivismus in Lateinamerika. Das Paper greift hierzu zentrale Annahmen der Debatte auf und unterzieht sie einer systematischen Analyse. Diese umfasst eine Länderauswahl von fünfzehn Staaten bestehend aus Ländern der Andengemeinschaft, des Cono Sur-Raums und Mittelamerikas. Die zentrale These des Working Papers lautet, dass auf dem Subkontinent nicht von einem einheitlichen Extraktivismus gesprochen werden kann, da sich unterschiedliche Ausprägungen des Phänomens belegen lassen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Das Jahr 1989 markiert nicht nur den Beginn entscheidender geopolitischer Veränderungen, sondern gleichzeitig den Ursprung eines bedeutsamen Wandels in der internationalen Entwicklungszusammenarbeit. Mit der viel beachteten Studie ‚Sub-Saharan Africa – From Crisis to Sustainable Growth’ initiierte die Weltbank eine Debatte über die Relevanz institutioneller Faktoren für wirtschaftliche Entwicklung, die in den folgenden Jahren unter dem Titel ‚Good Governance’ erhebliche Bedeutung erlangte. Nahezu alle zentralen Akteure begannen, entsprechende Aspekte in ihrer praktischen Arbeit zu berücksichtigen, und entwickelten eigene Konzepte zu dieser Thematik. Wenn auch mit der Konzentration auf Institutionen als Entwicklungsdeterminanten eine grundlegende Gemeinsamkeit der Ansätze festzustellen ist, unterscheiden sie sich jedoch erheblich im Hinblick auf die Einbeziehung politischer Faktoren, so dass von einem einheitlichen Verständnis von ‚Good Governance’ nicht gesprochen werden kann. Während die meisten bilateralen Akteure sowie DAC und UNDP Demokratie und Menschenrechte explizit als zentrale Bestandteile betrachten, identifiziert die Weltbank einen Kern von Good Governance, der unabhängig von der Herrschaftsform, also sowohl in Demokratien wie auch in Autokratien, verwirklicht werden kann. Die Implikationen dieser Feststellung sind weit reichend. Zunächst erlaubt erst diese Sichtweise der Bank überhaupt, entsprechende Aspekte aufzugreifen, da ihr eine Berücksichtigung politischer Faktoren durch ihre Statuten verboten ist. Bedeutsamer ist allerdings, dass die Behauptung der Trennbarkeit von Good Governance und der Form politischer Herrschaft die Möglichkeit eröffnet, Entwicklung zu erreichen ohne eine demokratische Ordnung zu etablieren, da folglich autokratische Systeme in gleicher Weise wie Demokratien in der Lage sind, die institutionellen Voraussetzungen zu verwirklichen, welche als zentrale Determinanten für wirtschaftlichen Fortschritt identifiziert wurden. Damit entfällt nicht nur ein bedeutsamer Rechtfertigungsgrund für demokratische Herrschaft als solche, sondern rekurrierend auf bestimmte, dieser zu attestierende, entwicklungshemmende Charakteristika können Autokratien nun möglicherweise als überlegene Herrschaftsform verstanden werden, da sie durch jene nicht gekennzeichnet sind. Die Schlussfolgerungen der Weltbank unterstützen somit auch die vor allem im Zusammenhang mit der Erfolgsgeschichte der ostasiatischen Tigerstaaten vertretene Idee der Entwicklungsdiktatur, die heute mit dem Aufstieg der Volksrepublik China eine Renaissance erlebt. Der wirtschaftliche Erfolg dieser Staaten ist danach auf die überlegene Handlungsfähigkeit autokratischer Systeme zurückzuführen, während Demokratien aufgrund der Verantwortlichkeitsbeziehungen zwischen Regierenden und Regierten nicht in der Lage sind, die notwendigen Entscheidungen zu treffen und durchzusetzen. Die dargestellte Sichtweise der Weltbank ist allerdings von verschiedenen Autoren in Zweifel gezogen worden, die auch für ein im Wesentlichen auf technische Elemente beschränktes Good Governance-Konzept einen Zusammenhang mit der Form politischer Herrschaft erkennen. So wird beispielsweise vertreten, das Konzept der Bank bewege sich ausdrücklich nicht in einem systemneutralen Vakuum, sondern propagiere zumindest implizit die Etablierung demokratischer Regierungsformen. Im Übrigen steht die aus den Annahmen der Weltbank neuerlich abgeleitete Idee der Entwicklungsdiktatur in einem erheblichen Widerspruch zu der von multilateralen wie bilateralen Akteuren verstärkt verfolgten Förderung demokratischer Herrschaft als Mittel für wirtschaftliche Entwicklung sowie der fortschreitenden Verbreitung der Demokratie. Besteht nun doch ein Einfluss der Herrschaftsform auf die Verwirklichung von Good Governance als zentraler Entwicklungsdeterminante und kann zudem davon ausgegangen werden, dass Demokratien diesbezüglich Vorteile besitzen, dann ist eine Entwicklungsdiktatur keine denkbare Möglichkeit, sondern im Gegenteil demokratische Herrschaft der gebotene Weg zu wirtschaftlichem Wachstum bzw. einer Verbesserung der Lebensverhältnisse. Aufgrund der mit den Schlussfolgerungen der Weltbank verbundenen bedeutsamen Implikationen und der bisher weitestgehend fehlenden ausführlichen Thematisierung dieses Gegenstands in der Literatur ist eine detaillierte theoretische Betrachtung der Zusammenhänge zwischen den zentralen Elementen von Good Governance und demokratischer Herrschaft notwendig. Darüber hinaus sollen die angesprochenen Beziehungen auch einer empirischen Analyse unterzogen werden. Gegenstand dieser Arbeit ist deshalb die Fragestellung, ob Good Governance eine von demokratischer Herrschaft theoretisch und empirisch unabhängige Entwicklungsstrategie darstellt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mode of access: Internet.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Bei der Arbeit an sicherheitsgerichteten Kommunikationsprotokollen stellten sich immer wieder die Fragen nach der Eignung von einzelnen Mechanismen der Protokolle, um den Gefährdungen entsprechende Maßnahmen zur Beherrschung entgegenzusetzen. Dabei waren durchweg die Anforderungen der IEC 61508 mit dem Safety Integrity Level 3 zu erfüllen. Die IEC 61508-2 ist mit 5 Zeilen Umfang für die wesentlichen Anforderungen an die sicherheitsgerichtete Kommunikation sehr kurz gehalten und die IEC 61784-3 war zu Beginn der Arbeiten noch nicht veröffentlicht. Aber die IEC 61784-3 stellt auch heute nur einen unvollständigen Kriterienkatalog zusammen. Insbesondere die in IEC 61508-2 geforderte quantitative Analyse wird in der IEC 61784-3 nicht ausreichend thematisiert. In bisherigen sicherheitsgerichteten Protokollen und den relevanten Normen des Anwendungsbereichs fanden die Gefährdungspotentiale, wie Masquerading und Adressierung in offenen Übertragungssystemen, absichtliche Unterminierung der Sicherheitsmechanismen und fehlerhafte Konfiguration keine ausreichende Beachtung und die Gefährdungen durch absehbaren Missbrauch, absehbare Fehlbedienung und unberechtigter Zugriff auf sichere Kommunikationseinrichtungen wurde nur in Randgebieten diskutiert. Hier zeigt die vorliegende Arbeit die Bedeutung dieser für den Einsatz von sicherheitsgerichteten Kommunikationsprotokollen im industriellen Umfeld auf und folgert daraus die entsprechenden Maßnahmen, die in der Verantwortung des Anwenders liegen, bzw. zum Teil auch durch Protokollmechanismen beherrscht werden können. Die Arbeit stellt einen umfassenden Gefährdungskatalog auf und bewertet nach diesem Katalog die am weitest verbreiteten sicherheitsgerichteten Kommunikationsprotokolle nach einem einheitlichen Maßstab. Weiter zeigt die vorgelegte Arbeit, dass auch ein existierendes Zertifikat gemäß IEC 61508 SIL3 nicht in jedem Fall ausreichend ist, um die Eignung eines Protokolls für den Einsatz gemäß dem aktuellen Stand der Normen zu bestätigen. Hervor zu heben ist insbesondere die quantitative Bewertung jeder einzelnen Maßnahme der Protokolle. Bislang wurde diese nur für die Beherrschung von verfälschten Nachrichten durchgeführt. Die Arbeit führt diese quantitative Bewertung der eingesetzten Maßnahmen systematisch durch und zeigt dabei, dass diese Bewertung dringend erforderlich ist, da die betrachteten öffentlichen Protokolle nicht die für SIL3 notwendige Güte für alle ihre Maßnahmen aufweisen, bzw. aufwiesen. Einer der Schwerpunkte dieser Arbeit ist die Definition von Verarbeitungsmodellen für die Berechnung der maximalen Reaktionszeit und der Worst-Case Reaktionszeit. Dazu wurde ein Modell aus 5 Komponenten erstellt, dass geeignet ist, die Reaktionszeit über ein Kommunikationssystem für die im industriellen Umfeld gebräuchlichen Anwendungen zu untersuchen. Diese 5 Komponenten, das Eingangsmodul, die Sicherheitssteuerung, die Kommunikation zwischen beiden, sowie das Ausgangsmodul und die Kommunikation zwischen diesem und der Sicherheitssteuerung. Anhand dieses Modells wurde die maximale Reaktionszeit definiert. Dies ist die Zeit, die von der Änderung eines physikalischen Eingangssignals der Eingangskomponente, bis zur zugehörigen Reaktion des physikalischen Ausgangssignals der Ausgangskomponente, über die Sicherheitssteuerung hinweg, benötigt wird. Die maximale Reaktionszeit betrachtet dabei den Fall, dass im gesamten System aus diesen 5 Komponenten kein Fehler eine Wirkung entfaltet. Die Worst-Case Reaktionszeiten der Protokolle sind auf Grund der verschiedenen Konzepte sehr differenziert zu betrachten. Erschwerend kommt hier noch hinzu, dass die im konkreten System erreichte minimale Worst-Case Reaktionszeit stark von der Implementierung des jeweiligen Herstellers abhängt. Ebenso problematisch ist die unterschiedliche Modellbildung der jeweiligen Protokoll-Organisationen. Es werden Fehlerausschlüsse gemacht, wie die Annahme, dass nur ein Fehler auftritt und dieser Fehler sich nicht auf die Verbindung zwischen Eingangsmodul und Sicherheitssteuerung und auf die Verbindung zwischen Sicherheitssteuerung und Ausgangsmodul gleichzeitig auswirken kann. Da für den sicherheitsgerichteten Einsatz die maximale Reaktionszeit mit Fehlern die relevante Betrachtungseinheit darstellt, wurden anhand des Modells die Worst-Case 1 und 2 Reaktionszeiten definiert. Die erste definiert die Zeit die eine Reaktion maximal benötigt, wenn im Kommunikationssystem eine Fehlerwirkung vorliegt und bei der zweiten wird angenommen, dass mehrere der 5 Komponenten von Fehlerwirkungen betroffen sein können. Um einen vertieften Einblick in die Thematik zu erhalten, wurde im Rahmen dieser Arbeit ein eigenes sicherheitsgerichtetes Kommunikationsprotokoll spezifiziert, entworfen und realisiert. Hierbei wurde besonderer Augenmerk auf die Wirksamkeit des Verfälschungsschutzes mittels CRCs für kurze Nachrichten gelegt und ebenso die Wirksamkeit gekoppelter CRCs betrachtet.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Die murine embryonale Karzinomazellinie PCC7-Mz1 stellt ein Modell neuronaler Entwicklung dar, da nach RA-Gabe eine Differenzierung in neuronale, gliale und fibroblastoide Phänotypen erfolgt. Um die Expression von Neurotransmitterrezeptoren während der neuronalen Entwicklung zu untersuchen, wurde in dieser Arbeit eine quantitative Analyse der Expression verschiedener Neurotransmitterrezeptoren im Verlauf der RA-induzierten Differenzierung der PCC7-Mz1 Zellen durchgeführt. Zu diesem Zweck wurde eine kompetitive RT-PCR eingesetzt. Als Kompetitor wurde ein synthetisches Gen ( SG) konstruiert, das sich aus den Antisense- und Sense-Primersequenzen zur spezifischen Amplifikation des Dopaminrezeptors D2, des Serotoninrezeptors 5HT3, der GABAA-Untereinheiten ß1 und ß3, der metabotropen Glutamatrezeptoren mGluR1 und mGluR5, der 5 NMDA-Rezeptoruntereinheiten 1,2a,2b,2c und 2d, der Markerproteine Synaptophysin und GFAP, und der Untereinheiten a3, a4 und a7 des nikotinischen Acetylcholinrezeptors zusammensetzt. Mit diesem SG erfolgten die Quantifizierungen der Rezeptor-mRNA im Sättigungsbereich der PCR. Die erhaltenen Transkriptmengen wurden auf ein Neuron bezogen, wodurch eine Korrelation zur neuronalen Entwicklung erfolgen konnte.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Die qualitative und quantitative Analyse von Biomolekülen hat in den letzten Jahren und Jahrzehnten immer mehr an Bedeutung gewonnen. Durch das Aufkommen und die kontinuierliche Weiterentwicklung neuer Separations- und Detektionsmethoden und deren Verbindung miteinander zu leistungsfähigen Einheiten, erlangte man Schritt für Schritt neue Erkenntnisse bei ihrer Untersuchung. Die Elementmassenspektrometrie als nachweisstarke Detektionsmethode wird von vielen wissenschaftlichen Arbeitsgruppen bei der Trennung und Quantifizierung von Proteinen und Metalloproteinen mittels Detektion der in den Biomolekülen vorkommenden Metalle und Heteroatome angewendet. Heteroatome (z.B. Schwefel, Phosphor) haben im Plasma des ICP-MS (inductively coupled plasma - mass spectrometer) schlechte Ionisationseigenschaften und dementsprechend deutlich höhere Nachweisgrenzen als Metalle. Ein Ansatz, schlecht oder nicht detektierbare Verbindungen (also solche, die keine Metalle oder Heteroatome enthalten) mit dem ICP-MS sichtbar zu machen, ist die Markierung der selbigen mit Metallionen oder -cluster. rnIn dieser Arbeit ist es gelungen, der Analyse ganz unterschiedlicher Substanzklassen, zum einen metallische Nanopartikel und zum anderen Proteine, neue Impulse zu geben und zukünftiges Potential bei der Anwendung gekoppelter Techniken zur Separation und Detektion aufzuzeigen. Durch die Verwendung einer alten, aber neu konzipierten Trenntechnik, der Gelelektrophorese (GE), und deren Kopplung an einen modernen Detektor, dem ICP-MS, kann die für die Proteinanalytik weit verbreitete Gelelektrophorese ihr enormes Potential bei der Trennung verschiedenster Verbindungsklassen mit der exzellenten Nachweisstärke und Elementspezifität des ICP-MS verbinden und dadurch mit deutlich weniger Arbeitsaufwand als bisher qualitative und auch quantitative Ergebnisse produzieren. Bisher war dies nur mit großem präparativem Aufwand unter Verwendung der laser ablation möglich. Bei der Analyse von Nanopartikeln konnte aufgezeigt werden, dass durch die GE-ICP-MS-Kopplung aufgrund der guten Trenneigenschaften der GE vorhandene Spezies bzw. Fraktionen voneinander separiert werden und mit Hilfe des ICP-MS Informationen auf atomarem Niveau gewonnen werden können. Es war möglich, das atomare Verhältnis der Metallatome im Kern und der Schwefelatome in der Ligandenhülle eines Nanopartikels zu bestimmen und damit die Größe des Partikels abzuschätzen. Auch konnte die Anzahl der Goldatome in einem dem Schmid-Cluster ähnlichen Nanopartikel bestimmt werden, was vorher nur mit Hilfe von MALDI-TOF möglich war. Bei der Analyse von Biomolekülen konnte auf einfache Weise der Phosphorylierungsgrad verschiedener Proteine bestimmt werden. Auch bei kleinen Molekülen erzielt die Gelelektrophorese ausgezeichnete Trennergebnisse, wie z. B. bei der Analyse verschiedener Brom- und Iodspezies.rnDie stöchiometrische Kopplung eines Proteins an einen Nanopartikel, ohne eine der beiden Verbindungen in einem größeren Maße zu verändern, stellte jedoch eine Herausforderung dar, die im Rahmen dieser Arbeit nicht vollständig gelöst werden konnte. Verschiedene Ansätze zur Kopplung der beiden Substanzen wurden erprobt, jedoch führte keine zu dem gewünschten Ergebnis einer stöchiometrisch vollständigen und spezifischen Modifikation eines Proteins mit einem Nanopartikel. Durch das Potential der GE-ICP-MS-Kopplung bei der Analyse beider Substanz-klassen und dem Beweis der Praktikabilität und Zuverlässigkeit der Methode ist jedoch der Grundstein für weitere Forschungen auf diesem Gebiet gelegt worden. Ist eine geeignete chemische Kopplung der beiden Substanzklassen gefunden und beherrscht, steht auf analytischer Seite eine leistungsstarke Kombination aus Trennung und Detektion zur Verfügung, um die Quantifizierung von Proteinen entscheidend zu verbessern.rn

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo deste estudo foi comparar os resultados da microinfiltração marginal obtidos por diferentes meios de aquisição de imagens e métodos de mensuração da penetração de prata em restaurações de resina composta classe V, in vitro. Dezoito pré-molares humanos hígidos, recém extraídos, foram divididos em três grupos, de acordo com o tipo de instrumento para preparação cavitária utilizado. Grupo 1: ponta diamantada número 3100, em alta rotação. Grupo 2: broca carbide número 330, em alta rotação. Grupo 3: ponta CVDentus código 82137, em aparelho de ultrassom. Foram realizados preparos cavitários padronizados (3x4x2mm) classe V nas faces vestibular e lingual de todos os dentes, com margens oclusais em esmalte e cervicais em dentina/cemento. As cavidades foram restauradas com o sistema adesivo Solobond M (VOCO) e resina composta Grandio (VOCO), a qual foi inserida e fotoativada em três incrementos. Os corpos de prova ficaram imersos em água destilada por 24h a 37oC; receberam acabamento e polimento com discos SofLex (3M) e foram novamente armazenados em água destilada, por sete dias. Posteriormente, as superfícies dentárias foram coberta com duas camadas de esmalte para unhas vermelho, exceto as áreas adjacentes às restaurações. Os espécimes ficaram imersos em solução aquosa de nitrato de prata a 50% por 24h e em solução fotorreveladora por 2h e foram seccionados no sentido vestíbulo-lingual, passando pelo centro das restaurações, com disco diamantado em baixa rotação. As amostras foram polidas em politriz horizontal e analisadas por diferentes métodos. À extensão da microinfiltração foi atribuído escores de 0 a 3 através de análises por meio de estereomicroscópio tradicional e com leds e microscópio ótico. As imagens obtidas na lupa com leds e no microscópio ótico tiveram as áreas infiltradas medidas através do software AxioVision. O teste χ2 de McNemar-Bowker revelou concordância estatística entre estereomicroscópio tradicional e o com leds (p=0,809) durante análises semiquantitativas. Porém, houve diferenças significantes entre microscópio ótico e estereomicroscópios (p<0,001). Houve boa correlação entre análises semiquantitativas e quantitativas de acordo com o teste de Spearmann (p<0,001). O teste de Kruskall-Wallis não revelou diferenças estatisticamente significantes (p=0,174) entre os grupos experimentais na análise quantitativa por microscópio ótico, em esmalte. Ao contrário do que se observa com a mesma em lupa (p<0,001). Conclui-se que o método de atribuição de escores comumente aplicado com a lupa nos estudos da microinfiltração marginal é uma opção confiável para análise da microinfiltração.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Diese Arbeit weist Momentum-Renditen für europäische Aktien im Zeitraum von 1991 bis 2010 nach, die – je nach Top/Flop-Prozentsatz – vor Kosten zwischen 6 und 19% p.a. liegen. Gleichzeitig liegen mit hohen Standardabweichungen, negativen Schiefe-Werten und hohen Drawdowns drei wesentliche Risikofaktoren vor. Für die Kernuntersuchungen des Top/Flop-Wertes von 5% treten die höchsten Momentum-Renditen von mehr als 10% p.a. für Ranking-Perioden von 80 bis 100 und Holding-Perioden von 60 bis 90 Handelstagen auf. Grundsätzlich sind die extremsten Aktien der Ranking-Periode entscheidend für die Ausprägung des Momentum-Effekts. Gleichzeitig steigen mit zunehmender Eingrenzung des Top/Flop-Wertes die Risiken, was eine Erklärung hoher Momentum-Renditen aus Sicht der Risikoaversions-Theorie nahelegt. Auch die Berücksichtigung zusätzlicher Filterbedingungen (Gleitende Durchschnitte, Handelsvolumen, Low Volatility) ermöglicht leicht höhere Momentum-Renditen bei entsprechend höheren Risiken. Zwischen dem Momentum-Effekt und dem Auftreten von Kurslücken besteht dagegen kein klarer Zusammenhang. Für die praktische Anwendung sind Momentum-Strategien mit dynamischer Positionsverwaltung während der Haltedauer interessant. Untersucht wurden Strategien anhand der eigens programmierten Simulationsverfahren Stopout und Castout sowie eines kombinierten Verfahrens. Im Ergebnis sind – je nach Präferenz des Investors – das Castout- und das kombinierte Verfahren optimal. Für das Rebalancing der Portfolios empfiehlt es sich, zu den entsprechenden Terminen jeweils nur die Short-Seite auf den Startwert zurückzusetzen. Weiterhin zeigen die Untersuchungen, dass deutliche Long-Übergewichtungen bei Momentum-Strategien grundsätzlich von Vorteil sind. Potenzielle Verbesserungen der Ergebnisse können durch weitere Stopp-Abstände, eine Verringerung des Top/Flop-Wertes oder eine längere Ranking-Periode erzielt werden. Weiterhin sind für die Praxis Long-only-Strategien auf Basis von Doppelranking-Verfahren attraktiv, bei denen das Zweitranking nach Standardabweichung oder Rendite/Standardabweichungs-Ratio erfolgt.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Este trabalho tem como objetivo observar, descrever e analisar aspectos (inter)culturais em livros didáticos (LDs) de português para estrangeiros a fim de contribuir para o desenvolvimento de procedimentos didáticos-metodológicos suscetíveis de otimizar a aprendizagem da língua portuguesa. Foram analisados cinco livros didáticos de ensino do português para estrangeiros produzidos no Brasil. A metodologia utilizada é a análise de livros didáticos usando os parâmetros culturais propostos por Byram (1993) e os princípios interculturais propostos por Kramsch (1993). Os dados foram analisados tanto qualitativa como quantitativamente. Com relação à análise qualitativa, os referenciais (inter)culturais foram identificados e analisados tendo por base a adequação a uma abordagem de ensino que leve em conta a formação do aprendente em uma dimensão (inter)cultural. Existem várias atividades que podem levar os alunos a desenvolverem uma competência (inter)cultural. Com relação à análise quantitativa, existe certo desequilíbrio entre os livros didáticos, enquanto uns possuem considerável frequência de atividade com enfoque cultural, outros possuem fraca frequência. Conclui-se que os elementos (inter)culturais podem enriquecer o processo de ensino-aprendizagem de uma língua estrangeira – neste caso do português do Brasil – e colaborar para que o aprendente amplie sua percepção da realidade cultural de origem e estrangeira. Quanto mais diversificadas e relevantes forem as atividades em manuais de PLE, mais instrumentos os professores e alunos poderão ter a sua disposição para desenvolver a dimensão (inter)cultural no processo de ensino-aprendizagem.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Inserido no convênio de cooperação firmado entre a Fundação Nacional de Saúde e a Universidade Federal do Pará, através do Departamento de Geofísica e do Curso de Pós-Graduação em Geofísica, este trabalho tem como objetivo o mapeamento geológico com a aplicação dos métodos eletromagnéticos VLF e HLEM, visando o estudo hidrogeológico do Município de São Domingos do Araguaia no Sudeste do Estado do Pará. Também, estudamos o desempenho quantitativo do método VLF, no que diz respeito a prospecção de água subterrânea. Primeiramente, analisamos a resposta VLF, através dos parâmetros da elipse de polarização (inclinação e elipsidade), de diferentes situações geológicas possíveis de serem encontradas no local de estudo e voltadas a hidrogeologia. Também, avaliamos a influência que os parâmetro físicos do modelo exercem na anomalia, utilizando para estas finalidades modelagem numérica por elemento finito. A análise quantitativa foi realizada através de ajuste, por tentativa e erro, com curvas teóricas obtidas da simulação de modelos idealizados na interpretação qualitativa, a qual fizemos com o auxilio da técnica de filtragem de Fraser e com perfís do método HLEM. Os resultados mostraram a existência de feições estruturais de "trends" N-S e NE-SW, que correlacionadas à geologia regional são falhas normais e de transferências, respectivamente. Com base nesses resultados, foram selecionados alguns locais com maiores probabilidades de sucesso na captação de água subterrânea através de poços.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Der Längenpolymorphismus des C4-Gens beruht auf der An- oder Abwesenheit einer 6.4 kb langen Insertion im Intron 9. Es handelt sich dabei um einen eigenständigen bisher noch nicht beschriebenen Virus-Typ, der alle Sequenzmerkmale der Familie der humanen endogenen Retroviren (HERV) trägt und zu den HERV-K Viren gehört. Der Provirus wurde als HERV-K(C4) bezeichnet. Die Orientierung dieses retroviralen Elements ist entgegengesetzt zu der Transkriptionsrichtung des C4-Gens. Mittels RT-PCR, RNase Protection Assays und Northern-Blot Analysen konnte der Nachweis von HERV-K(C4)-Antisense mRNA-Transkripten in verschiedenen humanen Zellinien und Geweben erbracht werden. Die retroviralen Transkripte schlossen am 5'- und 3'-Ende Sequenzen des C4-Exon 9 und Exon 10 ein, so daß diese wahrscheinlich "readthrough" Transkripte darstellen, die durch einen 5' des LTR2 gelegenen Promotor initiiert oder im Zusammenhang mit der C4-Expression transkribiert und reguliert werden. Weiterhin konnten insgesamt 4 HERV-K(C4)-mRNA Spezies, einschließlich einer Vollängen-RNA detektiert werden. Die drei subgenomischen mRNAs werden vermutlich durch einfaches und mehrfaches Spleißen generiert. Die quantitative Analyse in verschiedenen humanen Zellinien ergab, daß HERV-K(C4) durchschnittlich mit einer Kopienanzahl zwischen ca.1 bis 100 Transkripten in einer Zelle vorkommt, so daß es sich um low abundance mRNAs handelt. Mittels eines Reportergen-System konnte eine Aktivität des LTR2-Promotors in der Sense-Orientierung des Retrovirus nachgewiesen werden, die nach Stimulation mit IFN- signifikant abnahm. Ein humanes Modell-Systems wurde etabliert, um die Theorie einer Antisense-Abwehr gegen exogene Retroviren in HepG2-Zellen zu überprüfen. Die Theorie basiert auf dem Nachweis von HERV-K(C4)-Antisense-Transkripten, die über eine Heteroduplexbildung mit der Sense-mRNA von verwandten, infektiösen Retroviren eine mögliche Blockierung deren Translation erwirken könnten. Es konnte eine signifikante Abnahme der retroviralen Expression von bis zu 45% nach steigenden Dosen an IFN- in HepG2-Zellen nachgewiesen werden. Der funktionell aktive 3'-LTR-Sense Promotor sowie der Nachweis von HERV-K(C4)-Antisense Transkripten sprechen für die bedeutende Rolle von HERV-K(C4) bei der Genregulation und Schutz gegen exogene Retroviren, wodurch eine Selektion stattgefunden hat.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In den letzten drei Jahrzehnten sind Fernerkundung und GIS in den Geowissenschaften zunehmend wichtiger geworden, um die konventionellen Methoden von Datensammlung und zur Herstellung von Landkarten zu verbessern. Die vorliegende Arbeit befasst sich mit der Anwendung von Fernerkundung und geographischen Informationssystemen (GIS) für geomorphologische Untersuchungen. Durch die Kombination beider Techniken ist es vor allem möglich geworden, geomorphologische Formen im Überblick und dennoch detailliert zu erfassen. Als Grundlagen werden in dieser Arbeit topographische und geologische Karten, Satellitenbilder und Klimadaten benutzt. Die Arbeit besteht aus 6 Kapiteln. Das erste Kapitel gibt einen allgemeinen Überblick über den Untersuchungsraum. Dieser umfasst folgende morphologische Einheiten, klimatischen Verhältnisse, insbesondere die Ariditätsindizes der Küsten- und Gebirgslandschaft sowie das Siedlungsmuster beschrieben. Kapitel 2 befasst sich mit der regionalen Geologie und Stratigraphie des Untersuchungsraumes. Es wird versucht, die Hauptformationen mit Hilfe von ETM-Satellitenbildern zu identifizieren. Angewandt werden hierzu folgende Methoden: Colour Band Composite, Image Rationing und die sog. überwachte Klassifikation. Kapitel 3 enthält eine Beschreibung der strukturell bedingten Oberflächenformen, um die Wechselwirkung zwischen Tektonik und geomorphologischen Prozessen aufzuklären. Es geht es um die vielfältigen Methoden, zum Beispiel das sog. Image Processing, um die im Gebirgskörper vorhandenen Lineamente einwandfrei zu deuten. Spezielle Filtermethoden werden angewandt, um die wichtigsten Lineamente zu kartieren. Kapitel 4 stellt den Versuch dar, mit Hilfe von aufbereiteten SRTM-Satellitenbildern eine automatisierte Erfassung des Gewässernetzes. Es wird ausführlich diskutiert, inwieweit bei diesen Arbeitsschritten die Qualität kleinmaßstäbiger SRTM-Satellitenbilder mit großmaßstäbigen topographischen Karten vergleichbar ist. Weiterhin werden hydrologische Parameter über eine qualitative und quantitative Analyse des Abflussregimes einzelner Wadis erfasst. Der Ursprung von Entwässerungssystemen wird auf der Basis geomorphologischer und geologischer Befunde interpretiert. Kapitel 5 befasst sich mit der Abschätzung der Gefahr episodischer Wadifluten. Die Wahrscheinlichkeit ihres jährlichen Auftretens bzw. des Auftretens starker Fluten im Abstand mehrerer Jahre wird in einer historischen Betrachtung bis 1921 zurückverfolgt. Die Bedeutung von Regentiefs, die sich über dem Roten Meer entwickeln, und die für eine Abflussbildung in Frage kommen, wird mit Hilfe der IDW-Methode (Inverse Distance Weighted) untersucht. Betrachtet werden außerdem weitere, regenbringende Wetterlagen mit Hilfe von Meteosat Infrarotbildern. Genauer betrachtet wird die Periode 1990-1997, in der kräftige, Wadifluten auslösende Regenfälle auftraten. Flutereignisse und Fluthöhe werden anhand von hydrographischen Daten (Pegelmessungen) ermittelt. Auch die Landnutzung und Siedlungsstruktur im Einzugsgebiet eines Wadis wird berücksichtigt. In Kapitel 6 geht es um die unterschiedlichen Küstenformen auf der Westseite des Roten Meeres zum Beispiel die Erosionsformen, Aufbauformen, untergetauchte Formen. Im abschließenden Teil geht es um die Stratigraphie und zeitliche Zuordnung von submarinen Terrassen auf Korallenriffen sowie den Vergleich mit anderen solcher Terrassen an der ägyptischen Rotmeerküste westlich und östlich der Sinai-Halbinsel.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The optical resonances of metallic nanoparticles placed at nanometer distances from a metal plane were investigated. At certain wavelengths, these “sphere-on-plane” systems become resonant with the incident electromagnetic field and huge enhancements of the field are predicted localized in the small gaps created between the nanoparticle and the plane. An experimental architecture to fabricate sphere-on-plane systems was successfully achieved in which in addition to the commonly used alkanethiols, polyphenylene dendrimers were used as molecular spacers to separate the metallic nanoparticles from the metal planes. They allow for a defined nanoparticle-plane separation and some often are functionalized with a chromophore core which is therefore positioned exactly in the gap. The metal planes used in the system architecture consisted of evaporated thin films of gold or silver. Evaporated gold or silver films have a smooth interface with their substrate and a rougher top surface. To investigate the influence of surface roughness on the optical response of such a film, two gold films were prepared with a smooth and a rough side which were as similar as possible. Surface plasmons were excited in Kretschmann configuration both on the rough and on the smooth side. Their reflectivity could be well modeled by a single gold film for each individual measurement. The film has to be modeled as two layers with significantly different optical constants. The smooth side, although polycrystalline, had an optical response that was very similar to a monocrystalline surface while for the rough side the standard response of evaporated gold is retrieved. For investigations on thin non-absorbing dielectric films though, this heterogeneity introduces only a negligible error. To determine the resonant wavelength of the sphere-on-plane systems a strategy was developed which is based on multi-wavelength surface plasmon spectroscopy experiments in Kretschmann-configuration. The resonant behavior of the system lead to characteristic changes in the surface plasmon dispersion. A quantitative analysis was performed by calculating the polarisability per unit area /A treating the sphere-on-plane systems as an effective layer. This approach completely avoids the ambiguity in the determination of thickness and optical response of thin films in surface plasmon spectroscopy. Equal area densities of polarisable units yielded identical response irrespective of the thickness of the layer they are distributed in. The parameter range where the evaluation of surface plasmon data in terms of /A is applicable was determined for a typical experimental situation. It was shown that this analysis yields reasonable quantitative agreement with a simple theoretical model of the sphere-on-plane resonators and reproduces the results from standard extinction experiments having a higher information content and significantly increased signal-to-noise ratio. With the objective to acquire a better quantitative understanding of the dependence of the resonance wavelength on the geometry of the sphere-on-plane systems, different systems were fabricated in which the gold nanoparticle size, type of spacer and ambient medium were varied and the resonance wavelength of the system was determined. The gold nanoparticle radius was varied in the range from 10 nm to 80 nm. It could be shown that the polyphenylene dendrimers can be used as molecular spacers to fabricate systems which support gap resonances. The resonance wavelength of the systems could be tuned in the optical region between 550 nm and 800 nm. Based on a simple analytical model, a quantitative analysis was developed to relate the systems’ geometry with the resonant wavelength and surprisingly good agreement of this simple model with the experiment without any adjustable parameters was found. The key feature ascribed to sphere-on-plane systems is a very large electromagnetic field localized in volumes in the nanometer range. Experiments towards a quantitative understanding of the field enhancements taking place in the gap of the sphere-on-plane systems were done by monitoring the increase in fluorescence of a metal-supported monolayer of a dye-loaded dendrimer upon decoration of the surface with nanoparticles. The metal used (gold and silver), the colloid mean size and the surface roughness were varied. Large silver crystallites on evaporated silver surfaces lead to the most pronounced fluorescence enhancements in the order of 104. They constitute a very promising sample architecture for the study of field enhancements.