69 resultados para kollektive Risikotheorie
Resumo:
Inhalt: 1. Minsky, Hyman P. [Buchholz, Günter (Übersetzung)]: "Die Hypothese der finanziellen Instabilität – eine Keynes–Interpretation und eine Alternative zur Standard-Theorie". Erstmals veröffentlicht in: Arbeitspapier Nr. 95 des Fachbereichs Wirtschaftswissenschaft der Bergischen Universität – Gesamthochschule Wuppertal, Wuppertal 1986, S. 31 ff. 2. Buchholz, Günter: "Überlegungen zum Verhältnis von Krise und Kritik". Erstmals veröffentlicht in: Ergebnisse und Interpretationen - Zur Lehre, Forschung und Studienkonzeption im Fachbereich Wirtschaftswissenschaft, Arbeitspapier Nr. 100 des Fachbereichs Wirtschaftswissenschaft der Bergischen Universität – Gesamthochschule Wuppertal, Wuppertal 1989, S. 169 ff. 3. Buchholz, Günter: "Staatsintervention in der Wachstumskrise". Unveröffentlichter Vortrag. Tagung des „Arbeitskreises Politische Ökonomie“ Dezember 1986 4. Buchholz, Günter: "Gesellschaftliche Depression". Unveröffentlichter Vortrag vom 25.6.2005 Zu 1: Ein Aufsatz von Minsky aus dem Jahr 1977 griff seinerzeit kritisch in die Diskussion um das angemessene Verständnis der keynesschen Theorie ein; vgl. hierzu auch sein Buch: „John Maynard Keynes". Der Aufsatz markiert jene Weggabelung der Entwicklung der liberalen Wirtschaftstheorie, in der es - gegen Ende der Keynesschen Dominanz in der Wirtschaftspolitik - darum ging, einerseits die Keynessche Kritik an der Neoklassik zu neutralisieren, andererseits ein eigenständiges postkeynesianisches Paradigma herauszubilden, innerhalb dessen fortentwickelt werden sollte, „was Keynes wirklich meinte“. Zu 2: Im zweiten Beitrag geht es um das Problem der ökonomischen Krise, insbesondere um ihre Geschichte und um die zahlreichen Versuche, sie theoretisch zu verarbeiten („general glut controversy“ nach der Krise von 1825), oder sie als systemexogene Störung darzustellen, oder als bloßes Zufallsereignis, oder sie gleichgewichtstheoretisch gänzlich zu leugnen oder jedenfalls ihre Relevanz für die Theoriebildung zu bagatellisieren und auf bloß empirische Forschung einzuschränken. Zu 3: Karl Marx hatte in seinem Hauptwerk, dem „Kapital“, bekanntlich versucht, einen endogenen Niedergang des Kapitalismus mit dem „Gesetz vom tendenziellen Fall der Profitrate“ als notwendig zu erweisen, und zwar dadurch, dass die Akkumulation des Kapitals zu ihrem eigenen Hindernis wird, aber diese lange umstrittene Argumentation hat sich als nicht schlüssig erwiesen. Joseph A. Schumpeter hatte im Zusammenhang seiner Konjunkturtheorie nicht nur kurze und mittlere, sondern auch lange Zyklen berücksichtigt, die nach ihrem Entdecker, dem russischen Statistiker Kondratieff, benannt worden sind. Damit hatte er die neoklassische Welt des neoklassischen „Allgemeinen Gleichgewichts“ hinter sich gelassen. Der Aufsatz versucht, diese Ansätze zu verknüpfen. Zu 4: Der hier abgedruckte Vortrag aus dem Jahr 2005 nimmt die vielfach wahrgenommene kollektive depressive Verstimmung der Bevölkerung zum Ausgangspunkt und führt sie auf die sie bedingende ökonomische Stagnation zurück.
Resumo:
Die vorliegende Arbeit liefert erstmals einen umfassenden Überblick über die molekulare Epidemiologie von Methicillin resistenten Staphylococcus aureus (MRSA) eines nordhessischen Krankenhauses inklusive seines Umfeldes und deren Entwicklung in einem Zeitraum von fünf Jahren. Von besonderer Bedeutung ist, dass die MRSA-Stämme hierfür nicht nur anhand ihrer SCCmec-Region (staphylococcal cassette chromosome) typisiert wurden, sondern eine weitergehende Charakterisierung auf Grund der Bestimmung des Vorkommens von Antibiotikaresistenz- und Toxingenen, sowie Plasmiden erfolgte. Dabei wurde ein neuer SCCmec-Typ entdeckt und charakterisiert und weitere noch unbekannte SCCmec-Elemente beschrieben. Bei der Charakterisierung der MRSA-Kollektive konnten bzgl. aller untersuchten Eigenschaften im Laufe der Zeit signifikante Veränderungen beobachtet werden. Am deutlichsten waren diese Unterschiede zwischen dem ältesten Kollektiv aus 1999 und allen nachfolgenden Kollektiven. Die Kollektive aus 2001, 2002, 2003 und 2004 zeigten untereinander größere Ähnlichkeiten, aber dennoch gleichzeitig eine tendenziell divergente Entwicklung einzelner Eigenschaften. Besonders auffallend war das dominante Auftreten von SCCmecIV mit 63-87% der Isolate eines Kollektivs ab 2001, gegenüber 16% in 1999. Weiterhin erfolgte eine markante Veränderung im Vorkommen einzelner Antibiotikaresistenzgene von 1999 bis 2004. So waren aacA-aphD und ermA bei MRSA aus 1999 mit 84% bzw. 90% deutlich häufiger als in allen Kollektiven der folgenden Jahre (aacA-aphD: max. 32%, ermA: max. 40%). Wohingegen ermC ein stets zunehmendes Vorkommen von 3% auf 67% über den Untersuchungszeitraum zeigte. Unkontinuierliches aber statistisch relevant vermehrtes Auftreten von tetM konnte bei Isolaten aus 1999 (40%) und 2004 (74%) nachgewiesen werden. Auch bei Toxingenen zeigten sich deutliche Unterschiede in der zeitlichen Verteilung. Ab 2001 zeigten alle Isolate wesentlich höhere Anteile an sec, seg und sei verglichen mit den MRSA aus 1999. So konnte sec im Kollektiv aus 1999 gar nicht nachgewiesen werden, in denen der Folgejahre mit 54-77%. Die Werte für seg und sei stiegen von 48% bzw. 41% in 1999 kontinuierlich auf über 90% in 2004. Die Häufigkeit von MRSA sowohl mit mehreren Resistenzgenen als auch die mit mehreren Toxingenen nahm im Laufe der Zeit zu und korrelierte mit dem Vorkommen von Plasmiden. Bezüglich seiner Korrelation mit den vorkommenden Plasmiden zeigte SCCmecIV im Erhebungszeitraum besonders deutlich eine Veränderung. So nahm über den Zeitraum der Beobachtung die Anzahl der Stämme die zusätzlich zu einem großen Plasmid ein weiteres kleines Plasmid besaßen signifikant zu. Auch beim Vergleich der SCCmec-Typen der MRSA-Isolate konnten Unterschiede bzgl. aller weiteren untersuchten Eigenschaften dargestellt werden. So zeigten z.B. alle SCCmecIIIA das sea-Gen, während dies bei allen anderen in der vorliegenden Arbeit untersuchten SCCmec-Typen nur vereinzelt vorkam. SCCmecII-Stämme wiesen sowohl die meisten Antibiotikaresistenz- als auch Toxingene auf. Es wurde ferner gezeigt, dass Stämme mit vielen Resistenzgenen auch eine hohe Anzahl Toxingene besaßen und dies im Zusammenhang mit einem erhöhten Plasmidgehalt stehen könnte. Aus den MRSA-Kollektiven isolierte Plasmide konnten aufgrund von Restriktionsanalysen als verwandt zu β-Laktamase-Plasmiden des Grundtyps pI524 und pI258 beschrieben werden. Der in vorliegender Arbeit gezeigte Zusammenhang zwischen der Anzahl von direct repeat units (dru) in der Hypervariablen Region (HVR) und dem SCCmec-Typ half den Unterschied zwischen SCCmecIV und SCCmecIVA, sowie die Sonderstellung des in vorliegender Arbeit erstmalig beschriebenen SCCmecIA/II darzustellen. Nicht alle Isolate konnten einem bekannten SCCmec-Typ zugeordnet werden, es handelt sich bei diesen Ausnahmen um weitere noch unbekannte und hier erstmalig beschriebene SCCmec-Typen. Aufgrund der vorliegenden Arbeit konnte ein neuer SCCmec-Typ definiert werden, namentlich der Typ SCCmecIA/II, der seit 1999 in der Region gehäuft vorkommt Die vorliegenden Untersuchungen zeigten somit, dass die Epidemiologie von MRSA der Region Nordhessen trotz bestehender Gemeinsamkeiten zur MRSA-Situation in ganz Deutschland auch Besonderheiten aufweist. Diese nun zu kennen kann einen Beitrag zur gezielten Verbesserung bisheriger Maßnahmen zur Ausbreitungskontrolle von MRSA in der nordhessischen Region leisten.
Resumo:
Diese Arbeit beschäftigt sich mit der Herstellung und Anwendungen von periodischen Goldnanopartikel-Arrays (PPAs), die mit Hilfe von Nanosphären-Lithografie hergestellt wurden. In Abhängigkeit der verwendeten Nanosphären-Größe wurden dabei entweder kleine dreieckige Nanopartikel (NP) (bei Verwendung von Nanosphären mit einem Durchmesser von 330 nm) oder große dreieckige NPD sowie leicht gestreckte NP (bei Verwendung von Nanosphären mit einem Durchmesser von 1390 nm) hergestellt. Die Charakterisierung der PPAs erfolgte mit Hilfe von Rasterkraftmikroskopie, Rasterelektronenmikroskopie und optischer Spektroskopie. Die kleinen NP besitzen ein Achsverhältnis (AV) von 2,47 (Kantenlänge des NPs: (74+/-6) nm, Höhe: (30+/-4) nm. Die großen dreieckigen NP haben ein AV von 3 (Kantenlänge des NPs:(465+/-27) nm, Höhe: (1530+/-10) nm) und die leicht gestreckten NP (die aufgrund der Ausbildung von Doppelschichten ebenfalls auf der gleichen Probe erzeugt wurden) haben eine Länge von (364+/-16)nm, eine Breite von (150+/-20) nm und eine Höhe von (150+/-10)nm. Die optischen Eigenschaften dieser NP werden durch lokalisierte Oberflächenplasmon-Polariton Resonanzen (LPPRs) dominiert, d.h. von einem eingestrahlten elektromagnetischen Feld angeregte kollektive Schwingungen der Leitungsbandelektronen. In dieser Arbeit wurden drei signifikante Herausforderungen für Plasmonik-Anwendungen bearbeitet, welche die einzigartigen optischen Eigenschaften dieser NP ausnutzen. Erstens wurden Ergebnisse der selektiven und präzisen Größenmanipulation und damit einer Kontrolle der interpartikulären Abstände von den dreieckigen Goldnanopartikel mit Hilfe von ns-gepulstem Laserlicht präsentiert. Die verwendete Methode basiert hierbei auf der Größen- und Formabhängigkeit der LPPRs der NP. Zweitens wurde die sensorischen Fähigkeiten von Gold-NP ausgenutzt, um die Bildung von molekularen Drähten auf den PPAs durch schrittweise Zugabe von unterschiedlichen molekularen Spezies zu untersuchen. Hierbei wurde die Verschiebung der LSPPR in den optischen Spektren dazu ausgenutzt, die Bildung der Nanodrähte zu überwachen. Drittens wurden Experimente vorgestellt, die sich die lokale Feldverstärkung von NP zu nutze machen, um eine hochgeordnete Nanostrukturierung von Oberflächen mittels fs-gepulstem Laserlicht zu bewerkstelligen. Dabei zeigt sich, dass neben der verwendeten Fluenz die Polarisationsrichtung des eingestrahlten Laserlichts in Bezug zu der NP-Orientierung sowie die Größe der NP äußerst wichtige Parameter für die Nanostrukturierung darstellen. So konnten z.B. Nanolöcher erzeugt werden, die bei höheren Fluenzen zu Nanogräben und Nanokanälen zusammen wuchsen. Zusammengefasst lässt sich sagen, dass die in dieser Arbeit gewonnen Ergebnisse von enormer Wichtigkeit für weitere Anwendungen sind.
Resumo:
Die vorliegende Arbeit macht Vorschläge zur Einbindung der Öffentlichkeit in Planungsbestrebungen vor Ort, wobei vor allem Methoden empirischer Sozialforschung und deren Anwendbarkeit in landschaftsplanerischen Vorhaben näher betrachtet werden. Hiermit finden insbesondere Wertezuweisungen durch die Bürger stärkere Berücksichtigung. Es wird angenommen, dass, um eine zukunftsweisende Landschaftsplanung zu etablieren, Planer und Fachleute lernen müssen, wie die lokale Bevölkerung ihre Umwelt wahrnimmt und empfindet und welche Ideen sie für die zukünftige Entwicklung der Landschaft haben. Als empirische Grundlage werden Fallstudien aus Bad Soden am Taunus, Hamburg-Wilhelmsburg und Kassel-Rothenditmold präsentiert und verglichen. Rothenditmold und Wilhelmsburg zeichnen sich durch hohe Einwohneranteile mit Migrationshintergrund aus, weisen relativ hohe Arbeitslosenquoten auf und sind als soziale Brennpunkte bekannt – zumindest für Außenstehende. Beide Stadtteile versuchen ihr Image aufzuwerten. In Wilhelmsburg wird dieses Vorhaben in die großräumigen Veränderungen eingebunden, die von verschiedenen Hamburger Großprojekten ausstrahlen. In Rothenditmold ist vor allem Eigeninitiative durch den Stadtteil selbst gefragt. In Bad Soden gibt es ebenfalls viele Menschen mit ausländischen Wurzeln. Sie gehören allerdings mehrheitlich der gesellschaftlichen Mittel- und Oberschicht an. Bad Soden verfügt über ein insgesamt positives Image, das aller kulturellen Veränderungen zum Trotz beibehalten werden soll. Entsprechende Initiativen gehen hier ebenfalls von der Gemeinde selbst aus. An allen Standorten hat es drastische Landschaftsveränderungen und speziell deren Erscheinung gegeben. Bad Soden und Wilhelmsburg haben dabei Teile ihres vormals ländlichen Charakters zu bewahren, während in Rothenditmold vor allem Zeugnisse aus der Zeit der Industrialisierung erhalten sind und den Ort prägen. Die Landschaften haben jeweils ihre einzigartigen Erscheinungen. Zumindest Teile der Landschaften ermöglichen eine Identifikation, sind attraktiv und liefern gute Erholungsmöglichkeiten. Um diese Qualitäten zu bewahren, müssen sie entsprechend gepflegt und weiter entwickelt werden. Dazu sind die Interessen und Wünsche der Bewohner zu ermitteln und in Planungen einzuarbeiten. Die Arbeit strebt einen Beitrag zur Lebensraumentwicklung für und mit Menschen an, die mittels ausgewählter Methoden der empirischen Sozialforschung eingebunden werden. Dabei wird gezeigt, dass die vorgestellten und erprobten Methoden sinnvoll in Projekte der Landschaftsplanung eingebunden werden können. Mit ihnen können ergänzende Erkenntnisse zum jeweiligen Landschaftsraum gewonnen werden, da sie helfen, die kollektive Wahrnehmung der Landschaft durch die Bevölkerung zu erfassen, um sie anschließend in Planungsentwürfe einbinden zu können. Mit der Untersuchung wird in den drei vorgestellten Fallstudien exemplarisch erfasst, welche Elemente der Landschaft für die Bewohner von besonderer Bedeutung sind. Darüber hinaus lernen Planer, welche Methoden zur Ermittlung emotionaler Landschaftswerte verfügbar sind und auf welcher Ebene der Landschaftsplanung sowie bei welchen Zielgruppen sie eingesetzt werden können. Durch die Verknüpfung landschaftsplanerischer Erfassungsmethoden mit Methoden der empirischen Sozialwissenschaft (Fragebogen, Interviews, „Spaziergangsinterviews“, gemeinsame Erarbeitung von Projekten bis zur Umsetzung) sowie der Möglichkeit zur Rückkoppelung landschaftsplaneri-scher Entwürfe mit der Bevölkerung wird eine Optimierung dieser Entwürfe sowohl im Sinne der Planer als auch im Sinne der Bürger erreicht. Zusätzlich wird die Wahrnehmung teilnehmender Bevölkerung für ihre Umwelt geschärft, da sie aufgefordert wird, sich mit ihrer Lebensumgebung bewusst auseinander zu setzen. Die Ergebnisse dieser Untersuchung sind Beitrag und Beleg zu der Annahme, dass ergänzende Methoden in der Landschaftsplanung zur stärkeren Interessenberücksichtigung der von Planung betroffenen Menschen benötigt werden. Zudem zeigen die Studien auf, wie man dem planungsethischen Anspruch, die Öffentlichkeit einzubeziehen, näher kommt. Resultat sind eine bessere Bewertung und Akzeptanz der Planungen und das nicht nur aus landschaftsplanerisch-fachlicher Sicht. Landschaftsplaner sollten ein Interesse daran haben, dass ihre Entwürfe ernst genommen und akzeptiert werden. Das schaffen sie, wenn sie der Bevölkerung nicht etwas aufplanen, sondern ihnen entsprechende Einflussmöglichkeiten bieten und Landschaft mit ihnen gemeinsam entwickeln.
Resumo:
Zunehmend mehr Menschen wünschen sich ein selbstbestimmtes Leben, neue Formen eines sozialen Miteinanders und mehr zwischenmenschliche Verbindlichkeit im Alltag. Die Möglichkeiten zur Mitsprache bei der Entwicklung und in der Organisation des alltäglichen Wohnens bleiben jedoch in der Regel nur einer kleinen Gruppe von BauherrInnen vorbehalten. Doch was ist mit jenen, die zwar gemeinschaftliche Lebensmodelle suchen, sich jedoch aufgrund ihrer Lebensplanung oder ihrer fnanziellen Situation nicht langfristig binden wollen oder können? Etwa siebzig Prozent der deutschen Haushalte mit geringem Einkommen wohnen zur Miete – viele von ihnen in anonymen Mietverhältnissen, in denen Wunsch und Wirklichkeit hinsichtlich einer guten und verlässlichen Nachbarschaft weit auseinander liegen. In der vorliegenden Arbeit gehe ich der Frage nach, wie nachbarschaftliches Wohnen in klassischen Mietshäusern organisiert werden kann. Welche Motivationen haben die BewohnerInnen? Wie kann unterstützend in die Entwicklung der Projekte eingegrifen werden? Wo liegen die natürlichen Grenzen des Konzeptes? Und wie kann verhindert werden, dass die Projekte nach einer euphorischen Phase des Neubaus oder der Sanierung entweder an inneren Widersprüchen oder an äußeren Zwängen scheitern? Als Forschungsansatz wählte ich eine Einzelfallstudie. Das Untersuchungsobjekt ist ein Mietshaus mit siebenundzwanzig Wohneinheiten und zweiundvierzig BewohnerInnen im Berliner Stadtteil Wedding. Ich habe das Projekt und die beteiligten Akteure während der Projektentwicklung, der Sanierungs- und der Wohnphase über einen Zeitraum von insgesamt zehn Jahren aktiv als Planer, Bewohner und Beobachter begleitet. Im Rahmen der Untersuchung wurden die unterschiedlichen Projektphasen, die Entwicklung des nachbarschaftlichen Miteinanders, sowie besondere Ereignisse in deren Verlauf beschrieben. Dabei wurden vor allem die eingesetzten Werkzeuge und Methoden, sowie wesentliche Faktoren, die zu der Entwicklung beigetragen haben, herausgestellt und analysiert. Anhand von Einzelinterviews, Gruppengesprächen und teilnehmenden Beobachtungen wurden die Wünsche, Bedürfnisse und Ängste der BewohnerInnen, sowie deren Auswirkungen auf das alltägliche Miteinander erfasst. Die Ergebnisse der Beobachtungen wurden interpretiert und abschließend in Empfehlungen zusammengefasst. Da sich das Projekt auch zehn Jahre nach der Gründung ständig weiter entwickelt, kann und soll in dieser Arbeit nur der Prozess beschrieben und analysiert, jedoch kein Endergebnis der Projektentwicklung präsentiert werden. Die vorliegende Studie soll vielmehr dazu beitragen, das Mietshausprojekt als alternatives Wohn- und Lebensmodell weiterzuentwickeln und zu seiner weiteren Verbreitung beitragen.
Resumo:
La corrupción sigue siendo uno de los principales problemas del Estado de Derecho en el siglo XXI. Su incidencia reduce la eficacia de la inversión, aumenta el valor de los bienes y servicios, reduce la competitividad de las empresas, vulnera la confianza de los ciudadanos en el ordenamiento jurídico y sobre todo condena a la miseria a quienes deben ser destinatarios de las políticas públicas.Sin embrago, la lucha que han realizado muchos gobiernos y funcionarios judiciales contra este fenómeno ha modificado sus formas de aparición, pues es cada vez menos frecuente la apropiación directa de los caudales públicos o la entrega de sobornos a los funcionarios, prefiriéndose métodos mucho más sutiles como los sobrecostos, la subcontratación masiva o la constitución de complicadas sociedades, en las cuales tienen participación los funcionarios públicos o sus familias.Este libro constituye un esfuerzo por el estudio jurídico y criminológico de la corrupción y los delitos contra la administración pública en Europa y Latinoamérica y reúne la selección de los temas penales más relevantes de la tesis doctoral del profesor Carlos Guillermo Castro Cuenca, denominada Aproximación a la Corrupción en la contratación pública y defendida en la universidad de Salamanca en febrero de 2008, con lo cual obtuvo la calificación de sobresaliente por unanimidad.
Resumo:
Ionenkäfige und speziell Penningfallen stellen sich in der Atomphysik als außergewöhnliche Werkzeuge heraus. Zum einen bieten diese 'Teilchencontainer' die Möglichkeit atomphysikalische Präzisionsmessungen durchzuführen und zum anderen stellen Penningfallen schwingungsfähige Systeme dar, in welchen nichtlineare dynamische Prozesse an gespeicherten Teilchen untersucht werden können. In einem ersten Teil der Arbeit wurde mit der in der Atomphysik bekannten Methode der optischen Mikrowellen-Doppelresonanz Spektroskopie der elektronische g-Faktor von Ca+ mit einer Genauigkeit von 4*10^{-8} zu gJ=2,00225664(9) bestimmt. g-Faktoren von Elektronen in gebundenen ionischen Systemen sind fundamentale Größen der Atomphysik, die Informationen über die atomare Wellenfunktion des zu untersuchenden Zustandes liefern. In einem zweiten Teil der Arbeit wurde hinsichtlich der Untersuchungen zur nichtlinearen Dynamik von parametrisch angeregten gespeicherten Elektronen beobachtet, dass ab bestimmten kritischen Teilchendichten in der Penningfalle die gespeicherten Elektronen kollektive Eigenschaften manifestieren. Weiterhin wurde bei der Anregung der axialen Eigenbewegung ein Schwellenverhalten der gemessenen Subharmonischen zur 2*omega_z-Resonanz beobachtet. Dieser Schwelleneffekt lässt sich mit der Existenz eines Dämpfungsmechanismus erklären, der auf die Elektronenwolke einwirkt, so dass eine Mindestamplitude der Anregung erforderlich ist, um diese Dämpfung zu überwinden. Durch Bestimmung der charakteristischen Kurven der gedämpften Mathieuschen Differentialgleichung konnte das beobachtete Phänomen theoretisch verstanden werden.
Resumo:
Der AMANDA-II Detektor ist primär für den richtungsaufgelösten Nachweis hochenergetischer Neutrinos konzipiert. Trotzdem können auch niederenergetische Neutrinoausbrüche, wie sie von Supernovae erwartet werden, mit hoher Signifikanz nachgewiesen werden, sofern sie innerhalb der Milchstraße stattfinden. Die experimentelle Signatur im Detektor ist ein kollektiver Anstieg der Rauschraten aller optischen Module. Zur Abschätzung der Stärke des erwarteten Signals wurden theoretische Modelle und Simulationen zu Supernovae und experimentelle Daten der Supernova SN1987A studiert. Außerdem wurden die Sensitivitäten der optischen Module neu bestimmt. Dazu mussten für den Fall des südpolaren Eises die Energieverluste geladener Teilchen untersucht und eine Simulation der Propagation von Photonen entwickelt werden. Schließlich konnte das im Kamiokande-II Detektor gemessene Signal auf die Verhältnisse des AMANDA-II Detektors skaliert werden. Im Rahmen dieser Arbeit wurde ein Algorithmus zur Echtzeit-Suche nach Signalen von Supernovae als Teilmodul der Datennahme implementiert. Dieser beinhaltet diverse Verbesserungen gegenüber der zuvor von der AMANDA-Kollaboration verwendeten Version. Aufgrund einer Optimierung auf Rechengeschwindigkeit können nun mehrere Echtzeit-Suchen mit verschiedenen Analyse-Zeitbasen im Rahmen der Datennahme simultan laufen. Die Disqualifikation optischer Module mit ungeeignetem Verhalten geschieht in Echtzeit. Allerdings muss das Verhalten der Module zu diesem Zweck anhand von gepufferten Daten beurteilt werden. Dadurch kann die Analyse der Daten der qualifizierten Module nicht ohne eine Verzögerung von etwa 5 Minuten geschehen. Im Falle einer erkannten Supernova werden die Daten für die Zeitdauer mehrerer Minuten zur späteren Auswertung in 10 Millisekunden-Intervallen archiviert. Da die Daten des Rauschverhaltens der optischen Module ansonsten in Intervallen von 500 ms zur Verfgung stehen, ist die Zeitbasis der Analyse in Einheiten von 500 ms frei wählbar. Im Rahmen dieser Arbeit wurden drei Analysen dieser Art am Südpol aktiviert: Eine mit der Zeitbasis der Datennahme von 500 ms, eine mit der Zeitbasis 4 s und eine mit der Zeitbasis 10 s. Dadurch wird die Sensitivität für Signale maximiert, die eine charakteristische exponentielle Zerfallszeit von 3 s aufweisen und gleichzeitig eine gute Sensitivität über einen weiten Bereich exponentieller Zerfallszeiten gewahrt. Anhand von Daten der Jahre 2000 bis 2003 wurden diese Analysen ausführlich untersucht. Während die Ergebnisse der Analyse mit t = 500 ms nicht vollständig nachvollziehbare Ergebnisse produzierte, konnten die Resultate der beiden Analysen mit den längeren Zeitbasen durch Simulationen reproduziert und entsprechend gut verstanden werden. Auf der Grundlage der gemessenen Daten wurden die erwarteten Signale von Supernovae simuliert. Aus einem Vergleich zwischen dieser Simulation den gemessenen Daten der Jahre 2000 bis 2003 und der Simulation des erwarteten statistischen Untergrunds kann mit einem Konfidenz-Niveau von mindestens 90 % gefolgert werden, dass in der Milchstraße nicht mehr als 3.2 Supernovae pro Jahr stattfinden. Zur Identifikation einer Supernova wird ein Ratenanstieg mit einer Signifikanz von mindestens 7.4 Standardabweichungen verlangt. Die Anzahl erwarteter Ereignisse aus dem statistischen Untergrund beträgt auf diesem Niveau weniger als ein Millionstel. Dennoch wurde ein solches Ereignis gemessen. Mit der gewählten Signifikanzschwelle werden 74 % aller möglichen Vorläufer-Sterne von Supernovae in der Galaxis überwacht. In Kombination mit dem letzten von der AMANDA-Kollaboration veröffentlicheten Ergebnis ergibt sich sogar eine obere Grenze von nur 2.6 Supernovae pro Jahr. Im Rahmen der Echtzeit-Analyse wird für die kollektive Ratenüberhöhung eine Signifikanz von mindestens 5.5 Standardabweichungen verlangt, bevor eine Meldung über die Detektion eines Supernova-Kandidaten verschickt wird. Damit liegt der überwachte Anteil Sterne der Galaxis bei 81 %, aber auch die Frequenz falscher Alarme steigt auf bei etwa 2 Ereignissen pro Woche. Die Alarm-Meldungen werden über ein Iridium-Modem in die nördliche Hemisphäre übertragen, und sollen schon bald zu SNEWS beitragen, dem weltweiten Netzwerk zur Früherkennung von Supernovae.
Resumo:
In dieser Arbeit werden nichtlineare Experimente zur Untersuchung der Dynamik in amorphen Festkörpern im Rahmen von Modellrechnungen diskutiert. Die Experimente beschäftigen sich mit der Frage nach dynamischen Heterogenitäten, worunter man das Vorliegen dynamischer Prozesse auf unterschiedlichen Zeitskalen versteht. Ist es möglich, gezielt 'langsame' oder 'schnelle' Dynamik in der Probe nachzuweisen, so ist die Existenz von dynamischen Heterogenitäten gezeigt. Ziel der Experimente sind deshalb sogenannte frequenzselektive Anregungen des Systems. In den beiden diskutierten Experimenten, zum einen nichtresonantes Lochbrennen, zum anderen ein ähnliches Experiment, das auf dem dynamischen Kerreffekt beruht, werden nichtlineare Antwortfunktionen gemessen. Um eine Probe in frequenzselektiver Weise anzuregen, werden zunächst einer oder mehrere Zyklen eines oszillierenden elektrischen Feldes an die Probe angelegt. Die Experimente werden zunächst im Terahertz-Bereich untersucht. Auf dieser Zeitskala findet man phonon-ähnliche kollektive Schwingungen in Gläsern. Diese Schwingungen werden durch (anharmonische) Brownsche Oszillatoren beschrieben. Der zentrale Befund der Modellrechnungen ist, daß eine frequenzselektive Anregung im Terahertz-Bereich möglich ist. Ein Nachweis dynamischer Heterogenitäten im Terahertz-Bereich ist somit durch beide Experimente möglich. Anschliessend wird das vorgestellte Kerreffekt-Experiment im Bereich wesentlich kleinerer Frequenzen diskutiert. Die langsame Reorientierungsdynamik in unterkühlten Flüssigkeiten wird dabei durch ein Rotationsdiffusionsmodell beschrieben. Es werden zum einen ein heterogenes und zum anderen ein homogenes Szenario zugrundegelegt. Es stellt sich heraus, daß wie beim Lochbrennen eine Unterscheidung durch das Experiment möglich ist. Das Kerreffekt-Experiment wird somit als eine relativ einfache Alternative zur Technik des nichtresonanten Lochbrennens vorgeschlagen.
Resumo:
Im Laufe der Evolution müssen Sauerstoff-metabolisierende Organismen eine Reihe von Anpassungen entwickelt haben, um in der zytotoxischen oxidativen Umgebung der sauerstoff-haltigen Erdatmosphäre überleben zu können. Die im Rahmen dieser Arbeit durchgeführten vergleichenden Analysen mitochondrial kodierter und kern-kodierter Proteome mehrerer hundert Spezies haben ergeben, dass die Evolution eines alternativen genetischen Codes in Mitochondrien eine moderne Adaptation in diesem Sinne war. Viele aerobe Tiere und Pilze dekodieren in Abweichung vom genetischen Standard-Code das Codon AUA als Methionin. In der vorliegenden Arbeit wird gezeigt, dass diese Spezies dadurch eine massive Akkumulation der sehr leicht oxidierbaren Aminosäure Methionin in ihren Atmungskettenkomplexen erreichen, die generell ein bevorzugtes Ziel reaktiver Sauerstoffspezies sind. Der gewonnene Befund lässt sich widerspruchsfrei nur unter Annahme einer antioxidativen Wirkung dieser Aminosäure erklären, wie sie erstmals 1996 von R. Levine anhand von Oxidationsmessungen in Modellproteinen postuliert worden war. In der vorliegenden Arbeit wird diese Hypothese nun direkt mittels neuartiger Modellsubstanzen in lebenden Zellen bestätigt. Die durchgeführten bioinformatischen Analysen und zellbiologischen Experimente belegen, dass kollektive Proteinveränderungen die Triebkraft für die Evolution abweichender genetischer Codes sein können.rnDie Bedeutung von oxidativem Stress wurde darüber hinaus auch im Referenzrahmen einer akuten oxidativen Schädigung im Einzelorganismus untersucht. Da oxidativer Stress in der Pathogenese altersassoziierter neurodegenerativer Erkrankungen wie der Alzheimerschen Krankheit prominent involviert zu sein scheint, wurden die Auswirkungungen von Umwelt-induziertem oxidativem Stress auf den histopathologischen Verlauf in einem transgenen Modell der Alzheimerschen Krankheit in vivo untersucht. Dabei wurden transgene Mäuse des Modells APP23 im Rahmen von Fütterungsversuchen einer lebenslangen Defizienz der Antioxidantien Selen oder Vitamin E ausgesetzt. Während die Selenoproteinexpression durch die selendefiziente Diät gewebespezifisch reduziert wurde, ergaben sich keine Anzeichen eines beschleunigten Auftretens pathologischer Marker wie amyloider Plaques oder Neurodegeneration. Es war vielmehr ein unerwarteter Trend hinsichtlich einer geringeren Plaquebelastung in Vitamin E-defizienten Alzheimermäusen zu erkennen. Auch wenn diese Daten aufgrund einer geringen Versuchstiergruppengröße nur mit Vorsicht interpretiert werden dürfen, so scheint doch ein Mangel an essentiellen antioxidativen Nährstoffen die Progression in einem anerkannten Alzheimermodell nicht negativ zu beeinflussen.rn
Resumo:
IceCube, ein Neutrinoteleskop, welches zur Zeit am Südpol aufgebaut und voraussichtlich 2011 fertiggestellt sein wird, kann galaktische Kernkollaps-Supernovae mit hoher Signifikanz und unübertroffener statistischer Genauigkeit der Neutrinolichtkurve detektieren. Derartige Supernovae werden begleitet von einem massiven Ausbruch niederenergetischer Neutrinos aller Flavour. Beim Durchfliegen des Detektormediums Eis entstehen Positronen und Elektronen, welche wiederum lokale Tscherenkowlichtschauer produzieren, die in ihrer Summe das gesamte Eis erleuchten. Ein Nachweis ist somit, trotz der Optimierung IceCubes auf hochenergetische Teilchenspuren, über eine kollektive Rauschratenerhöhung aller optischen Module möglich. Die vorwiegende Reaktion ist der inverse Betazerfall der Antielektronneutrinos, welcher über 90,% des gesamten Signals ausmacht.rnrnDiese Arbeit beschreibt die Implementierung und Funktionsweise der Supernova-Datennahme-Software sowie der Echtzeitanalyse, mit welcher die oben genannte Nachweismethode seit August 2007 realisiert ist. Die Messdaten der ersten zwei Jahre wurden ausgewertet und belegen ein extrem stabiles Verhalten des Detektors insgesamt sowie fast aller Lichtsensoren, die eine gemittelte Ausfallquote von lediglich 0,3,% aufweisen. Eine Simulation der Detektorantwort nach zwei unterschiedlichen Supernova-Modellen ergibt eine Sichtweite IceCubes, die im besten Falle bis zur 51,kpc entfernten Großen Magellanschen Wolke reicht. Leider ist der Detektor nicht in der Lage, die Deleptonisierungsspitze aufzulösen, denn Oszillationen der Neutrinoflavour innerhalb des Sterns modifizieren die Neutrinospektren ungünstig. Jedoch können modellunabhängig anhand des frühesten Signalanstiegs die inverse Massenhierarchie sowie $sin^2 2theta_{13} > 10^{-3}$ etabliert werden, falls die Entfernung zur Supernova $leq$,6,kpc beträgt. Gleiches kann durch Auswertung eines möglichen Einflusses der Erdmaterie auf die Neutrinooszillation mit Hilfe der Messung eines zweiten Neutrinodetektors erreicht werden.
Resumo:
“Plasmon” is a synonym for collective oscillations of the conduction electrons in a metal nanoparticle (excited by an incoming light wave), which cause strong optical responses like efficient light scattering. The scattering cross-section with respect to the light wavelength depends not only on material, size and shape of the nanoparticle, but also on the refractive index of the embedding medium. For this reason, plasmonic nanoparticles are interesting candidates for sensing applications. Here, two novel setups for rapid spectral investigations of single nanoparticles and different sensing experiments are presented.rnrnPrecisely, the novel setups are based on an optical microscope operated in darkfield modus. For the fast single particle spectroscopy (fastSPS) setup, the entrance pinhole of a coupled spectrometer is replaced by a liquid crystal device (LCD) acting as spatially addressable electronic shutter. This improvement allows the automatic and continuous investigation of several particles in parallel for the first time. The second novel setup (RotPOL) usesrna rotating wedge-shaped polarizer and encodes the full polarization information of each particle within one image, which reveals the symmetry of the particles and their plasmon modes. Both setups are used to observe nanoparticle growth in situ on a single-particle level to extract quantitative data on nanoparticle growth.rnrnUsing the fastSPS setup, I investigate the membrane coating of gold nanorods in aqueous solution and show unequivocally the subsequent detection of protein binding to the membrane. This binding process leads to a spectral shift of the particles resonance due to the higher refractive index of the protein compared to water. Hence, the nanosized addressable sensor platform allows for local analysis of protein interactions with biological membranes as a function of the lateral composition of phase separated membranes.rnrnThe sensitivity on changes in the environmental refractive index depends on the particles’ aspect ratio. On the basis of simulations and experiments, I could present the existence of an optimal aspect ratio range between 3 and 4 for gold nanorods for sensing applications. A further sensitivity increase can only be reached by chemical modifications of the gold nanorods. This can be achieved by synthesizing an additional porous gold cage around the nanorods, resulting in a plasmon sensitivity raise of up to 50 % for those “nanorattles” compared to gold nanorods with the same resonance wavelength. Another possibility isrnto coat the gold nanorods with a thin silver shell. This reduces the single particle’s resonance spectral linewidth about 30 %, which enlarges the resolution of the observable shift. rnrnThis silver coating evokes the interesting effect of reducing the ensemble plasmon linewidth by changing the relation connecting particle shape and plasmon resonance wavelength. This change, I term plasmonic focusing, leads to less variation of resonance wavelengths for the same particle size distribution, which I show experimentally and theoretically.rnrnIn a system of two coupled nanoparticles, the plasmon modes of the transversal and longitudinal axis depend on the refractive index of the environmental solution, but only the latter one is influenced by the interparticle distance. I show that monitoring both modes provides a self-calibrating system, where interparticle distance variations and changes of the environmental refractive index can be determined with high precision.
Resumo:
Supernovae are among the most energetic events occurring in the universe and are so far the only verified extrasolar source of neutrinos. As the explosion mechanism is still not well understood, recording a burst of neutrinos from such a stellar explosion would be an important benchmark for particle physics as well as for the core collapse models. The neutrino telescope IceCube is located at the Geographic South Pole and monitors the antarctic glacier for Cherenkov photons. Even though it was conceived for the detection of high energy neutrinos, it is capable of identifying a burst of low energy neutrinos ejected from a supernova in the Milky Way by exploiting the low photomultiplier noise in the antarctic ice and extracting a collective rate increase. A signal Monte Carlo specifically developed for water Cherenkov telescopes is presented. With its help, we will investigate how well IceCube can distinguish between core collapse models and oscillation scenarios. In the second part, nine years of data taken with the IceCube precursor AMANDA will be analyzed. Intensive data cleaning methods will be presented along with a background simulation. From the result, an upper limit on the expected occurrence of supernovae within the Milky Way will be determined.
Resumo:
In dieser Arbeit wurden Untersuchungen zur Fluoreszenzdynamik und zum Mechanismus des Photobleichens einzelner Farbstoffmoleküle einer homologen Reihe von Rylentetracarbonsäurediimiden durchgeführt. Mit der Erweiterung des elektronischen π-Systems verringert sich die HOMO/LUMO-Energiedifferenz, so dass strahlungslose Relaxationsprozesse gemäß des Energielückengesetzes zunehmen. Die konfokale Einzelmolekülspektroskopie in Kombination mit zeitkorrelierter Einzelphotonenzählung ermöglicht es, Fluktuationen der inneren Konversionsrate zu detektieren. Der limitierende Faktor jedes Einzelmolekülexperiments ist die Photostabilität der Moleküle. Für die homologe Reihe konnten mindestens zwei Photobleichmechanismen identifiziert werden. Wenn Singulett-Sauerstoff durch Selbstsensibilisierung erzeugt werden kann, ist unter Luft die Photooxidation der wahrscheinlichste Mechanismus. Unter Ausschluss von Luftsauerstoff spielt die Bildung langlebiger Dunkelzustände eine entscheidende Rolle, die bevorzugt über höher angeregte Triplett- und Singulett-Zustände abläuft. Es wird angenommen, dass es sich hierbei um einen reversiblen Ionisierungsprozess handelt, bei dem das Radikal-Kation der Rylendiimide gebildet wird. Es konnte gezeigt werden, dass durch eine geeignete Wahl der Anregungsbedingungen die Dunkelzustandspopulierung verhindert und zugleich die Photostabilität der Fluorophore deutlich erhöht wird. Durch die Verknüpfung der beiden niedrigsten Homologen erhält man ein Donor-Akzeptor-Modellsystem, bei dem die Anregungsenergie mit hoher Effizienz vom Donor- auf den Akzeptor-Chromophor übertragen wird. In der Fluoreszenz einzelner Bichromophore wurden bei selektiver Anregung des Donors kollektive Auszeiten beobachtet, die durch effiziente Singulett-Triplett-Annihilation verursacht werden.