52 resultados para Leipzig (Germany). Industrie- und Handelskammer.


Relevância:

30.00% 30.00%

Publicador:

Resumo:

ZusammenfassungrnrnrnDer Köderstreifentest, die Auswertung der Minicontainer und die Erfassung der Bodenlebewesen mit Hilfe der Bodenstechkerne ergeben zusammen eine gut standardisierte Methode zur Darstellung und Beurteilung der Mesofauna. Unter der Vorraussetzung gleicher abiotischer Faktoren ist es problemlos möglich, selbst unterschiedliche Standorte wie Agrarflächen, Weinberge und Waldböden vergleichend zu untersuchen.rnrnAuf den verschiedenen Versuchsflächen des Laubenheimer Weinberges gelingt es deutlich zu zeigen, wie wichtig eine naturnahe Begrünung für den Boden ist. Dies betrifft nicht nur die Entwicklung der Humusschicht und damit die Bodenlebewesen, sondern auch die Schaffung von Kapillaren und Poren, die durch schwere landwirtschaftliche Geräte im Rahmen der Bo-denverdichtung reduziert werden. Erosionserscheinungen kommen vollständig zum Stillstand. Das Ökosystem Boden sollte auch so gut wie keine Belastung durch Herbizide, Insektizide und Pestizide erfahren. Ähnliches gilt auch für agrarisch genutzte Flächen. rnrnDer Lennebergwald als Naherholungsregion von Mainz ist besonders schützenswert, da dieser durch intensiven Immissionseintrag aufgrund der Nähe zu den Autobahnen und durch die Eutrophierung über die Haustiere stark belastet wird. Die immer größere Ausdehnung des Siedlungsgebietes und die damit verbundene steigende Anzahl an Waldbesuchern, die durch Verlassen der vorgegebenen Wege den Boden zerstören, gefährden zusätzlich das Ökosystem.rnrnÜber Sinn und Zweck einer Flurbereinigung zu diskutieren ist hier nicht angebracht. Aus bo-denkundlicher Sicht ist sie nicht zu befürworten, da hiermit alle bodenbewahrenden Maßnah-men ignoriert werden. Wichtig ist es, bei den Landwirten Aufklärungsarbeit zu leisten, was bodenschonende und bodenweiterentwickelnde Bearbeitungsmethoden bedeuten. Mit Hilfe sachgemäßer Aufklärung und richtiger Umsetzung kann durch Begrünungsmaßnahmen der zum Teil sehr stark strapazierte Boden erhalten, gefördert und auf lange Sicht stabilisiert wer-den.rnrnAufgrund der festgestellten Tatsachen wurde ab 2008 auf eine flächige Dauerbegrünung um-gestellt, so dass es auch in den unbegrünten Rebzeilen zu einer Bodenverbesserung kommen kann. Mit großer Wahrscheinlichkeit dürfte diese schneller voranschreiten, da die Mesofauna von den benachbarten begrünten Rebzeilen einwandern kann. rnDie Mesofauna landwirtschaftlich genutzter Flächen und Waldgebiete kann, obwohl extrem unterschiedlich, miteinander verglichen werden.rnrnBrachflächen und Waldgebiete lassen sich aufgrund der unberührten Bodenstrukturen sogar gut miteinander vergleichen. Temperatur- und Niederschlagsverhältnisse müssen dabei über-einstimmen. Die Azidität der jeweiligen Böden gilt es zu berücksichtigen, da verschiedene Tiergruppen damit unterschiedlich umgehen. Collembolen bevorzugen neutrale Böden, wäh-rend Acari als Räuber mit den Lebewesen in sauren Böden besser zurechtkommen. Die Streu-auflage ist dabei von großer Bedeutung.rnrnIm Rahmen von Bearbeitungsmaßnahmen kommt es durch jeglichen Maschineneinsatz zu ei-ner mehr oder weniger starken Veränderung der Bodenstruktur und somit auch der darin le-benden Mesofauna. Bis sich diese erholt hat, steht meist schon die nächste Bodenbewirtschaf-tung an. Die Bodenverdichtung spielt auch eine Rolle. Bei herkömmlichem Ackerbau ist eine Fruchtfolge mit eingeschalteter Brache oder Gründüngung mit Klee oder Luzerne angebracht, um die Mesofauna nicht zu stark zu strapazieren. Organische Düngegaben leicht abbaubarer Streu sind deutlich zu bevorzugen gegenüber sehr zellulose- und ligninhaltigen Pflanzenresten. Die Einbringung von Stoppeln nach Aberntung von Getreidefeldern ist sinnvoll, solange dabei nicht zu tief in die Bodenstruktur eingegriffen wird (ZIMMER 1997).rnrnIm Rahmen der Sonderkultur Wein, bei der eine Bodenbearbeitung aus den aufgezeigten Gründen eigentlich nicht notwendig wäre, sind Dauerbegrünungsmaßnahmen generell von Nutzen: der Erosion wird vorgebeugt, die Bodenfeuchte konstant gehalten, der anfallende Mulch als Gründüngung genutzt. Dies sind alles entscheidende Faktoren, die die Meso- und Makrofauna fördern. Nur die Bodenverdichtung durch schweres Gerät, wie Schlepper und Vollernter, sind für den Boden nicht förderlich (HEISLER 1993, EHRENSBERGER 1993). Nie-derdruckreifen und Verringerung der Befahrung sind geeignete Gegenmaßnahmen. rnrnEntgegen landläufiger Winzermeinung, stellen die Pflanzen einer Begrünung eigentlich keine Konkurrenz für die Weinstöcke dar. Die Vorteile einer Begrünung sind nicht nur die Förde-rung der einheimischen Flora in ihrem standortgerechten Artenreichtum, sondern auch Ver-vielfältigung von Meso- und Makrofauna aufgrund der dadurch mehr anfallenden und ein-zuarbeitenden leicht abbaubaren Streu (GRIEBEL 1995).rn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ozon (O3) ist in der Atmosphäre ein wichtiges Oxidanz und Treibhausgas. Während die höchsten Konzentrationen in der Stratosphäre beobachtet werden und die vor der gefährlichen UV-Strahlung schützende Ozonschicht bilden, können sich signifikante Änderungen der Ozon-Konzentration in der Region der Tropopause auf das Klima der Erde auswirken. Des Weiteren ist Ozon eine der Hauptquellen für das Hydroxylradikal (OH) und nimmt damit entscheidend Einfluss auf die Oxidationskraft der Atmosphäre. Der konvektive Transport von Ozon und seinen Vorläufergasen aus Regionen nahe der Erdoberfläche in die freie Troposphäre beeinflusst das Budget dieser Spezies in der Tropopausenregion.rnDie Datengrundlage der Studie in der vorliegenden Arbeit basiert auf den flugzeuggetragenen Messkampagnen GABRIEL 2005 (Suriname, Südamerika) sowie HOOVER I 2006 und HOOVER II 2007 (beide in Europa). Mit dem zur Verfügung stehenden Datensatz wird das Ozonbudget in der freien, unbelasteten Hintergrundatmosphäre und in der durch hochreichende Konvektion gestörten, oberen Troposphäre untersucht. Anhand der auf in-situ Messungen von O3, NO, OH, HO2 und dem aktinischen Strahlungsfluss basierten Berechnung der Netto-Ozonproduktionsrate (NOPR) werden für das Messgebiet Ozontendenzen in der unbelasteten Troposphäre abgeleitet und mit Simulationen des globalen Chemie-Transport-Modells MATCH-MPIC verglichen. Mit Hilfe zweier Fallstudien in den Tropen in Südamerika und den mittleren Breiten in Europa werden die Auswirkungen von hochreichender Konvektion auf die obere Troposphäre quantifiziert.rnDie Ergebnisse zeigen für die Grenzschicht in niedrigen und mittleren Breiten eine eindeutige Tendenz zur Produktion von Ozon, was für den tropischen Regenwald in der Messregion nicht der allgemeinen Erwartung entsprach, nach der diese Region durch die Zerstörung von Ozon charakterisiert sein sollte. In der oberen Troposphäre ab etwa 7 km wird für die beiden Regionen eine leichte Tendenz zur Ozonproduktion beobachtet. Signifikante Unterschiede zeigen die Ergebnisse für die mittlere Troposphäre. Während die Tropen in dieser Region durch eine eindeutige Tendenz zur Zerstörung von Ozon charakterisiert sind, lässt sich über den mittleren Breiten zwar eine hohe photochemische Aktivität aber keine derart klare Tendenz feststellen. Die hohen Breiten zeichnen sich durch eine neutrale Troposphäre in Bezug auf die Ozontendenz aus und weisen kaum photochemische Aktivität auf. Der Vergleich dieser Ergebnisse mit dem MATCH-MPIC Modell zeigt in weiten Teilen der Messregionen eine grundlegende Übereinstimmung in der Tendenz zur Produktion oder Zerstörung von Ozon. Die absoluten Werte werden vom Modell aber generell unterschätzt. Signifikante Unterschiede zwischen in-situ Daten und Modellsimulationen werden in der Grenzschicht über dem tropischen Regenwald identifiziert.rnDer Einfluss der Konvektion ist durch eine signifikant erhöhte NOPR gekennzeichnet. In dieser Arbeit wird in den Tropen mit einem Median-Wert von 0.20 ppbv h−1 eine um den Faktor 3.6 erhöhte NOPR im Vergleich zur ungestörten oberen Troposphäre abgeschätzt. In den mittleren Breiten führt die um eine Größenordnung höhere NO-Konzentration zu einem Wert von 1.89 ppbv h−1, was einer Überhöhung um einen Faktor 6.5 im Vergleich zum ungestörten Zustand entspricht. Diese Ergebnisse zeigen für beide Regionen in der oberen Troposphäre eine erhöhte Ozonproduktion als Folge konvektiver Aktivität. rnrnHochreichende Konvektion ist zudem ein sehr effektiver Mechanismus für den Vertikaltransport aus der Grenzschicht in die obere Troposphäre. Die schnelle Hebung in konvektiven Wolken führt bei Spurengasen mit Quellen an der Erdoberfläche zu einer Erhöhung ihrer Konzentration in der oberen Troposphäre. Die hochgradig löslichen Spurenstoffe Formaldehyd (HCHO) und Wasserstoffperoxid (H2O2) sind wichtige Vorläufergase der HOx-Radikale. Es wird angenommen, dass sie aufgrund ihrer Löslichkeit in Gewitterwolken effektiv ausgewaschen werden.rnIn der vorliegenden Arbeit wird eine Fallstudie von hochreichender Konvektion im Rahmen des HOOVER II Projekts im Sommer 2007 analysiert. Am 19.07.2007 entwickelten sich am Nachmittag am Südostrand eines in nordöstlicher Richtung ziehenden mesoskaligen konvektiven Systems drei zunächst isolierte konvektive Zellen. Flugzeuggetragene Messungen in der Aus- und der Einströmregion einer dieser Gewitterzellen stellen einen exzellenten Datensatz bereit, um die Auswirkungen von hochreichender Konvektion auf die Verteilung verschiedener Spurengase in der oberen Troposphäre zu untersuchen. Der Vergleich der Konzentrationen von Kohlenstoffmonoxid (CO) und Methan (CH4) zwischen der oberen Troposphäre und der Grenzschicht deutet auf einen nahezu unverdünnten Transport dieser langlebigen Spezies in der konvektiven Zelle hin. Die Verhältnisse betragen (0.94±0.04) für CO und (0.99±0.01) für CH4. Für die löslichen Spezies HCHO und H2O2 beträgt dieses Verhältnis in der Ausströmregion (0.55±0.09) bzw. (0.61±0.08). Dies ist ein Indiz dafür, dass diese Spezies nicht so effektiv ausgewaschen werden wie angenommen. Zum besseren Verständnis des Einflusses der Konvektion auf die Budgets dieser Spezies in der oberen Troposphäre wurden im Rahmen dieser Arbeit Boxmodell-Studien für den Beitrag der photochemischen Produktion in der Ausströmregion durchgeführt, wobei die gemessenen Spezies und Photolysefrequenzen als Randbedingungen dienten. Aus den Budgetbetrachtungen für HCHO und H2O2 wird eine Auswascheffizienz von (67±24) % für HCHO und (41±18) % für H2O2 abgeschätzt. Das für H2O2 überraschende Ergebnis lässt darauf schließen, dass dieses Molekül in einer Gewitterwolke deutlich effektiver transportiert werden kann, als aufgrund seiner hohen Löslichkeit aus der Henry-Konstanten zu erwarten wäre. Das Ausgasen von gelöstem H2O2 beim Gefrieren eines Wolkentropfens, d.h. ein Retentionskoeffizient kleiner 1, ist ein möglicher Mechanismus, der zum beobachteten Mischungsverhältnis dieser löslichen Spezies in der Ausströmregion beitragen kann.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Im Zuge dieser Arbeit ist ein Massenspektrometer zur flugzeuggetragenen Messung von HNO3 und HONO auf dem neuen deutschen Forschungsflugzeug HALO aufgebaut worden (AIMS - Atmospheric chemical Ionization Mass Spectrometer). Die Ionisation der HNO3- und HONO-Moleküle erfolgt chemisch durch Reaktion mit SF5- -Ionen. Basierend auf den Ergebnissen von Laborversuchen wurden die Betriebsparameter optimiert, die Einzelkomponenten im HALO-Rack zusammengestellt und eine Einlassleitung entworfen, die Wandeffekte minimiert und Untergrundmessungen und HNO3-Kalibrationen im Flug ermöglicht. Die Empfindlichkeit der Messung von HNO3 und HONO wurde ebenso im Labor untersucht wie Interferenzen mit Wasserdampf und Ozon. Die HONO-Vergleichskampagne FIONA am Europäischen Photoreaktor (EUPHORE) in Valencia war die erste Messkampagne mit AIMS. Bei den offenen Vergleichsmessungen stimmten die von AIMS gemessenen HONO-Mischungsverhältnisse innerhalb +-20% mit dem Median von 9 weiteren HONO-Messungen überein. Die ersten flugzeuggetragenen Messungen mit AIMS werden im Verlauf der HALO-Missionen ML-CIRRUS und TACTS stattfinden. Neben dem Aufbau und der Charakterisierung von AIMS war die Analyse der Aufnahme von HNO3 in Eispartikel von Kondensstreifen und Zirren Gegenstand dieser Arbeit. Die Aufnahme von HNO3 in Kondensstreifeneispartikel wurde erstmals systematisch anhand einer Flugzeugmesskampagne (CIRRUS-III) untersucht. Während CIRRUS-III im November 2006 wurden Zirren und zufällig knapp 40 persistente Kondensstreifen über Deutschland und Nordeuropa beprobt. Die Messungen fanden in Höhen zwischen 10 und 11.5 km und bei Temperaturen zwischen 210 und 230 K statt. Die HNO3-Konzentration wurde mit Hilfe von NOy-Messungen bestimmt. Im Mittel war in Kondensstreifen ein größerer Anteil des Gesamt-HNO3 in den Eispartikeln gebunden (6 %) als in Zirren (3 %). Das Gasphasenäquivalent des eisgebundenen HNO3 betrug in Zirren durchschnittlich 6 pmol/mol, in Kondensstreifen 14 pmol/mol und in jungen Kondensstreifen (Alter<1 h) 21 pmol/mol. Das Mischungsverhältnis von HNO3 zu H2O in Eispartikeln war in Kondensstreifen leicht höher als in Zirren unter ähnlichen meteorologischen Bedingungen. Ursächlich für die höheren Werte in persistenten Kondensstreifen sind wahrscheinlich die hohen HNO3-Konzentrationen in den Abgasfahnen der Flugzeuge bei der Kondensstreifenbildung. Die beobachtete Abnahme des HNO3/H2O-Molverhältnisses mit zunehmendem Effektivdurchmesser der Eispartikel deutet an, dass die HNO3-Konzentrationen in Eispartikeln von jungen Kondensstreifen durch die Aufnahme von Abgas-HNO3 in die gefrierenden Aerosolpartikel bestimmt wird. Die Konzentrationen in älteren Kondensstreifen werden zunehmend durch das Vergraben von Umgebungs-HNO3 in wachsenden Eispartikeln kontrolliert. Diese Studie leistet einen Beitrag zu einem besseren Prozessverständnis der HNO3-Aufnahme in atmosphärische Eispartikel. Sie motiviert die Nutzung persistenter Kondensstreifen als atmosphärisches Labor zur Untersuchung der Spurengasaufnahme in wachsende Eispartikel.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ziel der vorliegenden Arbeit war die Untersuchung der Bedeutung des lebensgeschichtlichen Ereignisses (erzwungener) Emigration aus Deutschland zur Zeit des Nationalsozialismus für die Identitätsentwicklung von Kindern und Jugendlichen. Anhand der objektiv hermeneutischen Analyse und Interpretation lebensgeschichtlicher Interviews, objektiver Daten sowie z.T. weiterer (auto-)biographischer Materialien dreier Personen, die als Kinder in die USA emigrierten, wurde vor allem der Frage nachgegangen, welche Zusammenhänge herstellbar sind zwischen entwicklungsmäßig gewissermaßen ‚vorprogrammierten‘ Krisen der Bindung und Ablösung im Sozialisationsprozess und dem Ereignis Emigration als fallübergreifend vorliegender Besonderheit im Sinne eines potentiell traumatischen Krisenereignisses. Das zentrale Interesse bestand in der Rekonstruktion unterschiedlicher biographisch wirksamer Habitus der Krisenbewältigung. In heuristischer Absicht wurde dabei einerseits angeknüpft an das soziologisch strukturtheoretische Modell Ulrich Oevermanns von Sozialisation als Prozess der Krisenbewältigung, andererseits an Robert Kegans entwicklungspsychologisches Konzept der Entwicklung des Selbst in einbindenden Kulturen. Im Zuge der Fallrekonstruktionen ließen sich erstens von Fall zu Fall unterschiedliche Perspektiven auf die Erfahrung der Emigration herausarbeiten sowie zweitens jeweils spezifische Haltungen im Umgang mit (wie bewusst auch immer als solche wahrgenommenen) Entscheidungskrisen der Lebensgestaltung, also eine je eigene Form des Umgangs mit der für die menschliche Lebenspraxis konstitutiven widersprüchlichen Einheit von Entscheidungszwang und Begründungsverpflichtung. Die Ergebnisse verweisen zum einen auf den großen Einfluss familialer Sozialisation auf die Entwicklung, zeigen zum anderen aber auch die Bedeutsamkeit kultureller Einbindungsmöglichkeiten über die Lebensspanne auf. Sie bieten damit eine empirische Fundierung der Synthese des Oevermannschen und des Keganschen Modells.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Applikationsfertige Zytostatikazubereitungen werden heute unter der Verantwortung eines Apothekers in zentralisierten Herstellungsbereichen hergestellt. Weil die Verordnung der Chemotherapie ein großes Fehlerrisiko birgt, ist konsequentes Verordnungsmonitoring ein wesentlicher Teilprozess der zentralen Zytostatikazubereitung. rnDie aktuelle Umsetzung und die Ergebnisse des Verordnungsmonitorings in den Universitätskliniken Deutschlands wurden im Rahmen dieser Arbeit in einer prospektiven Erhebung erfasst. Als häufigste Verordnungsirrtümer wurden Dosisberechnungsfehler (48%), welche als von hoher Relevanz (78%) für die Patientensicherheit angesehen wurden, genannt. Die Inzidenz der Verordnungsfehler betrug durchschnittlich 0,77% bei rund 1950 Verordnungen pro Tag. Das konsequente Verordnungsmonitoring von pharmazeutischer Seite erfolgt höchst effizient und leistet einen hohen Beitrag zur Patienten- und Arzneimitteltherapiesicherheit in der Onkologie.rnFür die Herstellung der applikationsfertiger Zytostatika-Zubereitungen sind fundierte Kenntnisse zu deren physikalisch-chemischen Stabilität erforderlich. Zu neu zugelassenen Zytostatika und insbesondere Biologicals, stehen häufig noch keine Daten zur Stabilität der applikationsfertigen Lösungen zur Verfügung. Die Bestimmung der physikalisch-chemischen Stabilität war daher Gegenstand dieser Arbeit. Die applikationsfertigen Infusionslösungen der Purin-Analoga Nelarabin und Clofarabin (RP-HPLC), sowie des monoklonalen Antiköpers Trastuzumab (SEC, UV-Spektroskopie, SDS-Page), erwiesen sich über einen Zeitraum von mindestens 28 Tagen als stabil. Die Stabilität zweier Camptothecin-Derivate (Topotecan und Irinotecan) beladen auf DC Beads™, wie auch die Ladungskapazität und Kompatibilität mit Kontrastmitteln, wurde ebenfalls bewiesen. rn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Innerhalb des Untersuchungsgebiets Schleswig-Holstein wurden 39.712 topographische Hohlformen detektiert. Genutzt wurden dazu ESRI ArcMap 9.3 und 10.0. Der Datenaufbereitung folgten weitere Kalkulationen in MATLAB R2010b. Jedes Objekt wurde räumlich mit seinen individuellen Eigenschaften verschnitten. Dazu gehörten Fläche, Umfang, Koordinaten (Zentroide), Tiefe und maximale Tiefe der Hohlform und Formfaktoren wie Rundheit, Konvexität und Elongation. Ziel der vorgestellten Methoden war die Beantwortung von drei Fragestellungen: Sind negative Landformen dazu geeignet Landschaftseinheiten und Eisvorstöße zu unterscheiden und zu bestimmen? Existiert eine Kopplung von Depressionen an der rezenten Topographie zu geologischen Tiefenstrukturen? Können Senken unterschiedlicher Entstehung anhand ihrer Formcharakteristik unterteilt werden? Die vorgenommene Klassifikation der großen Landschaftseinheiten basiert auf der Annahme, dass sowohl Jungmoränengebiete, ihre Vorflächen als auch Altmoränengebiete durch charakteristische, abflusslose Hohlformen, wie Toteislöcher, Seen, etc. abgegrenzt werden können. Normalerweise sind solche Depressionen in der Natur eher selten, werden jedoch für ehemalige Glaziallandschaften als typisch erachtet. Ziel war es, die geologischen Haupteinheiten, Eisvorstöße und Moränengebiete der letzten Vereisungen zu differenzieren. Zur Bearbeitung wurde ein Detektionsnetz verwendet, das auf quadratischen Zellen beruht. Die Ergebnisse zeigen, dass durch die alleinige Nutzung von Depressionen zur Klassifizierung von Landschaftseinheiten Gesamtgenauigkeiten von bis zu 71,4% erreicht werden können. Das bedeutet, dass drei von vier Detektionszellen korrekt zugeordnet werden können. Jungmoränen, Altmoränen, periglazialeVorflächen und holozäne Bereiche können mit Hilfe der Hohlformen mit großer Sicherheit voneinander unterschieden und korrekt zugeordnet werden. Dies zeigt, dass für die jeweiligen Einheiten tatsächlich bestimmte Senkenformen typisch sind. Die im ersten Schritt detektierten Senken wurden räumlich mit weiterreichenden geologischen Informationen verschnitten, um zu untersuchen, inwieweit natürliche Depressionen nur glazial entstanden sind oder ob ihre Ausprägung auch mit tiefengeologischen Strukturen in Zusammenhang steht. 25.349 (63,88%) aller Senken sind kleiner als 10.000 m² und liegen in Jungmoränengebieten und können vermutlich auf glaziale und periglaziale Einflüsse zurückgeführt werden. 2.424 Depressionen liegen innerhalb der Gebiete subglazialer Rinnen. 1.529 detektierte Hohlformen liegen innerhalb von Subsidenzgebieten, von denen 1.033 innerhalb der Marschländer im Westen verortet sind. 919 große Strukturen über 1 km Größe entlang der Nordsee sind unter anderem besonders gut mit Kompaktionsbereichen elsterzeitlicher Rinnen zu homologisieren.344 dieser Hohlformen sind zudem mit Tunneltälern im Untergrund assoziiert. Diese Parallelität von Depressionen und den teils über 100 m tiefen Tunneltälern kann auf Sedimentkompaktion zurückgeführt werden. Ein Zusammenhang mit der Zersetzung postglazialen, organischen Materials ist ebenfalls denkbar. Darüber hinaus wurden in einer Distanz von 10 km um die miozän aktiven Flanken des Glückstadt-Grabens negative Landformen detektiert, die Verbindungen zu oberflächennahen Störungsstrukturen zeigen. Dies ist ein Anzeichen für Grabenaktivität während und gegen Ende der Vereisung und während des Holozäns. Viele dieser störungsbezogenen Senken sind auch mit Tunneltälern assoziiert. Entsprechend werden drei zusammenspielende Prozesse identifiziert, die mit der Entstehung der Hohlformen in Verbindung gebracht werden können. Eine mögliche Interpretation ist, dass die östliche Flanke des Glückstadt-Grabens auf die Auflast des elsterzeitlichen Eisschilds reagierte, während sich subglazial zeitgleich Entwässerungsrinnen entlang der Schwächezonen ausbildeten. Diese wurden in den Warmzeiten größtenteils durch Torf und unverfestigte Sedimente verfüllt. Die Gletschervorstöße der späten Weichselzeit aktivierten erneut die Flanken und zusätzlich wurde das Lockermaterial exariert, wodurch große Seen, wie z. B. der Große Plöner See entstanden sind. Insgesamt konnten 29 große Depressionen größer oder gleich 5 km in Schleswig-Holstein identifiziert werden, die zumindest teilweise mit Beckensubsidenz und Aktivität der Grabenflanken verbunden sind, bzw. sogar auf diese zurückgehen.Die letzte Teilstudie befasste sich mit der Differenzierung von Senken nach deren potentieller Genese sowie der Unterscheidung natürlicher von künstlichen Hohlformen. Dazu wurde ein DEM für einen Bereich im Norden Niedersachsens verwendet, das eine Gesamtgröße von 252 km² abdeckt. Die Ergebnisse zeigen, dass glazial entstandene Depressionen gute Rundheitswerte aufweisen und auch Elongation und Exzentrizität eher kompakte Formen anzeigen. Lineare negative Strukturen sind oft Flüsse oder Altarme. Sie können als holozäne Strukturen identifiziert werden. Im Gegensatz zu den potentiell natürlichen Senkenformen sind künstlich geschaffene Depressionen eher eckig oder ungleichmäßig und tendieren meist nicht zu kompakten Formen. Drei Hauptklassen topographischer Depressionen konnten identifiziert und voneinander abgegrenzt werden: Potentiell glaziale Senken (Toteisformen), Flüsse, Seiten- und Altarme sowie künstliche Senken. Die Methode der Senkenklassifikation nach Formparametern ist ein sinnvolles Instrument, um verschiedene Typen unterscheiden zu können und um bei geologischen Fragestellungen künstliche Senken bereits vor der Verarbeitung auszuschließen. Jedoch zeigte sich, dass die Ergebnisse im Wesentlichen von der Auflösung des entsprechenden Höhenmodells abhängen.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In der Arbeit wird die Wahlbeteiligung bei Europawahlen analysiert. Es geht um die Beantwortung der Frage, ob die individuelle Wahlteilnahme in alten und neuen EU-Mitgliedsstaaten bzw. alten und jungen Demokratien auf die gleichen Erklärungsgrößen zurückgeht oder ob möglicherweise Unterschiede zwischen beiden Ländergruppen bestehen. rnAls Bezugspunkt dient die Europawahl, die im Juni 2009 stattfand: Bei dieser Wahl fällt nicht nur die generell niedrige Beteiligung auf, sondern auch erhebliche Niveauunterschiede zwischen den einzelnen Mitgliedsstaaten. Um diesen Befund erklären zu können, wird zunächst ein theoretisches Erklärungsmodell entwickelt, das sich auf die folgenden fünf Dimensionen bezieht: politisches System der EU, europäische politische Gemeinschaft, Wählermobilisierung während des Europawahlkampfes, Gewohnheitswahl und Einschätzung der staatlichen sowie der eigenen wirtschaftlichen Lage. Als Erklärungsgröße werden in den fünf Bereichen jeweils unterschiedlich stark ausgeprägte Defizite in den beiden Ländergruppen angenommen. rnExemplarisch werden Deutschland und Polen untersucht. Die empirischen Analysen basieren auf dem umfangreichen Datensatz der European Election Study 2009 (ESS), hier werden die Daten der Voter Study verwendet. Nicht alle Hypothesen lassen sich im Rahmen der Arbeit bestätigten, nur ein Teil der unabhängigen Variablen hat auch im multivariaten Modell noch einen Einfluss auf die Europawahlbeteiligung. rnFür Deutschland zeigen die Ergebnisse, dass Wahlnorm und Wählermobilisierung einen größeren Effekt auf die Stimmabgabe ausüben als die Nutzenseite (Effektivität) der Wahlen. Im zweiten Modell, das für die polnischen Befragten berechnet wurde, erweisen sich nur zwei der unabhängigen Variablen als signifikant, d.h. nur die Einschätzung der Effektivität der Wahl und die internalisierte Wahlnorm haben einen Einfluss auf die Wahlteilnahme. Von der Effektivitätseinstufung geht eine größere Erklärungskraft aus als von der Wahlnorm; in diesem Modell überwiegt folglich die Nutzenseite der Europawahl. Es kann gezeigt werden, dass die unterschiedlichen Beteiligungsraten in den beiden Staaten durch unterschiedlich stark ausgeprägte Defizite in den Bereichen des politischen Systems und der Wahlnorm zustande kommen. Die Defizite sind in Polen stärker ausgeprägt und können so die niedrigere Wahlbeteiligung erklären. Darüber hinaus kann resümiert werden, dass die Nutzenseite der Europawahl in Polen einen stärkeren Einfluss auf die Beteiligung ausübt als in Deutschland.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die vorliegende klinische Studie hatte zum Ziel, die mikrovaskuläre Endothelfunktion retinaler und dermaler Gefäße von Insulinresistenten und Typ 2- Diabetikern ohne Zeichen einer diabetischen Retinopathie mit einer gesunden insulinsensitiven nicht-diabetischen Kontrollgruppe hinsichtlich früher morphologischer und funktioneller Veränderungen zu vergleichen.rnrnMethode:rnEs wurden 54 Patienten ohne Nachweis einer diabetischen Retinopathie eingeschlossen und in 3 Gruppen entsprechend ihren metabolischen Ergebnissen eingeteilt: 1.) Gruppe K (Kontrollgruppe) setzte sich aus gesunden, nicht-diabetischen, insulin-sensitiven rn(HOMA ≤ 2) Probanden mit einem BMI ≤ 28 kg/m2 zusammen; 2.) Gruppe IR bestand aus den nicht-diabetischen, insulin-resistenten (HOMAs > 2), übergewichtigen Patienten mit einem BMI > 28 kg/m2 und 3.) Gruppe DM war definiert als Patienten mit einem manifesten Typ 2-Diabetes mellitus.rnrnDie mikrovaskuläre Funktion der Retina wurde mittels eines Laserdoppler-Verfahrens (Heidelberg Retina Flowmeter) untersucht und hierbei der retinale Blutfluss und das Verhältnis der Gefäßwand zum Lumen (WLR, wall-to-lumen-ratio) basal und nach Flickerlicht-Stimulation (10 Hz, Photo Stimulator 750) gemessen. Letzterer gilt als Marker für vaskuläre Schädigung. rnZusätzlich wurde die dermale Mikrozirkulation (Blutfluss, O2-Sättigung) als weiterer Faktor der mikrovaskulären Endothelfunktion in den 3 Studiengruppen untersucht und miteinander verglichen.rnErgebnisse:rnEs zeigte sich kein signifikanter Unterschied des retinalen Blutflusses zwischen den 3 Gruppen weder basal noch nach Flickerlicht-Stimulation. Es zeigte sich keine Korrelation zwischen der mikrovaskulären Funktion der Haut und der Retina. rnDie arterielle WLR zeigte nur geringe Unterscheide zwischen den 3 Gruppen.rnrnMit zunehmendem Grad der Insulinresistenz wurde jedoch eine Reduktion des basalen als auch des flickerlicht-stimulierten retinalen Blutflusses deutlich, dabei zeigte sich unerwarteter Weise eine Abnahme der WLR.rnrnDer (prä-ischämische) muskuläre Blutfluss war in der IR-Gruppe signifikant geringer als in der K-Gruppe. Auch war die postischämische dermale O2-Sättigung in der DM und IR-Gruppe signifikant niedriger im Vergleich zur K-Gruppe. Jedoch war die postischämische hyperämische dermale Reaktion in der IR und DM-Gruppe nur geringgradig weniger als in der K-Gruppe. rnrnSchlussfolgerung:rnEine Korrelation zwischen der Entwicklung der Insulinresistenz und retinaler sowie dermaler mikrovaskulärer endothelialer Funktion wurde bei der Studie deutlich. Mithilfe des neuen Verfahrens der Laser Scanner Flowmeter zur Messung der retinalen Endothelfunktion lassen sich sehr frühe morphologische Veränderungen des mikrovaskulären Blutflusses erfassen. rnDie fehlende Korrelation zwischen retinaler und dermaler mikrovaskulärer Funktion als auch die geringen Unterschiede der WLR sollte Gegenstand weiterer Studien seinrn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mittels gründlicher Literaturrecherchen wurde dokumentiert, wie Wissenschaft, Medien, Wirtschaft und Staatsregierungen den globalen Klimawandel seit der Industriellen Revolution bewertet haben. Dabei wurde der breite wissenschaftliche Konsens über die ausschlaggebende Rolle des Treibhauseffektes dokumentiert. Kontrovers dazu wurden aber auch anderslautende Meinungen über „natürliche Faktoren“ im Klimasystem aufgezeigt. Bedenken des Verfassers bestehen zur Praktikabilität des Kyoto-Protokolls und zur politischen Anwendbarkeit der IPCC-Berichte, die in der Gefahr stehen, durch ihre nicht ableitbaren Wahrscheinlichkeitsaussagen eine wissenschaftliche Neutralität vermissen zu lassen. Im Blick auf die Klimaschutzpolitik kann Deutschland in der Welt als Vorreiter mit Einschränkungen angesehen werden. Die anwendungsbezogene Klimaforschung wird in Deutschland gefördert, in den USA dagegen die Grundlagenforschung, was mit der Herkunft der Klimaskeptiker einhergeht, die vorwiegend aus dem angloamerikanischen Kulturkreis stammen und kaum aus Deutschland kommen. Dies spiegelt sich als roter Faden in den Forschungsergebnissen verschiedener Medienwissenschaftler wider, wonach die US-Medien im Gegensatz zu deutschen um eine Balance zwischen anthropogenen und natürlichen Ursachen des Klimawandels bemüht sind. Ein in den USA medial präsentierter scheinbarer Dissens der Klimaforschung findet sich als Abbild in heterogenen klimaschutzpolitischen Ausrichtungen der USA auf föderaler und bundesstaatlicher Ebene wieder, wohingegen sich in Deutschland der wissenschaftliche Konsens und die mediale Berichterstattung in einer homogenen Klimaschutzpolitik niederschlagen.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In order to obtain a better understanding about the influence of post-depositional diagenesis on speleothem 230Th/U-ages and paleoclimate variability during Marine Isotope Stage (MIS) 5 in northern Germany, four stalagmites from the Riesenberghöhle (RBH) were investigated by thin section analysis, 230Th/U-dating as well as stable oxygen and carbon isotope and laser ablation inductively coupled mass spectrometry (LA-ICPMS) trace element analysis. The RBH is located in the Weser Hills and is one of the northernmost limestone caves in Germany.rnMulti collector (MC) ICPMS 230Th/U-ages and thin section analysis of the RBH stalagmites shows that some growth phases of the stalagmites were diagenetically altered after their deposition. The impact of post-depositional diagenesis (PDD) on the 230Th/U-ages is modeled, and potential processes leading to PDD are discussed. In this context, it is suggested that PDD may be induced by rapid climate change at the inception of the GIS.rnDespite of the dating uncertainties resulting from PDD, 230Th/U-dating shows that the RBH stalagmites grew during the Eemian and most of the Greenland Interstadials (GIS) during MIS 5. Thus, the growth phases of the RBH stalagmites might be related to a reorganization of the Atlantic Meridional Overturning Circulation (AMOC). The stable isotope (δ13C and δ18O) and the trace element variability of the stalagmites reflects rapid changes of past temperature and precipitation on millennial and sub-millennial timescales. These past climate changes can be amplified by orbitally forced variations of the July solar insolation at 65°N.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Seit Anbeginn der Menschheitsgeschichte beeinflussen die Menschen ihre Umwelt. Durch anthropogene Emissionen ändert sich die Zusammensetzung der Atmosphäre, was einen zunehmenden Einfluss unter anderem auf die Atmosphärenchemie, die Gesundheit von Mensch, Flora und Fauna und das Klima hat. Die steigende Anzahl riesiger, wachsender Metropolen geht einher mit einer räumlichen Konzentration der Emission von Luftschadstoffen, was vor allem einen Einfluss auf die Luftqualität der windabwärts gelegenen ruralen Regionen hat. In dieser Doktorarbeit wurde im Rahmen des MEGAPOLI-Projektes die Abluftfahne der Megastadt Paris unter Anwendung des mobilen Aerosolforschungslabors MoLa untersucht. Dieses ist mit modernen, zeitlich hochauflösenden Instrumenten zur Messung der chemischen Zusammensetzung und Größenverteilung der Aerosolpartikel sowie einiger Spurengase ausgestattet. Es wurden mobile Messstrategien entwickelt und angewendet, die besonders geeignet zur Charakterisierung urbaner Emissionen sind. Querschnittsmessfahrten durch die Abluftfahne und atmosphärische Hintergrundluftmassen erlaubten sowohl die Bestimmung der Struktur und Homogenität der Abluftfahne als auch die Berechnung des Beitrags der urbanen Emissionen zur Gesamtbelastung der Atmosphäre. Quasi-Lagrange’sche Radialmessfahrten dienten der Erkundung der räumlichen Erstreckung der Abluftfahne sowie auftretender Transformationsprozesse der advehierten Luftschadstoffe. In Kombination mit Modellierungen konnte die Struktur der Abluftfahne vertieft untersucht werden. Flexible stationäre Messungen ergänzten den Datensatz und ließen zudem Vergleichsmessungen mit anderen Messstationen zu. Die Daten einer ortsfesten Messstation wurden zusätzlich verwendet, um die Alterung des organischen Partikelanteils zu beschreiben. Die Analyse der mobilen Messdaten erforderte die Entwicklung einer neuen Methode zur Bereinigung des Datensatzes von lokalen Störeinflüssen. Des Weiteren wurden die Möglichkeiten, Grenzen und Fehler bei der Anwendung komplexer Analyseprogramme zur Berechnung des O/C-Verhältnisses der Partikel sowie der Klassifizierung der Aerosolorganik untersucht. Eine Validierung verschiedener Methoden zur Bestimmung der Luftmassenherkunft war für die Auswertung ebenfalls notwendig. Die detaillierte Untersuchung der Abluftfahne von Paris ergab, dass diese sich anhand der Erhöhung der Konzentrationen von Indikatoren für unprozessierte Luftverschmutzung im Vergleich zu Hintergrundwerten identifizieren lässt. Ihre eher homogene Struktur kann zumeist durch eine Gauß-Form im Querschnitt mit einem exponentiellen Abfall der unprozessierten Schadstoffkonzentrationen mit zunehmender Distanz zur Stadt beschrieben werden. Hierfür ist hauptsächlich die turbulente Vermischung mit Umgebungsluftmassen verantwortlich. Es konnte nachgewiesen werden, dass in der advehierten Abluftfahne eine deutliche Oxidation der Aerosolorganik im Sommer stattfindet; im Winter hingegen ließ sich dieser Prozess während der durchgeführten Messungen nicht beobachten. In beiden Jahreszeiten setzt sich die Abluftfahne hauptsächlich aus Ruß und organischen Partikelkomponenten im PM1-Größenbereich zusammen, wobei die Quellen Verkehr und Kochen sowie zusätzlich Heizen in der kalten Jahreszeit dominieren. Die PM1-Partikelmasse erhöhte sich durch die urbanen Emissionen im Vergleich zum Hintergrundwert im Sommer in der Abluftfahne im Mittel um 30% und im Winter um 10%. Besonders starke Erhöhungen ließen sich für Polyaromaten beobachten, wo im Sommer eine mittlere Zunahme von 194% und im Winter von 131% vorlag. Jahreszeitliche Unterschiede waren ebenso in der Größenverteilung der Partikel der Abluftfahne zu finden, wo im Winter im Gegensatz zum Sommer keine zusätzlichen nukleierten kleinen Partikel, sondern nur durch Kondensation und Koagulation angewachsene Partikel zwischen etwa 10nm und 200nm auftraten. Die Spurengaskonzentrationen unterschieden sich ebenfalls, da chemische Reaktionen temperatur- und mitunter strahlungsabhängig sind. Weitere Anwendungsmöglichkeiten des MoLa wurden bei einer Überführungsfahrt von Deutschland an die spanische Atlantikküste demonstriert, woraus eine Kartierung der Luftqualität entlang der Fahrtroute resultierte. Es zeigte sich, dass hauptsächlich urbane Ballungszentren von unprozessierten Luftschadstoffen betroffen sind, advehierte gealterte Substanzen jedoch jede Region beeinflussen können. Die Untersuchung der Luftqualität an Standorten mit unterschiedlicher Exposition bezüglich anthropogener Quellen erweiterte diese Aussage um einen Einblick in die Variation der Luftqualität, abhängig unter anderem von der Wetterlage und der Nähe zu Emissionsquellen. Damit konnte gezeigt werden, dass sich die entwickelten Messstrategien und Analysemethoden nicht nur zur Untersuchung der Abluftfahne einer Großstadt, sondern auch auf verschiedene andere wissenschaftliche und umweltmesstechnische Fragestellungen anwenden lassen.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Gegenstand der Arbeit: Die distale Radiusfraktur ist der häufigste Bruch des Menschen. Neben etablierten Verfahren wie der dorsalen und palmaren Plattenosteosynthese gibt es seit Kurzem neuartige minimalinvasive Osteosynthesesysteme. Gegenstand der vorliegenden Arbeit ist die Untersuchung der biomechanischen Stabilität von zwei neuartigen Implantaten für die distale extraartikuläre Radiusfraktur. rnMethodik: Es handelt sich einerseits um das System XSCREW (Zimmer, Freiburg i. Br., Deutschland), eine kanülierte Schraube, die über den Processus styloideus eingeführt wird und mit bis zu neun Bohrdrähten im Knochen fixiert werden kann. Das Vergleichsimplantat DorsalNailPlate (HandInnovations, Miami, Florida, USA) ist ein Hybrid aus einer dorsalen Platte und einem Marknagel. Beide Systeme wurden an 8 paarigen frischen unfixierten Leichenradii unter Axialbelastung bis 100 N und Torsionsbelastung bis 1,5 Nm getestet. Die A3-Fraktur wurde durch eine standardisierte Keilosteotomie simuliert. Das Biomaterial wurde prä- und postinterventionell sowie nach einem Dauerbelastungstest unter 1000 Zyklen in Rotation mit 0,5 Hz untersucht. Ein Versagenstest mit steigendem Drehmoment beendete das Experiment. rnErgebnisse: Die XSCREW erreichte eine Axialsteifigkeit von 136 N/mm und eine Torsionssteifigkeit von 0,16 Nm/°. Die DNP erzielte hingegen axial 70 N/mm und torsional 0,06 Nm/°. Der Unterschied zwischen beiden Verfahren war nur für die Torsion eindeutig statistisch auffällig (p=0,012), jedoch nicht für die Axialsteifigkeit (p=0,054). Die ursprüngliche Axial- und Torsionssteifigkeit wurde durch die XSCREW signifikant besser wiederhergestellt als durch die DNP (p=0,012). Beide Verfahren erzielten nach der Intervention signifikant niedrigere Steifigkeiten als die intakten Knochen (p=0,012). Ein Präparat der DNP-Gruppe und vier Präparate der XSCREW-Gruppe überstanden den Dauerbelastungstest. Das Drehmoment bei Versagen war mit der XSCREW höher als mit der DNP, der Unterschied zwischen den Verfahren war signifikant (p=0,043). Die Schwachstellen beider Systeme lagen vorwiegend in der proximalen Verankerung im Knochen. Kirschner-Drähte bzw. Verriegelungsschrauben führten unter andauernder Belastung zu einer Spaltung der Kortikalis im Schaftbereich. Bedingt durch die Ausrichtung der distalen Verriegelungen können mit beiden Implantaten Schäden an der radiocarpalen bzw. radioulnaren Gelenkfläche entstehen. rnZusammenfassung: Die XSCREW ermöglicht insgesamt eine höhere mechanische Stabilität als die DNP. Beide Verfahren sind jedoch einer winkelstabilen palmaren Plattenosteosynthese insbesondere unter rotatorischer Dauerbelastung unterlegen und erreichen nicht die Stabilität eines anderen neuartigen minimalinvasiven Systems.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die Unterstützung der EU durch ihre Bürger ist spätestens seit dem Vertrag von Maastricht Gegenstand einer Vielzahl von Beiträgen in der Einstellungsforschung. Eine zentrale Annahme der bisherigen Forschung war die große Distanz der EU zur Alltagswirklichkeit der Bürger. Nach dieser werden Einstellungen zur EU nur aufwendig oder mit Rückgriff auf Einstellungen zum Nationalstaat gebildet. Mit der Euro-Schuldenkrise, deren wirtschaftlichen Auswirkungen für die Bürger und einer Vielzahl von EU-Krisengipfeln erfuhr die europäische Politik seit 2010 eine enorme Aufmerksamkeit in der Öffentlichkeit. In dieser Arbeit wird die Entwicklung der EU-Unterstützung vergleichend in Deutschland und Griechenland vor und während der Schuldenkrise untersucht: 1) Zunächst wird diskutiert, inwieweit die Schuldenkrise mit den etablierten Determinanten der Unterstützungsforschung theoretisch zusammenhängt. Im Mittelpunkt stehen wirtschaftliche und demokratische Performanz, europäische und nationale Identität sowie Heuristiken zum Nationalstaat. 2) Der Fokus auf Deutschland und Griechenland ermöglicht einen Vergleich der Determinanten vor und während der Krise, da beide Länder substanziell völlig unterschiedlich, jedoch gleichzeitig betroffen waren. Während die Bürger in Griechenland spürbare Wohlstandsverluste erleiden, stellt sich in Deutschland die Frage nach der Solidarität mit den europäischen Nachbarn. 3) Die empirische Analyse zeigt, dass die etablierten Determinanten in der Schuldenkrise ihre Relevanz behalten. Das individuelle wirtschaftliche Schicksal ist in Griechenland ein stärkerer Einflussfaktor als vor der Krise. Es bestätigt sich die Erwartung, dass die größere Präsenz der EU in der Krise mit einer geringeren Bedeutung der Einstellungen zum Nationalstaat einhergeht.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die Regulierung und Steuerung von Hochschulen unterliegt spätestens seit der Liberalisierung des Hochschulrahmengesetzes im Jahr 1998 einer erheblichen Reformdynamik. Hochschulautonomie, New Public Management, Profilbildung, Exzellenz und Wettbewerb sind zentrale Stichworte im Rahmen der durchgeführten politischen Reformen und Programme.rnDer politisch intendierte Ausbau einer organisationalen Selbststeuerung von Universitäten stellt die Hochschulen vor beachtliche Herausforderungen und kann als Paradigmenwechsel im Bereich der Hochschul-Governance betrachtet werden. In der Fachdiskussion wird der entsprechende Wandel auch als Stärkung der „managerial governance“ (bspw. de Boer et al. 2007) oder als Wandel von Universitäten hin zu „more complete organizations“ (Brunsson/ Sahlin-Andersson 2000) bzw. „organisational actors“ (Krücken/Meier 2006) beschrieben. rnGleichzeitig liegt bislang eher fragmentarisches Wissen darüber vor, wie der veränderte Re-gulierungskontext von den Steuerungsakteuren in deutschen Hochschulen aufgegriffen wird, d.h. ob auf Organisationsebene tatsächlich ein Ausbau der organisationalen Selbststeuerung stattfindet, welche Steuerungsinitiativen und -instrumente sich bewähren und warum dies der Fall ist. Die vorliegende Arbeit geht diesen Fragen im Rahmen einer vergleichenden Fallstudie an sechs Universitäten nach. rnIm Zentrum der empirischen Erhebung stehen 60 qualitative sozialwissenschaftliche Interviews mit Leitungsakteuren auf Hochschul- und Fachbereichsebene. Diese Daten werden ergänzt durch umfangreiche Dokumentenanalysen, insbesondere von Jahresberichten, Grundordnungen, Strategie- und Planungsdokumenten sowie durch Daten der amtlichen Hochschul-statistik. Das Untersuchungsdesign erlaubt überdies eine Gegenüberstellung von großen und kleinen Universitäten sowie von Hochschulen mit einer technisch-naturwissenschaftlichen Ausrichtung gegenüber solchen mit einem kultur- und sozialwissenschaftlichen Schwerpunkt. Die Untersuchung zeigt, dass an fünf der sechs untersuchten Hochschulen ein zum Teil deutlicher Ausbau der organisationalen Selbststeuerung festzustellen ist, wenngleich der spezifische organisationale Charakter von Universitäten, d.h. eine weitgehend lose Kopplung mit autonomen Professionals, im Wesentlichen erhalten bleibt. Die Zusammenschau der Veränderungen ergibt ein idealtypisches Modell des Wandels von Strategie, Struktur und Kultur der Hochschulen. Auf Basis der empirischen Ergebnisse werden weiterhin zentrale externe und interne Einflussfaktoren auf den spezifischen organisationalen Wandel analysiert. Schließlich werden Kosten und Nutzen sowie Risiken und Chancen der Governance-Reformen im Hoch-schulbereich gegenübergestellt.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Zusammenfassung: Primo Levis 1975 publiziertes Buch Il sistema periodico (Das periodische System, deutsch 1986) wurde 2006 bei einer Befragung des Imperial College in London zum „best science book ever“ gekürt. Zweifellos gehört Levis Buch zu den berühmtesten literarischen Werken mit chemischem Inhalt. Wohl jeder Chemiker kennt es oder hat schon davon gehört. Es gliedert sich in 21 Element-Erzählungen, die berühmteste von diesen ist die letzte, die vom Kohlenstoff handelt. Im Folgenden versuche ich, den Nachweis zu führen, dass diese Geschichte eine Vorlage hatte, nämlich die Erzählung ‚Lebensgeschichte eines Kohlenstoffatoms‘ von Hermann Römpp, die 1946 als Kosmos-Bändchen bei Franckh erschien. Hermann Römpp, der während des ‚Dritten Reiches‘ die antisemitischen und eugenischen Maßnahmen der Nationalsozialisten in einigen Schriften gepriesen und gerechtfertigt hatte, publizierte die Geschichte als einzige seines Oeuvres nicht unter eigenem Namen, sondern unter dem Pseudonym „Dr. Helmut Schmid“. rnDer Nachweis, dass Römpps Geschichte eine Vorlage für Levi war, soll eine vertiefte Lektüre von Levis Erzählung ermöglichen.