1000 resultados para Stochastische Prozesse


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The Late Glacial and Holocene landscape development in the vicinity of the River Elbe near Neuhaus, Lower Saxony, was studied during geological mapping of the area. The geological and geobotanical methods used in these investigations were chosen to cope with the difficulties which arise during research on Quaternary flood plains in low country. Paleochannel fill and areas of flood-plain sediments were drilled, the lithology examined, and the sediments dated on the basis of their pollen content. No evidence was found for the existence before the Middle Ages of paleo- channels the size of the present River Elbe. Before the first measures were made to regulate the Elbe River, it was an anastomosing river system with numerous small branches. The lower parts of the flood-plain profiles are predominantly sand and the upper parts silty-clayey loam. With the construction of effective levees over the last several centuries, the flow velocity of the Elbe has increased considerably during high water periods and instead of the deposition of meadow loam, sand was deposited as natural levees. The main belt of sand dunes on the east bank of the Elbe overlies Preboreal to Boreal lake mud and is, therefore, of Holocene age.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alvin Tofflers Bild des Prosumers beeinflußt weiterhin maßgeblich unser Verständnis vieler heutzutage als „Social Media“ oder „Web 2.0“ beschriebener nutzergesteuerter, kollaborativer Prozesse der Inhaltserstellung. Ein genauerer Blick auf Tofflers eigene Beschreibung seines Prosumermodells offenbart jedoch, daß es fest im Zeitalter der Massenmedienvorherrschaft verankert bleibt: der Prosumer ist eben nicht jener aus eigenem Antrieb aktive, kreative Ersteller und Weiterbearbeiter neuer Inhalte, wie er heutzutage in Projekten von der Open-Source-Software über die Wikipedia bis hin zu Second Life zu finden ist, sondern nur ein ganz besonders gut informierter, und daher in seinem Konsumverhalten sowohl besonders kritischer als auch besonders aktiver Konsument. Hochspezialisierte, High-End-Konsumenten etwa im Hi-Fi- oder Automobilbereich stellen viel eher das Idealbild des Prosumers dar als das für Mitarbeiter in oft eben gerade nicht (oder zumindest noch nicht) kommerziell erfaßten nutzergesteuerten Kollaborationsprojekten der Fall ist. Solches von Tofflers in den 70ern erarbeiteten Modells zu erwarten, ist sicherlich ohnehin zuviel verlangt. Das Problem liegt also nicht bei Toffler selbst, sondern vielmehr in den im Industriezeitalter vorherrschenden Vorstellungen eines recht deutlich in Produktion, Distribution, und Konsum eingeteilten Prozesses. Diese Dreiteilung war für die Erschaffung materieller wie immaterieller Güter durchaus notwendig – sie ist selbst für die konventionellen Massenmedien zutreffend, bei denen Inhaltsproduktion ebenso aus kommerziellen Gründen auf einige wenige Institutionen konzentriert war wie das für die Produktion von Konsumgütern der Fall ist. Im beginnenden Informationszeitalter, beherrscht durch dezentralisierte Mediennetzwerke und weithin erhaltbare und erschwingliche Produktionsmittel, liegt der Fall jedoch anders. Was passiert, wenn Distribution automatisch erfolgt, und wenn beinahe jeder Konsument auch Produzent sein kann, anstelle einer kleinen Schar von kommerziell unterstützten Produzenten, denen bestenfallls vielleicht eine Handvoll von nahezu professionellen Prosumern zur Seite steht? Was geschieht, wenn sich die Zahl der von Eric von Hippel als ‚lead user’ beschriebenen als Produzenten aktiven Konsumenten massiv ausdehnt – wenn, wie Wikipedias Slogan es beschreibt, ‚anyone can edit’, wenn also potentiell jeder Nutzer aktiv an der Inhaltserstellung teilnehmen kann? Um die kreative und kollaborative Beteiligung zu beschreiben, die heutzutage nutzergesteuerte Projekte wie etwa die Wikipedia auszeichnet, sind Begriffe wie ‚Produktion’ und ‚Konsum’ nur noch bedingt nützlich – selbst in Konstruktionen wie 'nutzergesteuerte Produktion' oder 'P2P-Produktion'. In den Nutzergemeinschaften, die an solchen Formen der Inhaltserschaffung teilnehmen, haben sich Rollen als Konsumenten und Benutzer längst unwiederbringlich mit solchen als Produzent vermischt: Nutzer sind immer auch unausweichlich Produzenten der gemeinsamen Informationssammlung, ganz egal, ob sie sich dessens auch bewußt sind: sie haben eine neue, hybride Rolle angenommen, die sich vielleicht am besten als 'Produtzer' umschreiben lassen kann. Projekte, die auf solche Produtzung (Englisch: produsage) aufbauen, finden sich in Bereichen von Open-Source-Software über Bürgerjournalismus bis hin zur Wikipedia, und darüberhinaus auch zunehmend in Computerspielen, Filesharing, und selbst im Design materieller Güter. Obwohl unterschiedlich in ihrer Ausrichtung, bauen sie doch auf eine kleine Zahl universeller Grundprinzipien auf. Dieser Vortrag beschreibt diese Grundprinzipien, und zeigt die möglichen Implikationen dieses Übergangs von Produktion (und Prosumption) zu Produtzung auf.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Auswirkungen des milden Winters 1988/89 auf die chemischen und biologischen Prozesse in der Nordsee werden von Fachleuten, aber auch von Politikern und der Presse lebhaft diskutiert. Schon im März wurden Befürchtungen geäußert, eine ähnliche kräftige und eventuell für andere marine Lebewesen schädigende Planktonblüte wie im Vorjahr stünde bevor. Dazu kam es jedoch nicht. Für das Vorjahresereignis wird diskutiert, ob als Grund ein Zusammenwirken von anomaler Zirkulation, kräftiger Frühjahrserwärmung, erhöhtem Festlandabfluß und damit verbundener kräftiger Nährstoffzufuhr in Frage kommt. Eine mögliche Erklärung für die diesjährige "normale" Planktonblüte wäre: Es lag zwar durchaus wieder eine ausgeprägte Zirkulationsanomalie in der Nordsee vor, jedoch fehlte die übermäßige "Düngung" durch Festlandabfluß, da es im vergangenen Frühjahrzu wenig Niederschläge gegeben hatte. Von einer "ganz normalen" Planktonblüte kann man in diesem Jahr allerdings auch nicht sprechen. Das erhöhte winterliche Temperaturniveau ließ einige Planktonarten sich bereits im Februar, also sehr früh, kräftig vermehren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In diesem Beitrag wird das von Thomas Martens und Jürgen Rost entwickelte Integrierte Handlungsmodell reflektiert, auf Lernprozesse übertragen, theoretische erweitert und beispielhaft empirisch überprüft. Zunächst werden die theoretischen Potenziale des Modells aufgezeigt, indem es auf Lernprozesse angewendet wird. Danach werden die typischen Prozesse der drei Handlungsphasen dargestellt, insbesondere die funktionslogische Integration von bewussten und unbewussten sowie kognitiven und affektiven Prozessen. Abschließend wird eine empirische Studie vorgestellt, die das Lernen von Statistik im Hochschulbereich untersucht. Mit Hilfe von Mischverteilungsmodellen werden sieben Lerntypen identifiziert, die den entsprechenden motivationalen, intentionalen und volitionalen Mustern der Lern- und Handlungsgenese entsprechen. (DIPF/Orig.)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um persönlichkeitsbildende Prozesse zu unterstützen und hierbei den Körper nutzbar zu machen, eignen sich Erfahrungen aus der tänzerischen Bewegungsgestaltung, insbesondere durch die explorative Verhaltensweise sowie der Selbst– und Fremdreflektion von Bewegungen, auf besondere Weise. Der Körper ist Instrument, bewegliche Skulptur, internes und externes Kommunikationsvehikel sowie Forschungsobjekt zugleich. Hierbei bieten Tanz und kinästhetische Bewegungslehren als pädagogisches Medium Förderungsbereiche, die auf körperlicher, emotionaler und kognitiver Ebene liegen und in Bezug zum lebendigen Lernen stehen. Tanz als Teilbereich kultureller Bildung steht hierbei in Bezug als ergänzender Curricularer Gegenstand zu fungieren. (DIPF/Autor)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

l. Einleitung/Ausgangssituation - Auswirkungen unabgestimmter Prozesse - Prozeßnahe Werkstattsteuerungen 2. Defizite, Prozeßanforderungen - Daten-Anforderungsprofil - Datenvolumen-Trichtermodell - Argumente für Leitstand-Einsatz 3. Integrierter Leitstandeinsatz - Top-Down-Ansatz - Integrierte Regelkreise - Hierarchisches Planungs- und Steuerungskonzept 4. Abgrenzung zwischen Leitstand-, PPS und BDE-Funktionen - Ressourcen-Verfügbarkeitsanforderungen - Leitstand-Funktionsumfang - Integrierter Logistik-Sollablauf 5. Kennzeichen der 2ten Leitstandgeneration - Wissensbasierter LS-Einsatz - Event-Steuerungen 6. Anforderungsgerechte Leitstandeinführung - CIM-house-Modell - Mitarbeiter-Anforderungen

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Niedersachsen setzt das Ministerium für Wissenschaft und Kultur seit 2007 ein Hochschulkennzahlensystem ein, um einen Teil des Grundhaushalts wettbewerblich an die Hochschulen zu verteilen. Über die Mittelvergabe hinaus ist ein Monitoringsystem integriert, mit dem die Entwicklung der Hochschulen beurteilt werden kann. Zur differenzierten Beurteilung werden monetäre und nichtmonetäre Hochschuldaten zu Kennzahlen verdichtet. Die Kennzahlen befinden sich jedoch auf einer zu hohen Aggregationsebene für ein hochschulinternes Controlling an der Fachhochschule Hannover. Daher dienen Berichtssysteme mit Standardberichten der Information über hochschulweite Prozesse und Ressourcen, um im zunehmenden Wettbewerb der Fachhochschulen fundierte Entscheidungen treffen zu können. Beispielhaft werden Standardberichte zu erbrachten Lehrleistungen als erste Komponente des nichtmonetären Controllings in einem Berichtssystem konzipiert. Methodisch basiert die Konzeption auf einer Informationsbedarfsanalyse mit induktiven und deduktiven Verfahren. Das Vorgehen lässt sich grundsätzlich auf weitere nichtmonetäre Leistungen (z. B. der Forschung) übertragen und in die konzipierte Struktur integrieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neben circa 22.000 verschiedenen kultivierten Pflanzenarten besitzt die Zentraleinrichtung Botanischer Garten und Botanische Museum Berlin-Dahlem (BGBM) ca. 3,8 Millionen konservierter Pflanzenbelege aus aller Welt in seinem Herbarium. Diese Herbarbelege dienen als Grundlage wissenschaftlicher Forschung. Über die Erstellung digitaler Kopien kann das Versenden des empfindlichen Materials verhindert und der Zugang für Forscher erheblich erleichtert werden. Die Prozesse und Methoden der Digitalisierung werden in Herbar Digital untersucht, um eine Senkung der Kosten zu ermöglichen. In dem vorliegenden Arbeitspapier wird der Einsatz einer Balanced Scorecard als Steuerungsinstrument der Herbarbeleg-Digitalisierung untersucht. Das Instrument misst die Zielerreichung und unterstützt so Entscheidungen der Führung. Vision und Strategie der Unternehmung werden in mehreren Perspektiven operationalisiert. Für jedes Ziel sind Indikatoren, Sollwerte, Istwerte und Maßnahmen zu definieren. Die Istwerte werden zu den Indikatoren und Zeitpunkten verdichtet und zeigen so den Zielerreichungsgrad an. In einem individuellen Dashboard werden die Ziele, Indikatoren, Zielwerte, Maßnahmen und weitere Informationen angezeigt und können kommentiert werden. Die Planwerte sind die Basis für den operativen Planungsprozess. Die Struktur sieht vor, dass die Ziel-Dashboards aller Organisationseinheiten einer Hochschule schließlich zu Sub- und Teil-Balanced Scorecards miteinander verknüpft werden können. Es ergibt sich je nach Sachverhalt eine Übersicht über die Ziele und korrespondierenden Indikatoren sowie deren Entwicklung und Maßnahmen. Dies wird am Beispiel der Herbarbeleg-Digitalisierung verdeutlicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um den theoretischen Hintergrund der Produktentwicklung darzustellen, werden im Einstieg der Arbeit das Projekt- sowie das Qualitätsmanagement vorgestellt und in Bezug auf das Projekt einer Prototypenentwicklung gesetzt. Es werden die einzelnen Phasen, Anträge und Projektvereinbarungen erläutert, was einen Einblick in den Aufbau des gesamten Konzeptes bieten soll. Das Qualitätsmanagement ist ein breit gefächertes Gebiet und wird in so gut wie jeder Sparte verwendet, um Prozesse zu optimieren und Probleme sowie Fehler zu beheben. Die wichtigsten Werkzeuge in der Entwicklung von Vorserien, wie das Quality Function Deployment, das House of Quality, die Fehler-Möglichkeits- und Einfluss-Analyse und die Risikoprioritätszahl, werden vorgestellt. Es wird im Einzelnen erläutert, wie sie in der Entwicklung von Traktoren Anwendung finden. Weiterhin wird ein praktischer Teil der Arbeit erläutern, welche Aufgaben und Prozessschritte in der Entwicklung sowie Validierung anstehen, außerdem auf welche Merkmale zu achten ist. Im letzten Kapitel wird auf die Erprobung der Prototypen eingegangen, wie eine Homologation abläuft, welche Vorgehensweisen es gibt und welche Erkenntnisse die dazugehörige Datenauswertung bieten. Im letzten Unterkapitel 4.5 Diskussion wird hier auch die eigene Meinung sowie Erfahrung mit eingebracht sowie Verbesserungsmöglichkeiten aufgezeigt. Zur besseren und übersichtlicheren Erläuterung der einzelnen Durchführungen wird nach jedem Kapitel der grobe Ablauf in einem Datenflussdiagramm dargestellt. Resümierend werden anschließend die Kerninhalte der vorliegenden Arbeit in einem Fazit zusammengefasst.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das wohl bekannteste Phänomen der Urteils- und Entscheidungsforschung im Kontext numeri-scher Urteile ist der Ankereffekt. Dieser bezeichnet die Assimilation einer numerischen Schätzung oder Prognose an einen salienten Wert, dem sogenannten Anker, auch unabhängig von dessen inhaltlicher Relevanz. Die Frage nach den Ursachen von Ankereffekten wird bis zum aktuellen Zeitpunkt kontrovers diskutiert. Die Bedeutung eines Erklärungsmodelles, dem sogenannten numerischem Priming, innerhalb dieser Diskussion ist Gegenstand der vorliegenden Arbeit. Im Theorieteil wird zunächst der Ankereffekt, seine inhaltliche Einordnung und seine Relevanz aus theoretischer wie praktischer Sicht diskutiert. Des weiteren werden die gängigen Erklärungsmodelle zum Ankereffekt vorgestellt. Ein Schwerpunkt hierbei liegt auf einer kritischen Auseinandersetzung mit dem Modell der selektiven Zugänglichkeit (Selective Accessibility Model, kurz: SAM), dem wohl prominentesten Modell aus Sicht der momentanen Forschung. Zwei an den Theorieteil anschließende Fragestellungen sind dann der Gegenstand des empirischen Teils der Arbeit. Zum einen soll überprüft werden, ob Ankereffekte im Standardparadigma, wie bisher angenommen, allein auf den Prozessen des SAM basieren oder ob zusätzlich auch numerisches Priming am Zustandekommen des Ankereffektes in diesem Paradigma beteiligt ist. Zum anderen werden Voraussetzungen für das Auftreten von Ankereffekten durch numerisches Priming untersucht, inbesondere die als relevant eingeschätzte Bedeutung der Aufmerksamkeit gegenüber dem Ankerwert. Beide Experimente verwenden neue, im Kontext von Ankereffekten bisher nicht eingesetzte experimentelle Paradigmen. Um die Bedeutung semantischer Prozesse im Zusammenspiel mit numerischen Prozessen zu untersuchen, wird ein so genannter Objektvergleich eingesetzt. Der Stellenwert von Aufmerksamkeit hingegen wird überprüft, in dem die Ankerwerte subliminal, also unterhalb der Wahrnehmungsschwelle, präsentiert werden. Beiden Experimenten ist jeweils eine Voruntersuchung vorangestellt, die notwendige Bedingungen für die entsprechenden Experimente überprüfen. In der abschließenden Diskussion werden die Ergebnisse der beiden Untersuchungen noch einmal zusammengefasst, und deren Implikationen angesichts der bisher vorliegenden Erkenntnisse aus theoretischer wie praktischer Sicht diskutiert. Des weiteren werden mögliche Forschungsfragen und denkbare experimentelle Untersuchungen hierzu skizziert, die an die innerhalb dieser Arbeit vorgelegten Ergebnisse sinnvoll anschließen könnten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mikrooptische Filter sind heutzutage in vielen Bereichen in der Telekommunikation unersetzlich. Wichtige Einsatzgebiete sind aber auch spektroskopische Systeme in der Medizin-, Prozess- und Umwelttechnik. Diese Arbeit befasst sich mit der Technologieentwicklung und Herstellung von luftspaltbasierenden, vertikal auf einem Substrat angeordneten, oberflächenmikromechanisch hergestellten Fabry-Perot-Filtern. Es werden zwei verschiedene Filtervarianten, basierend auf zwei verschiedenen Materialsystemen, ausführlich untersucht. Zum einen handelt es sich dabei um die Weiterentwicklung von kontinuierlich mikromechanisch durchstimmbaren InP / Luftspaltfiltern; zum anderen werden neuartige, kostengünstige Siliziumnitrid / Luftspaltfilter wissenschaftlich behandelt. Der Inhalt der Arbeit ist so gegliedert, dass nach einer Einleitung mit Vergleichen zu Arbeiten und Ergebnissen anderer Forschergruppen weltweit, zunächst einige theoretische Grundlagen zur Berechnung der spektralen Reflektivität und Transmission von beliebigen optischen Schichtanordnungen aufgezeigt werden. Auß erdem wird ein kurzer theoretischer Ü berblick zu wichtigen Eigenschaften von Fabry-Perot-Filtern sowie der Möglichkeit einer mikromechanischen Durchstimmbarkeit gegeben. Daran anschließ end folgt ein Kapitel, welches sich den grundlegenden technologischen Aspekten der Herstellung von luftspaltbasierenden Filtern widmet. Es wird ein Zusammenhang zu wichtigen Referenzarbeiten hergestellt, auf denen diverse Weiterentwicklungen dieser Arbeit basieren. Die beiden folgenden Kapitel erläutern dann ausführlich das Design, die Herstellung und die Charakterisierung der beiden oben erwähnten Filtervarianten. Abgesehen von der vorangehenden Epitaxie von InP / GaInAs Schichten, ist die Herstellung der InP / Luftspaltfilter komplett im Institut durchgeführt worden. Die Herstellungsschritte sind ausführlich in der Arbeit erläutert, wobei ein Schwerpunktthema das trockenchemische Ä tzen von InP sowie GaInAs, welches als Opferschichtmaterial für die Herstellung der Luftspalte genutzt wurde, behandelt. Im Verlauf der wissenschaftlichen Arbeit konnten sehr wichtige technische Verbesserungen entwickelt und eingesetzt werden, welche zu einer effizienteren technologischen Herstellung der Filter führten und in der vorliegenden Niederschrift ausführlich dokumentiert sind. Die hergestellten, für einen Einsatz in der optischen Telekommunikation entworfenen, elektrostatisch aktuierbaren Filter sind aus zwei luftspaltbasierenden Braggspiegeln aufgebaut, welche wiederum jeweils 3 InP-Schichten von (je nach Design) 357nm bzw. 367nm Dicke aufweisen. Die Filter bestehen aus im definierten Abstand parallel übereinander angeordneten Membranen, die über Verbindungsbrücken unterschiedlicher Anzahl und Länge an Haltepfosten befestigt sind. Da die mit 357nm bzw. 367nm vergleichsweise sehr dünnen Schichten freitragende Konstrukte mit bis zu 140 nm Länge bilden, aber trotzdem Positionsgenauigkeiten im nm-Bereich einhalten müssen, handelt es sich hierbei um sehr anspruchsvolle mikromechanische Bauelemente. Um den Einfluss der zahlreichen geometrischen Strukturparameter studieren zu können, wurden verschiedene laterale Filterdesigns implementiert. Mit den realisierten Filter konnte ein enorm weiter spektraler Abstimmbereich erzielt werden. Je nach lateralem Design wurden internationale Bestwerte für durchstimmbare Fabry-Perot-Filter von mehr als 140nm erreicht. Die Abstimmung konnte dabei kontinuierlich mit einer angelegten Spannung von nur wenigen Volt durchgeführt werden. Im Vergleich zu früher berichteten Ergebnissen konnten damit sowohl die Wellenlängenabstimmung als auch die dafür benötigte Abstimmungsspannung signifikant verbessert werden. Durch den hohen Brechungsindexkontrast und die geringe Schichtdicke zeigen die Filter ein vorteilhaftes, extrem weites Stopband in der Größ enordnung um 550nm. Die gewählten, sehr kurzen Kavitätslängen ermöglichen einen freien Spektralbereich des Filters welcher ebenfalls in diesen Größ enordnungen liegt, so dass ein weiter spektraler Einsatzbereich ermöglicht wird. Während der Arbeit zeigte sich, dass Verspannungen in den freitragenden InPSchichten die Funktionsweise der mikrooptischen Filter stark beeinflussen bzw. behindern. Insbesondere eine Unterätzung der Haltepfosten und die daraus resultierende Verbiegung der Ecken an denen sich die Verbindungsbrücken befinden, führte zu enormen vertikalen Membranverschiebungen, welche die Filtereigenschaften verändern. Um optimale Ergebnisse zu erreichen, muss eine weitere Verbesserung der Epitaxie erfolgen. Jedoch konnten durch den zusätzlichen Einsatz einer speziellen Schutzmaske die Unterätzung der Haltepfosten und damit starke vertikale Verformungen reduziert werden. Die aus der Verspannung resultierenden Verformungen und die Reaktion einzelner freistehender InP Schichten auf eine angelegte Gleich- oder Wechselspannung wurde detailliert untersucht. Mittels Weisslichtinterferometrie wurden lateral identische Strukturen verglichen, die aus unterschiedlich dicken InP-Schichten (357nm bzw. 1065nm) bestehen. Einen weiteren Hauptteil der Arbeit stellen Siliziumnitrid / Luftspaltfilter dar, welche auf einem neuen, im Rahmen dieser Dissertation entwickelten, technologischen Ansatz basieren. Die Filter bestehen aus zwei Braggspiegeln, die jeweils aus fünf 590nm dicken, freistehenden Siliziumnitridschichten aufgebaut sind und einem Abstand von 390nm untereinander aufweisen. Die Filter wurden auf Glassubstraten hergestellt. Der Herstellungsprozess ist jedoch auch mit vielen anderen Materialien oder Prozessen kompatibel, so dass z.B. eine Integration mit anderen Bauelemente relativ leicht möglich ist. Die Prozesse dieser ebenfalls oberflächenmikromechanisch hergestellten Filter wurden konsequent auf niedrige Herstellungskosten optimiert. Als Opferschichtmaterial wurde hier amorph abgeschiedenes Silizium verwendet. Der Herstellungsprozess beinhaltet die Abscheidung verspannungsoptimierter Schichten (Silizium und Siliziumnitrid) mittels PECVD, die laterale Strukturierung per reaktiven Ionenätzen mit den Gasen SF6 / CHF3 / Ar sowie Fotolack als Maske, die nasschemische Unterätzung der Opferschichten mittels KOH und das Kritisch-Punkt-Trocken der Proben. Die Ergebnisse der optischen Charakterisierung der Filter zeigen eine hohe Ü bereinstimmung zwischen den experimentell ermittelten Daten und den korrespondierenden theoretischen Modellrechnungen. Weisslichtinterferometermessungen der freigeätzten Strukturen zeigen ebene Filterschichten und bestätigen die hohe vertikale Positioniergenauigkeit, die mit diesem technologischen Ansatz erreicht werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die gegenwärtige Entwicklung der internationalen Klimapolitik verlangt von Deutschland eine Reduktion seiner Treibhausgasemissionen. Wichtigstes Treibhausgas ist Kohlendioxid, das durch die Verbrennung fossiler Energieträger in die Atmosphäre freigesetzt wird. Die Reduktionsziele können prinzipiell durch eine Verminderung der Emissionen sowie durch die Schaffung von Kohlenstoffsenken erreicht werden. Senken beschreiben dabei die biologische Speicherung von Kohlenstoff in Böden und Wäldern. Eine wichtige Einflussgröße auf diese Prozesse stellt die räumliche Dynamik der Landnutzung einer Region dar. In dieser Arbeit wird das Modellsystem HILLS entwickelt und zur Simulation dieser komplexen Wirkbeziehungen im Bundesland Hessen genutzt. Ziel ist es, mit HILLS über eine Analyse des aktuellen Zustands hinaus auch Szenarien über Wege der zukünftigen regionalen Entwicklung von Landnutzung und ihrer Wirkung auf den Kohlenstoffhaushalt bis 2020 zu untersuchen. Für die Abbildung der räumlichen und zeitlichen Dynamik von Landnutzung in Hessen wird das Modell LUCHesse entwickelt. Seine Aufgabe ist die Simulation der relevanten Prozesse auf einem 1 km2 Raster, wobei die Raten der Änderung exogen als Flächentrends auf Ebene der hessischen Landkreise vorgegeben werden. LUCHesse besteht aus Teilmodellen für die Prozesse: (A) Ausbreitung von Siedlungs- und Gewerbefläche, (B) Strukturwandel im Agrarsektor sowie (C) Neuanlage von Waldflächen (Aufforstung). Jedes Teilmodell umfasst Methoden zur Bewertung der Standorteignung der Rasterzellen für unterschiedliche Landnutzungsklassen und zur Zuordnung der Trendvorgaben zu solchen Rasterzellen, die jeweils am besten für eine Landnutzungsklasse geeignet sind. Eine Validierung der Teilmodelle erfolgt anhand von statistischen Daten für den Zeitraum von 1990 bis 2000. Als Ergebnis eines Simulationslaufs werden für diskrete Zeitschritte digitale Karten der Landnutzugsverteilung in Hessen erzeugt. Zur Simulation der Kohlenstoffspeicherung wird eine modifizierte Version des Ökosystemmodells Century entwickelt (GIS-Century). Sie erlaubt einen gesteuerten Simulationslauf in Jahresschritten und unterstützt die Integration des Modells als Komponente in das HILLS Modellsystem. Es werden verschiedene Anwendungsschemata für GIS-Century entwickelt, mit denen die Wirkung der Stilllegung von Ackerflächen, der Aufforstung sowie der Bewirtschaftung bereits bestehender Wälder auf die Kohlenstoffspeicherung untersucht werden kann. Eine Validierung des Modells und der Anwendungsschemata erfolgt anhand von Feld- und Literaturdaten. HILLS implementiert eine sequentielle Kopplung von LUCHesse mit GIS-Century. Die räumliche Kopplung geschieht dabei auf dem 1 km2 Raster, die zeitliche Kopplung über die Einführung eines Landnutzungsvektors, der die Beschreibung der Landnutzungsänderung einer Rasterzelle während des Simulationszeitraums enthält. Außerdem integriert HILLS beide Modelle über ein dienste- und datenbankorientiertes Konzept in ein Geografisches Informationssystem (GIS). Auf diesem Wege können die GIS-Funktionen zur räumlichen Datenhaltung und Datenverarbeitung genutzt werden. Als Anwendung des Modellsystems wird ein Referenzszenario für Hessen mit dem Zeithorizont 2020 berechnet. Das Szenario setzt im Agrarsektor eine Umsetzung der AGENDA 2000 Politik voraus, die in großem Maße zu Stilllegung von Ackerflächen führt, während für den Bereich Siedlung und Gewerbe sowie Aufforstung die aktuellen Trends der Flächenausdehnung fortgeschrieben werden. Mit HILLS ist es nun möglich, die Wirkung dieser Landnutzungsänderungen auf die biologische Kohlenstoffspeicherung zu quantifizieren. Während die Ausdehnung von Siedlungsflächen als Kohlenstoffquelle identifiziert werden kann (37 kt C/a), findet sich die wichtigste Senke in der Bewirtschaftung bestehender Waldflächen (794 kt C/a). Weiterhin führen die Stilllegung von Ackerfläche (26 kt C/a) sowie Aufforstung (29 kt C/a) zu einer zusätzlichen Speicherung von Kohlenstoff. Für die Kohlenstoffspeicherung in Böden zeigen die Simulationsexperimente sehr klar, dass diese Senke nur von beschränkter Dauer ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das neuronale Adhäsionsmolekül L1 wird neben den Zellen des Nervensystems auf vielen humanen Tumoren exprimiert und ist dort mit einer schlechten Prognose für die betroffenen Patienten assoziiert. Zusätzlich zu seiner Funktion als Oberflächenmolekül kann L1 durch membranproximale Spaltung in eine lösliche Form überführt werden. In der vorliegenden Arbeit wurde der Einfluss von L1 auf die Motilität von Tumorzellen untersucht. Lösliches L1 aus Asziten führte zu einer Integrin-vermittelten Zellmigration auf EZM-Substraten. Derselbe Effekt wurde durch Überexpression von L1 in Tumorlinien beobachtet. Weiterhin führt die L1-Expression zu einer erhöhten Invasion, einem verstärkten Tumorwachstum in NOD/SCID Mäusen und zur konstitutiven Aktivierung der MAPK ERK1/2. Eine Mutation in der zytoplasmatischen Domäne von hL1 (Thr1247Ala/Ser1248Ala)(hL1mut) führte hingegen zu einer Blockade dieser Funktionen. Dies weist daraufhin, dass nicht nur lösliches L1, sondern auch die zytoplasmatische Domäne von L1 funktionell aktiv ist. Im zweiten Teil der Arbeit wurde der Mechanismus, der L1-vermittelten Signaltransduktion untersucht. Die zytoplasmatische Domäne von L1 gelangt nach sequenzieller Proteolyse durch ADAM und Presenilin-abhängiger γ-Sekretase Spaltung in den Zellkern. Diese Translokation im Zusammenspiel mit der Aktivierung der MAPK ERK1/2 durch L1-Expression führt zu einer L1-abhängigen Genregulation. Die zytoplasmatische Domäne von hL1mut konnte ebenfalls im Zellkern detektiert werden, vermittelte jedoch keine Genregulation und unterdrückte die ERK1/2 Phosphorylierung. Die L1-abhängige Induktion von ERK1/2-abhängigen Genen wie Cathepsin B, β3 Integrin und IER 3 war in Zellen der L1-Mutante unterdrückt. Die Expression des Retinsäure-bindenden Proteins CRABP-II, welches in hL1 Zellen supprimiert wird, wurde in der L1-Mutante nicht verändert. Weitere biochemische Untersuchungen zeigen, dass die zytoplasmatische Domäne von L1 Komplexe mit Transkriptionsfaktoren bilden kann, die an Promoterregionen binden können. Die dargestellten Ergebnisse belegen, dass L1-Expression in Tumoren an drei Funktionen beteiligt ist; (i) L1 erhöht Zellmotilität, (ii) fördert Tumorprogression durch Hochregulation von pro-invasiven und proliferationsfördernden Genen nach Translokation in den Nukleus und (iii) schützt die Zellen mittels Regulation pro- bzw. anti-apoptotischer Gene vor Apoptose. Die mutierte Phosphorylierungsstelle im L1-Molekül ist essentiell für diese Prozesse. Die Anwendung neuer Therapien für Patienten mit L1-positiven Karzinomen kann mit Hinblick auf die guten Erfolge der Antikörper-basierenden Therapie mit dem mAk L1-11A diskutiert werden.