981 resultados para 4000
Resumo:
The objectives of this thesis are to establish a chronological framework for environmental changes during the last 15,000 years in northwest Romania, to reconstruct the vegetation development, and to evaluate the underlying processes for forest dynamics. Furthermore, an overview of earlier and ongoing pollenstratigraphic work in Romania is provided. Sediments from two former crater lakes, Preluca Tiganului and Steregoiu, situated in the Gutaiului Mountains, on the western extremity of the Eastern Carpathians at 730 m and 790 m a.s.l., respectively were obtained and analysed for high-resolution pollen, macrofossils, charcoal, mineral magnetic parameters and organic matter. The chronostratigraphic framework was provided by dense AMS 14C measurements. Cold and dry climatic conditions are indicated by the occurrence of open vegetation with shrubs and herbs, and cold lake water prior to 14,700 cal. yr BP. The climatic improvement at the beginning of the Lateglacial interstadial (around 14,700 cal. yr BP) is seen by the development of open forests. These were dominated by Pinus and Betula, but contained also new arriving tree taxa, such as Populus, Alnus and Prunus. The gradual establishment of forests may have led to a stabilization of the soils in the catchment. Between ca. 14,100 and 13,800 cal. yr BP the forest density became reduced to stands of Pinus, Betula, Alnus, Larix and Populus trees and grassland expanded, suggesting colder climatic conditions. Picea arrived as a new taxon at around 13,800 cal. yr BP, and between 13,800 and 12,900 cal. yr BP, the surroundings of the sites were predominantly covered by Picea forest. This forest included Betula, Pinus, Alnus, Larix and Populus and, from 13,200 cal. yr BP onwards also Ulmus. At ca. 12,900 cal. yr BP, the forest became significantly reduced and at 12,600 cal. yr BP, a recurrence of open vegetation with stands of Larix, Pinus, Betula, Salix and Alnus is documented, lasting until 11,500 cal. yr BP. This distinct change in vegetation may by taken as a strong decline in temperature and moisture availability. At the transition to the Holocene, at ca. 11,500 cal. yr BP, Pinus, Betula and Larix quickly expanded (from small local stands) and formed open forests, probably as a response to warmer and more humid climatic conditions. At 11,250 cal. yr BP Ulmus and Picea expanded and the landscape became completely forested. The rapid increase of Ulmus and Picea after 11,500 cal. yr BP may suggest the existence of small residual populations close to the study sites during the preceding cold interval. Ulmus was the first and most prominent deciduous taxa in the early Holocene in the Gutaiului Mountains. From ca. 10,750 cal. yr BP onwards Quercus, Tilia, Fraxinus and Acer expanded and Corylus arrived. A highly diverse, predominantly deciduous forest with Ulmus, Quercus, Tilia, Fraxinus, Acer, Corylus and Picea developed between 10,700 and 8200 cal. yr BP, which possibly signifies more continental climatic conditions. The development of a Picea-Corylus dominated forest between 8200 and 5700 cal. yr BP is likely connected to a more humid and cooler climate. The establishment of Carpinus and Fagus was dated to 5750 cal. yr BP and 5200 cal. yr BP, respectively. The dominance of Fagus during the late Holocene, from 4000 cal. yr BP onwards, may have been related to cooler and more humid climatic conditions. First signs of human activities are recorded around 2300 cal. yr BP, but only during the last 300 years did local human impact become significant. The vegetation development recorded in the Gutaiului Mountains during the Lateglacial is very similar to reconstructions based on lowland sites, whereas higher elevation sites seem not to have always experienced visible vegetation changes. The time of tree arrival and expansion during the past 11,500 cal. yr BP seems to have occurred almost synchronously across Romania. The composition of the forests during the Holocene in the Gutaiului Mountains is consistent with that reconstructed at mid-elevation sites, but differs from the forest composition at higher elevations. Important differences between the Gutaiului Mountains and other studied sites in Romania are a low representation of Carpinus and a late and weak human impact. The available data sets for Romania give evidence for the presence of coniferous and cold-tolerant deciduous trees before 14,700 cal. yr BP. Glacial refugia for Ulmus may have occurred in different parts of Romania, whereas the existence of Quercus, Tilia, Corylus and Fraxinus has not been corroborated.
Resumo:
[EN] Migrant biota transports carbon to the mesopelagic zone due to their feeding at the shallower layers and their defecation, respiration, excretion and mortality at depth. The so-called active flux has been considered a small number compared to gravitational sinking. Recent assessments in subtropical waters show an important effect due to predation by interzonal diel vertical migrants (DVMs). The consumption and subsequent transport of epipelagic zooplankton by DVMs (mainly micronekton) to the mesopelagic zone seemed similar to the mean gravitational export. However, the consequences of this active transport to the bathypelagic zone are almost unknown. Here, we show the effect of the Atlantic and Pacific equatorial upwelling systems on the vertical distribution of acoustic backscatter from the surface to bathypelagic depths. The enhancement of the acoustic signal below the upwelling zone was observed to reach 4000 m depth, coinciding with high abundances and activity of bacteria at those depths. The results suggest an active carbon transport from the epipelagic driven by zooplankton and micronekton, enhancing the efficiency of the biological pump and giving an insight about the fate of an increased productivity at the shallower layers of the ocean
Resumo:
[EN] The Humboldt-09 cruise covered a narrow meridional band along the Chilean continental slope (44?23º S). Here we use physical and biochemical data from a long meridional section (4000 km) and three short zonal sections (100 km) to describe the distribution of the different water masses found in this region. Six water masses were identified: Subantarctic Water (SAAW), Summer Subantarctic Water (SSAW), Subtropical Water (STW), Equatorial Subsurface Water (ESSW), Antarctic Intermediate Water (AAIW), and Pacific Deep Water (PDW). For the first time, a novel set of source water mass properties (or water types) is introduced for SSAW, and nutrient and dissolved oxygen water types are proposed for all the water masses. Optimum multiparameter (OMP) analysis was used through an iterative process to obtain a sound definition of the water types that minimizes the residuals of the method. Both the classic OMP and the quasi-extended OMP models reproduced the data rather well. Finally, the spatial distribution of the different water masses was calculated with the quasi-extended OMP, which is not influenced by the respiration of organic matter. The distribution of the different water masses is presented over the meridional and zonal transects and in property-property diagrams. A smooth meridional transition from subantarctic to tropical and equatorial water masses is observed in this area. This transition takes place in surface, central, and intermediate waters over distances of the order of 1000 km. The meridional transition contrasts with the abrupt zonal changes found in the cross-slope direction, which are of comparable magnitude but over distances of the order of 100 km. Both AAIW and SAAW (fresh and well oxygenated) partially mix with the hypoxic ESSW and, therefore, play an important role in the ventilation of the southern part of the oxygen minimum zone.
Resumo:
CAPITOLO 1 INTRODUZIONE Il lavoro presentato è relativo all’utilizzo a fini metrici di immagini satellitari storiche a geometria panoramica; in particolare sono state elaborate immagini satellitari acquisite dalla piattaforma statunitense CORONA, progettata ed impiegata essenzialmente a scopi militari tra gli anni ’60 e ’70 del secolo scorso, e recentemente soggette ad una declassificazione che ne ha consentito l’accesso anche a scopi ed utenti non militari. Il tema del recupero di immagini aeree e satellitari del passato è di grande interesse per un ampio spettro di applicazioni sul territorio, dall’analisi dello sviluppo urbano o in ambito regionale fino ad indagini specifiche locali relative a siti di interesse archeologico, industriale, ambientale. Esiste infatti un grandissimo patrimonio informativo che potrebbe colmare le lacune della documentazione cartografica, di per sé, per ovvi motivi tecnici ed economici, limitata a rappresentare l’evoluzione territoriale in modo asincrono e sporadico, e con “forzature” e limitazioni nel contenuto informativo legate agli scopi ed alle modalità di rappresentazione delle carte nel corso del tempo e per diversi tipi di applicazioni. L’immagine di tipo fotografico offre una rappresentazione completa, ancorché non soggettiva, dell’esistente e può complementare molto efficacemente il dato cartografico o farne le veci laddove questo non esista. La maggior parte del patrimonio di immagini storiche è certamente legata a voli fotogrammetrici che, a partire dai primi decenni del ‘900, hanno interessato vaste aree dei paesi più avanzati, o regioni di interesse a fini bellici. Accanto a queste, ed ovviamente su periodi più vicini a noi, si collocano le immagini acquisite da piattaforma satellitare, tra le quali rivestono un grande interesse quelle realizzate a scopo di spionaggio militare, essendo ad alta risoluzione geometrica e di ottimo dettaglio. Purtroppo, questo ricco patrimonio è ancora oggi in gran parte inaccessibile, anche se recentemente sono state avviate iniziative per permetterne l’accesso a fini civili, in considerazione anche dell’obsolescenza del dato e della disponibilità di altre e migliori fonti di informazione che il moderno telerilevamento ci propone. L’impiego di immagini storiche, siano esse aeree o satellitari, è nella gran parte dei casi di carattere qualitativo, inteso ad investigare sulla presenza o assenza di oggetti o fenomeni, e di rado assume un carattere metrico ed oggettivo, che richiederebbe tra l’altro la conoscenza di dati tecnici (per esempio il certificato di calibrazione nel caso delle camere aerofotogrammetriche) che sono andati perduti o sono inaccessibili. Va ricordato anche che i mezzi di presa dell’epoca erano spesso soggetti a fenomeni di distorsione ottica o altro tipo di degrado delle immagini che ne rendevano difficile un uso metrico. D’altra parte, un utilizzo metrico di queste immagini consentirebbe di conferire all’analisi del territorio e delle modifiche in esso intercorse anche un significato oggettivo che sarebbe essenziale per diversi scopi: per esempio, per potere effettuare misure su oggetti non più esistenti o per potere confrontare con precisione o co-registrare le immagini storiche con quelle attuali opportunamente georeferenziate. Il caso delle immagini Corona è molto interessante, per una serie di specificità che esse presentano: in primo luogo esse associano ad una alta risoluzione (dimensione del pixel a terra fino a 1.80 metri) una ampia copertura a terra (i fotogrammi di alcune missioni coprono strisce lunghe fino a 250 chilometri). Queste due caratteristiche “derivano” dal principio adottato in fase di acquisizione delle immagini stesse, vale a dire la geometria panoramica scelta appunto perché l’unica che consente di associare le due caratteristiche predette e quindi molto indicata ai fini spionaggio. Inoltre, data la numerosità e la frequenza delle missioni all’interno dell’omonimo programma, le serie storiche di questi fotogrammi permettono una ricostruzione “ricca” e “minuziosa” degli assetti territoriali pregressi, data appunto la maggior quantità di informazioni e l’imparzialità associabili ai prodotti fotografici. Va precisato sin dall’inizio come queste immagini, seppur rappresentino una risorsa “storica” notevole (sono datate fra il 1959 ed il 1972 e coprono regioni moto ampie e di grandissimo interesse per analisi territoriali), siano state molto raramente impiegate a scopi metrici. Ciò è probabilmente imputabile al fatto che il loro trattamento a fini metrici non è affatto semplice per tutta una serie di motivi che saranno evidenziati nei capitoli successivi. La sperimentazione condotta nell’ambito della tesi ha avuto due obiettivi primari, uno generale ed uno più particolare: da un lato il tentativo di valutare in senso lato le potenzialità dell’enorme patrimonio rappresentato da tali immagini (reperibili ad un costo basso in confronto a prodotti simili) e dall’altro l’opportunità di indagare la situazione territoriale locale per una zona della Turchia sud orientale (intorno al sito archeologico di Tilmen Höyük) sulla quale è attivo un progetto condotto dall’Università di Bologna (responsabile scientifico il Prof. Nicolò Marchetti del Dipartimento di Archeologia), a cui il DISTART collabora attivamente dal 2005. L’attività è condotta in collaborazione con l’Università di Istanbul ed il Museo Archeologico di Gaziantep. Questo lavoro si inserisce, inoltre, in un’ottica più ampia di quelle esposta, dello studio cioè a carattere regionale della zona in cui si trovano gli scavi archeologici di Tilmen Höyük; la disponibilità di immagini multitemporali su un ampio intervallo temporale, nonché di tipo multi sensore, con dati multispettrali, doterebbe questo studio di strumenti di conoscenza di altissimo interesse per la caratterizzazione dei cambiamenti intercorsi. Per quanto riguarda l’aspetto più generale, mettere a punto una procedura per il trattamento metrico delle immagini CORONA può rivelarsi utile all’intera comunità che ruota attorno al “mondo” dei GIS e del telerilevamento; come prima ricordato tali immagini (che coprono una superficie di quasi due milioni di chilometri quadrati) rappresentano un patrimonio storico fotografico immenso che potrebbe (e dovrebbe) essere utilizzato sia a scopi archeologici, sia come supporto per lo studio, in ambiente GIS, delle dinamiche territoriali di sviluppo di quelle zone in cui sono scarse o addirittura assenti immagini satellitari dati cartografici pregressi. Il lavoro è stato suddiviso in 6 capitoli, di cui il presente costituisce il primo. Il secondo capitolo è stato dedicato alla descrizione sommaria del progetto spaziale CORONA (progetto statunitense condotto a scopo di fotoricognizione del territorio dell’ex Unione Sovietica e delle aree Mediorientali politicamente correlate ad essa); in questa fase vengono riportate notizie in merito alla nascita e all’evoluzione di tale programma, vengono descritti piuttosto dettagliatamente gli aspetti concernenti le ottiche impiegate e le modalità di acquisizione delle immagini, vengono riportati tutti i riferimenti (storici e non) utili a chi volesse approfondire la conoscenza di questo straordinario programma spaziale. Nel terzo capitolo viene presentata una breve discussione in merito alle immagini panoramiche in generale, vale a dire le modalità di acquisizione, gli aspetti geometrici e prospettici alla base del principio panoramico, i pregi ed i difetti di questo tipo di immagini. Vengono inoltre presentati i diversi metodi rintracciabili in bibliografia per la correzione delle immagini panoramiche e quelli impiegati dai diversi autori (pochi per la verità) che hanno scelto di conferire un significato metrico (quindi quantitativo e non solo qualitativo come è accaduto per lungo tempo) alle immagini CORONA. Il quarto capitolo rappresenta una breve descrizione del sito archeologico di Tilmen Höyuk; collocazione geografica, cronologia delle varie campagne di studio che l’hanno riguardato, monumenti e suppellettili rinvenute nell’area e che hanno reso possibili una ricostruzione virtuale dell’aspetto originario della città ed una più profonda comprensione della situazione delle capitali del Mediterraneo durante il periodo del Bronzo Medio. Il quinto capitolo è dedicato allo “scopo” principe del lavoro affrontato, vale a dire la generazione dell’ortofotomosaico relativo alla zona di cui sopra. Dopo un’introduzione teorica in merito alla produzione di questo tipo di prodotto (procedure e trasformazioni utilizzabili, metodi di interpolazione dei pixel, qualità del DEM utilizzato), vengono presentati e commentati i risultati ottenuti, cercando di evidenziare le correlazioni fra gli stessi e le problematiche di diversa natura incontrate nella redazione di questo lavoro di tesi. Nel sesto ed ultimo capitolo sono contenute le conclusioni in merito al lavoro in questa sede presentato. Nell’appendice A vengono riportate le tabelle dei punti di controllo utilizzati in fase di orientamento esterno dei fotogrammi.
Resumo:
L’analisi condotta nella tesi mira ad indagare le determinanti del debito delle piccole e medie imprese italiane: la domanda di ricerca è indirizzata a capire se la struttura finanziaria di queste ultime segue i modelli teorici sviluppati nell’ambito della letteratura di Corporate Finance o se, d’altro canto, non sia possibile prescindere dalle peculiarità delle piccole e medie imprese per spiegare il ricorso alle diverse fonti di finanziamento. La ricerca empirica effettuata nella dissertazione vuole essere un tentativo di coniugare le teorie di riferimento e le evidenze empiriche relative alle piccole e medie imprese italiane, analizzandone il comportamento attraverso lo studio del campione di dati fornito da Capitalia, relativo alla Nona Indagine per il periodo 2001-2003. Il campione in oggetto fa riferimento a circa 4000 imprese con più di 10 addetti, prevalentemente del settore manifatturiero. Per indagare le determinanti del debito nelle sue componenti più tradizionali, si sono prese in considerazione il debito commerciale e il debito bancario a breve termine come forme di finanziamento correnti mentre, tra le forme di finanziamento di medio-lungo periodo, le variabili usate sono state il ricorso al debito bancario a lungo termine e a strumenti obbligazionari. Inoltre, si è ricorso anche a misure più tradizionali di leva finanziaria, quali il rapporto di indebitamento, la proporzione tra debiti bancari, sia di breve che di lungo periodo, e l’ammontare dei finanziamenti esterni rispetto al valore dell’impresa, distinguendo anche qui, tra finanziamenti a breve e a lungo termine. L’analisi descrittiva ha mostrato il massiccio ricorso al debito bancario e, in generale, alle forme di indebitamento a breve. Le imprese di dimensioni minori, più giovani e opache tendono a ricorrere alle fonti interne e a forme di indebitamento a breve, mentre le imprese maggiormente dimensionate mostrano una struttura del debito più articolata. Questo ha suggerito la definizione di una diversa misura di debito, che tiene conto della complessità della sua struttura all’interno delle imprese, in base ad un ricorso di tipo gerarchico alle fonti di finanziamento: il grado di complessità dipende dalle tipologie e dalla quantità dei contratti di debito conclusi dall’impresa . E’ plausibile pensare che le imprese ricorrano prima alle fonti interne di finanziamento, perché prive di costi, e poi all’indebitamento nei confronti di diversi stakeholders: rispetto alla prossimità e alla facilità dell’ottenimento del finanziamento, è sembrato naturale pensare che un’impresa ricorra dapprima al debito commerciale, poi al debito bancario e solo infine all’emissione di obbligazioni, in un ordine gerarchico. Ne consegue che se un’impresa (non) ha contratto debiti con fornitori, banche e mercato, la complessità della struttura del suo debito è massima (nulla). L’analisi econometrica successiva è stata indirizzata in tre direzioni. In primis, l’analisi longitudinale dei dati è stata volta ad evidenziare se la struttura finanziaria delle PMI risponde ad un particolare modello teorico, in accordo con le teoria tradizionali di riferimento. In secondo luogo, l’analisi delle determinanti si è allargata allo studio degli aspetti peculiari delle imprese medio-piccole. Infine, si è indagato se, nell’ambito delle imprese di dimensioni minori, si osservano comportamenti omogenei oppure se determinate scelte nelle fonti di finanziamento sono da ricondurre all’esistenza di alcuni vincoli. Quindi, partendo dalla rassegna dei principali riferimenti nella letteratura, costituiti dalla Trade-off theory (Modigliani e Miller, 1963, De Angelo e Masulis, 1980, Miller, 1977), dalla Pecking order theory (Myers 1984, Myers e Majluf, 1984) e dalla Financial growth cycle theory (Berger e Udell, 1998), una prima serie di analisi econometriche è stata rivolta alla verifica empirica delle teorie suddette. Una seconda analisi mira, invece, a capire se il comportamento delle imprese possa essere spiegato anche da altri fattori: il modello del ciclo di vita dell’impresa, mutuato dalle discipline manageriali, così come il contesto italiano e la particolarità del rapporto bancaimpresa, hanno suggerito l’analisi di altre determinanti al ricorso delle diverse fonti di debito. Di conseguenza, si sono usate delle opportune analisi econometriche per evidenziare se la struttura proprietaria e di controllo dell’impresa, il suo livello di complessità organizzativa possano incidere sulla struttura del debito delle imprese. Poi, si è indagato se il massiccio ricorso al debito bancario è spiegato dalle peculiarità del rapporto banca-impresa nel nostro Paese, rintracciabili nei fenomeni tipici del relationship lending e del multiaffidamento. Ancora, si sono verificati i possibili effetti di tale rapporto sulla complessità della struttura del debito delle imprese. Infine, l’analisi della letteratura recente sulla capital structure delle imprese, l’approccio sviluppato da Fazzari Hubbard e Petersen (1988) e Almeida e Campello (2006 , 2007) ha suggerito un ultimo livello di analisi. La presenza di vincoli nelle decisioni di finanziamento, legati essenzialmente alla profittabilità, alla dimensione delle imprese, alle sue opportunità di crescita, e alla reputazione verso l’esterno, secondo la letteratura recente, è cruciale nell’analisi delle differenze sistematiche di comportamento delle imprese. Per di più, all’interno del lavoro di tesi, così come in Almeida e Campello (2007), si è ipotizzato che la propensione agli investimenti possa essere considerata un fattore endogeno rispetto alla struttura del debito delle imprese, non esogeno come la letteratura tradizionale vuole. Per questo motivo, si è proceduto ad un ultimo tipo di analisi econometrica, volta a rilevare possibili differenze significative nel comportamento delle imprese rispetto al ricorso alle fonti di finanziamento a titolo di debito: nel caso in cui esse presentino una dimensione contenuta, una bassa redditività e una scarsa reputazione all’esterno infatti, vi dovrebbe essere un effetto di complementarietà tra fonti interne ed esterne. L’effetto sarebbe tale per cui non sussisterebbe, o per lo meno non sarebbe significativa, una relazione negativa tra fonti interne ed esterne. Complessivamente, i risultati delle analisi empiriche condotte, supportano sia le teorie classiche di riferimento nell’ambito della disciplina della Corporate finance, sia la teoria proposta da Berger e Udell (1998): le variabili che risultano significative nella spiegazione della struttura del debito sono principalmente quelle relative alla dimensione, all’età, al livello e alla qualità delle informazioni disponibili. Inoltre, il ricorso a fonti interne risulta essere la primaria fonte di finanziamento, seguita dal debito. Il ricorso a fonti esterne, in particolare al debito bancario, aumenta quanto più l’impresa cresce, ha una struttura solida e la capacità di fornire delle garanzie, e ha una reputazione forte. La struttura del debito, peraltro, diventa più complessa all’aumentare della dimensione, dell’età e del livello di informazioni disponibili. L’analisi della struttura proprietaria e della componente organizzativa all’interno delle imprese ha evidenziato principalmente che la struttura del debito aumenta di complessità con maggiore probabilità se la proprietà è diffusa, se vi è un management indipendente e se la piramide organizzativa è ben definita. Relativamente al rapporto banca-impresa, i principali risultati mostrano che l’indebitamento bancario sembra essere favorito dai fenomeni di relationship lending e dal multiaffidamento. Tali peculiarità assumono tratti diversi a seconda della fase del ciclo di vita delle imprese della Nona Indagine. Infine, per quanto attiene all’ultima tipologia di analisi condotta, le evidenze empiriche suggeriscono che le piccole e medie imprese possano essere soggette a delle restrizioni che si riflettono nell’ambito delle loro politiche di investimento. Tali vincoli, relativi alla dimensione, ai profitti conseguiti e alla reputazione all’esterno, aiutano a spiegare le scelte di finanziamento delle PMI del campione.
Resumo:
Colloidal nanoparticles are additives to improve or modify several properties of thermoplastic or elastic polymers. Usually colloid-polymer mixtures show phase separation due to the depletion effect. The strategy to overcome this depletion demixing was to prepare surface-modified colloidal particles, which can be blended with linear polymer chains homogeneous. A successful synthesis strategy for the preparation of hairy nanospheres was developed by grafting polystyrene macromonomer chains onto polyorganosiloxane microgels. The number of hairs per particle with a core radius of approximately 10nm exceeded 150 hairs in all cases. The molecular weight of the hairs variied between 4000-18000g/mol.The compatibility of these hairy spheres mixed with linear polymer chains was investigated by AFM, TEM and SAXS. Homogeneous mixtures were found if the molecular weight of the polymer hairs on the particle surface is at least as large as the molecular weight of the matrix chains. If the chains are much shorter than the hairs, the colloidal hair corona is strongly swollen by the matrix polymer, leading to a long-range soft interparticle repulsion ('wet brush'). If hairs and chains are comparable in length, the corona shows much less volume swelling, leading to a short-range repulsive potential similar to hard sphere systems ('dry brush'). Polymerketten und Kolloidpartikel entmischen aufgrund von Depletion-Wechselwirkungen. Diese entropisch bedingte Entmischung konnte durch das Ankoppeln von Polymerhaaren verschiedenen Molekulargewichts auf die Kugeloberflächen der Kolloide bis zu hohen Konzentrationen vermieden werden. Zur Darstellung sphärischer Bürsten und haariger Tracerpartikel wurde eine neue Synthesestrategie ausgearbeitet und erfolgreich umgesetzt.Das Kompatibilitätsverhalten dieser sphärischen Bürsten in der Schmelze von Polymerketten als Matrix wurde mittels Elektronenmikroskopie und Kleinwinkelröntgenstreuung untersucht. Die Mischungen setzten sich aus sphärischen Bürsten und Matrixketten mit unterschiedlichen Molekulargewichten zusammen.Es zeigte sich, daß die Mischbarkeit entschieden durch das Verhältnis von Haarlänge zu Länge der Matrixketten beeinflußt wird.Aus den Untersuchungen des Relaxationsverhaltens mittels Rheologie und SAXS ergibt sich, daß das Konzept der 'dry brush'- und 'wet brush'-Systeme auf diese Mischungen übertragbar ist. Die Volumenquellung der Haarcorona durch die Matrixketten ist, wie die Experimente gezeigt haben, bereits im Fall von Polymeren mit relativ niedrigen Molekulargewichten zu beobachten. Sie ist umso stärker ausgeprägt, je größer das Längenverhältnis zwischen Polymerhaaren und Matrixketten ist. Die Quellung bedeutet eine Vergrößerung des effektiven Radius der Partikel und entspricht somit einer Erhöhung des effektiven Volumenbruchs. Dies führt zur Ausbildung einer höheren Ordnung und zu einem Einfrieren der Relaxation dieser strukturellen Ordnung führt.
Resumo:
Das Mainzer Neutrinomassenexperiment untersucht dasBetaspektrum von Tritium in der Naehe des Endpunktes undbestimmt daraus die Ruhemasse des Elektronantineutrinos. DieMessungen werden mit einem integrierenden, elektrostatischenGegenfeldspektrometer durchgefuehrt, bei dem das Prinzip dermagnetischen adiabatischen Kollimation angewandt wird, umgleichzeitig hohe Raumwinkelakzeptanz (bis maximal 2Pi) undeine sehr gute Energieaufloesung (E/dE=4000) zu erreichen.Als Tritiumquellen werden schockkondensierte Tritiumfilmeeingesetzt.Der Schwerpunkt dieser Arbeit bestand darin, das MainzerExperiment in entscheidenden Punkten zu verbessern. Das Zielwar, die Sensitivitaet auf die Neutrinomasse zu erhoehen unddie von der Troitskgruppe berichtete Anomalie imTritium-Betaspektrum zu ueberpruefen. Diese beschreibt einemonoenergetische Line variabler Amplitude einige eVunterhalb des Betaendpunktes, deren Positioin mit einerHalbjahresperiode variiert.Nach dem Umbau 1995-1997 wurde der Endpunktsbereich desTritium-Betaspektrums bis Ende 1998 in 4 Messphasen ueberjeweils 1 Monat vermessen. Die erreichte Sensitivitaet derMainzer Daten war ausreichend, um die Troitsk Hypothese zuueberpruefen. Eine der 3 im Jahr 1998 durchgefuehrtenMessungen unterstuetzt die Hypothese, die Daten einer 6Monate spaeter durchgefuehrten Messung dagegen nicht. Somitstehen die Ergebnisse im Widerspruch zur postuliertenHalbjahresperiode.Die neuen Messungen zeigen bei Vergroesserung desAuswerteintervalls keinen Trend zu unphysikalisch negativenMassenquadraten. Es kann eine neue Neutrinomassenobergerenzevon 3.0 eV/c/c abgeleitet werden.
Resumo:
Investigations were performed during the years 1999 to 2001 on a limed and unlimed plot within a high-elevated sessile oak forest. The oak forest (with 90 years old European beech at the understorey) was 170 to 197 years old. It is located at forest district Merzalben, location 04/0705, which is situated in the Palatinate Forest in south-west Germany. Liming was performed in December 1988 when 6 tons/ha of powdered Dolomite were brought up by the forestry department. Liming was performed to counteract the effects of soil acidification (pH(H2O) at Horizon A (0-10 cm): 3.9), which is induced by long-term (anthropogenic) acidic cloud cover and precipitation. Potentially toxic Al3+ ions, which become solubilized below pH 5, were suspected to be responsible for forest dieback and sudden death of the mature oaks. The most logical entry point for these toxic ions was suspected to occur in the highly absorptive region of the ectomycorrhizae (fungal covered root tips). However, the diversity and abundance of oak-ectomycorrhizal species and their actual roles in aluminum translocation (or blockage) were unknown. It was hypothesized that the ectomycorrhizae of sessile oaks in a limed forest would exhibit greater seasonal diversity and abundance with less evidence of incorporated aluminum than similar oak ectomycorrhizae from unlimed soils. To test this hypothesis, 12 oaks in the limed plot and 12 in an adjacent unlimed plot were selected. Each spring and fall for 2 years (1999 & 2000), 2 sets of soil cylinders (9.9 cm dia.) were extracted from Horizon A (0-10 cm), Horizon B (30-40 cm) and Horizon C (50-60 cm depth) at a distance of 1 meter from each tree base. Roots were extracted from each probe by gentle sieving and rinsing. Soil samples were retained for pH (H2O, CaCl2, and KCl) and moisture analysis. One set of roots was sorted by size and air-dried for biomass analysis. The finest mycorrhizal roots of this set were used for bound and unbound (cytosolic) mineral [Al, Ca, Mg, K, Na, Mn, S, Zn, Fe, Cd and Pb] analysis (by Landwirtschaftliche Untersuchungs- und Forschungsanstalt Rheinland Palatinate (LUFA)). Within 7 days of collection, the mycorrhizal tips from the second set of probes were excised, sorted, identified (using Agerer’s Color Atlas), counted and weighed. Seasonal diversity and abundance was characterized for 50 of the 93 isolates. The location and relative abundance of Al within the fungal and root cell walls was characterized for 68 species using 0.01% Morin dye and fluorescence microscopy. Morin complexes with Al to produce an intense yellow fluorescence. The 4 most common species (Cenococcum geophilum, Quercirhiza fibulocsytidiata, Lactarius subdulcis, Piceirhiza chordata) were prepared for bound Al, Ca, Fe and K mineral analysis by LUFA. The unlimed and limed plots were then compared. Only 46 of the 93 isolated ectomycorrhizal species had been previously associated with oaks in the literature. Mycorrhizal biomass was most abundant in Horizon A, declining with depth, drought and progressive soil acidification. Mycorrhizae were most diverse (32 species) in the limed plot, but individual species abundance was low (R Selection) in comparison to the unlimed plot, where there were fewer species (24) but each species present was abundant (K Selection). Liming increased diversity and altered dominance hierarchy, seasonal distributions and succession trends of ectomycorrhizae at all depths. Despite an expected reduction in Al content, the limed ectomycorrhizae both qualitatively (fluorescence analysis) and quantitatively (mineral analysis) contained more bound Al, especially so in Horizon A. The Al content qualitatively and quantitatively increased with depth in the unlimed and limed plots. The bound Al content fluctuated between 4000-and 20000 ppm while the unbound component was consistently lower (4 -14 ppm). The relative amount of unbound Al declined upon liming implying less availability for translocation to the crown area of the trees. This correspouds with the findings of good crown appearance and lower tree mortality in the limed zone. Each ectomycorrhizal species was unique in its ability to block, sequester (hold) or translocate Aluminum. In several species, Al uptake varied with changes in moisture, pH, depth and liming. According to the fluorescence study, about 48% of the isolated ectomycorrhizal species blocked and/or sequestered (held) Al in their mantle and/or Hartig net walls, qualitatively lowering bound Al in the adjacent root cell walls. Generally, if Al was more concentrated in the fungal walls, it was less evident in the cortex and xylem and conversely, if Al was low or absent from the fungal walls it was frequently more evident in the cortex and xylem.
Resumo:
Die Perakin-Reduktase (PR) ist ein hochspezifisches Enzym aus dem Alkaloidstoffwechsel in Rauvolfia serpentina, dessen enzymatischer und molekularer Reaktionsmechanismus noch immer unbekannt ist. Um die dreidimensionale Struktur der PR aufzuklären, wurde in der vorliegenden Arbeit das für die PR codierende Gen erstmals identifiziert, exprimiert und das Genprodukt zur Kristallisation gebracht. Die PR ist ein 337 Aminosäure langes monomeres Protein mit einem Molekulargewicht von 37,2 kDa. Die Reinigung erfolgte über Ni2+-NTA-Affinitätschromatographie und lieferte 10 mg homogenes Protein pro Liter Bakterienkultur. Nach Expression in E. coli wurde im Enzym-Assay die NADPH2-abhängige Reduktion von Perakin zu Raucaffrinolin bestätigt und das Endprodukt massenspektrometrisch identifiziert. Durch Sequenzalignments mit anderen Proteinen wurde geschlossen, dass die PR zu der Superfamilie der Aldo/Keto-Reduktasen (AKR) gehört. Nach heterologer Expression in E. coli konnte die homogene, über reduktive Methylierung modifizierte PR mit Hilfe der Methode der Dampfdiffusion im hängenden Tropfen kristallisiert werden. In Gegenwart von 27% PEG 4000 und 100 mM Natriumcitrat (pH 5,6) bildeten sich nach 4 Tagen bei 20°C die ersten Kristalle. Die Struktur der PR konnte mit einer Auflösung von 2,0 Å durch molekularen Ersatz vollständig gelöst werden. Das Strukturmodell besitzt eine für AKRs charakteristische (α/β)8 TIM-barrel Faltung, konservierte Aminosäuren, die an der Bindung von NADPH2 beteiligt sind sowie eine katalytische Tetrade, die den Wasserstofftransfer von NADPH2 zum Kohlenstoff des Substrates vermittelt.
L'area dei Lungarni di Pisa nel tardo Medioevo (XIV-XV secolo). un tentativo di ricostruzione in 3D.
Resumo:
Lo scopo di questa ricerca è la ricostruzione dei Lungarni di Pisa nel Tardo Medioevo (XIV-XV secolo); lo studio intende sottolineare le trasformazioni urbanistiche che hanno cambiato il volto di Pisa nel corso del tempo e ricordare che l’area fluviale ebbe un ruolo di primo piano come baricentro commerciale ed economico della città, vocazione che si è in gran parte persa con l’età moderna e contemporanea. La metodologia seguita, affinata e perfezionata durante la partecipazione al progetto Nu.M.E. (Nuovo Museo Elettronico della Città di Bologna), si basa sull’analisi e il confronto di fonti eterogenee ma complementari, che includono precedenti studi di storia dell’urbanistica, un corpus di documentazione di epoca medievale (provvedimenti amministrativi come gli Statuti del Comune di Pisa, ma anche descrizioni di cronisti e viaggiatori), fonti iconografiche, tra cui vedute e mappe cinquecentesche o successive, e fonti materiali, come le persistenze medievali ancora osservabili all’interno degli edifici ed i reperti rinvenuti durante alcune campagne di scavo archeologiche. Il modello 3D non è concepito come statico e “chiuso”, ma è liberamente esplorabile all’interno di un engine tridimensionale; tale prodotto può essere destinato a livelli di utenza diversi, che includono sia studiosi e specialisti interessati a conoscere un maggior numero di informazioni e ad approfondire la ricerca, sia semplici cittadini appassionati di storia o utenti più giovani, come studenti di scuole medie superiori e inferiori.
Resumo:
Die Elementmassenspektrometrie wurde in den letzten Jahren sehr erfolgreich zur Aufklärung verschiedener Fragestellungen in der Bioanalytik eingesetzt. Hierbei spielen vor allem Kopplungstechniken von Trennmethoden wie der Flüssigchromatographie (LC) oder der Kapillarelektrophorese (CE) mit der induktiv gekoppelten Plasma-Massenspektrometrie (ICP-MS) als Multielementdetektor mit hervorragenden Quantifizierungseigenschaften eine entscheidende Rolle bei der Untersuchung von Biopolymeren und deren Wechselwirkung mit verschiedenen Metallen. So wurden beispielsweise verschiedene Methoden für die Trennung und Detektion von Metalloproteinen oder DNA-Metall-Addukten in unterschiedlichen Probenmaterialien entwickelt. Die traditionelle und leistungsstärkste Trennmethode für Biopolymere aller Art, die Gelelektrophorese, wurde jedoch bislang nicht in einem Online-Verfahren an die ICP-MS gekoppelt, um solche Fragestellungen zu bearbeiten. Verschiedene Versuche auf der Basis der Laserablation wurden in diese Richtung unternommen, wobei diese Techniken als sehr umständlich und zeitaufwändig anzusehen sind. In dieser Arbeit wird erstmals die technische Realisierung einer Online-Kopplung der Gelelektrophorese mit der ICP-MS beschrieben. Das System basiert auf einem Prinzip aus der präparativen Gelelektrophorese, in welcher eine kontinuierliche Elution der getrennten Komponenten aus dem Gel während der laufenden Elektrophorese durchgeführt wird. Die eluierten Komponenten werden mit dem Elutionspuffer direkt in das Zerstäubersystem des ICP-MS geführt. Die ersten Untersuchungen wurden am Beispiel der Fragemente von doppelsträngiger DNA (dsDNA) durchgeführt. Kommerziell erhältliche Standardlösungen wurden mit der Online-GE-ICP-MS mittels Detektion von 31P an einem hochauflösenden Massenspektrometer mit einer Massenauflösung von 4000 analysiert. Die Trennbedingungen (z.B. pH-Wert oder Ionenstärke der Pufferlösungen) wurden für die Trennung von dsDNA-Fragementen in Agarosegelen optimiert und auf verschiedene dsDNA-Fragmente angewandt. In einem nächsten Schritt wurden die Quantifizierungsmöglichkeiten für Biopolymere untersucht. Sehr kleine Mengen an dsDNA konnten mit einer Präzision von weniger als 3% quantifiziert werden. Hierfür kamen verschiedene Möglichkeiten der externen Kalibration zum Einsatz, wie der Kalibration mit einem Phosphat-Standard oder einem kommerziell erhältlichen quantitativen dsDNA-Standard. Um das Potenzial der entwickelten Methode für die Untersuchung von Biopolymer-Metall-Wechselwirkungen zu demonstrieren, wurden Oligonukleotide mit Cisplatin unter physiologischen Bedingungen inkubiert und die Reaktionsprodukte mit der Online-GE-ICP-MS mittels 31P- und 195Pt-Detektion untersucht. Verschiedene Cisplatin-Oligonukleotid-Addukte konnten auf diese Weise beobachtet werden, was zur Identifizierung die Anwendung der MALDI-TOF-MS als komplementärer Form der Massenspektrometrie notwendig machte. Abschließend wurde die Isotopenverdünnungsanalyse zum Zweck der Quantifizierung herangezogen.
Resumo:
Erkrankungen des Skelettapparats wie beispielsweise die Osteoporose oder Arthrose gehören neben den Herz-Kreislauferkrankungen und Tumoren zu den Häufigsten Erkrankungen des Menschen. Ein besseres Verständnis der Bildung und des Erhalts von Knochen- oder Knorpelgewebe ist deshalb von besonderer Bedeutung. Viele bisherige Ansätze zur Identifizierung hierfür relevanter Gene, deren Produkte und Interaktionen beruhen auf der Untersuchung pathologischer Situationen. Daher ist die Funktion vieler Gene nur im Zusammenhang mit Krankheiten beschrieben. Untersuchungen, die die Genaktivität bei der Normalentwicklung von knochen- und knorpelbildenden Geweben zum Ziel haben, sind dagegen weit weniger oft durchgeführt worden. rnEines der entwicklungsphysiologisch interessantesten Gewebe ist die Epiphysenfuge der Röhrenknochen. In dieser sogenannten Wachstumsfuge ist insbesondere beim fötalen Gewebe eine sehr hohe Aktivität derjenigen Gene zu erwarten, die an der Knochen- und Knorpelbildung beteiligt sind. In der vorliegenden Arbeit wurde daher aus der Epiphysenfuge von Kälberknochen RNA isoliert und eine cDNA-Bibliothek konstruiert. Von dieser wurden ca. 4000 Klone im Rahmen eines klassischen EST-Projekts sequenziert. Durch die Analyse konnte ein ungefähr 900 Gene umfassendes Expressionsprofil erstellt werden und viele Transkripte für Komponenten der regulatorischen und strukturbildenden Bestandteile der Knochen- und Knorpelentwicklung identifiziert werden. Neben den typischen Genen für Komponenten der Knochenentwicklung sind auch deutlich Bestandteile für embryonale Entwicklungsprozesse vertreten. Zu ersten gehören in erster Linie die Kollagene, allen voran Kollagen II alpha 1, das mit Abstand höchst exprimierte Gen in der fötalen Wachstumsfuge. Nach den ribosomalen Proteinen stellen die Kollagene mit ca. 10 % aller auswertbaren Sequenzen die zweitgrößte Gengruppe im erstellten Expressionsprofil dar. Proteoglykane und andere niedrig exprimierte regulatorische Elemente, wie Transkriptionsfaktoren, konnten im EST-Projekt aufgrund der geringen Abdeckung nur in sehr geringer Kopienzahl gefunden werden. Allerdings förderte die EST-Analyse mehrere interessante, bisher nicht bekannte Transkripte zutage, die detaillierter untersucht wurden. Dazu gehören Transkripte die, die dem LOC618319 zugeordnet werden konnten. Neben den bisher beschriebenen drei Exonbereichen konnte ein weiteres Exon im 3‘-UTR identifiziert werden. Im abgeleiteten Protein, das mindestens 121 AS lang ist, wurden ein Signalpeptid und eine Transmembrandomäne nachgewiesen. In Verbindung mit einer möglichen Glykosylierung ist das Genprodukt in die Gruppe der Proteoglykane einzuordnen. Leicht abweichend von den typischen Strukturen knochen- und knorpelspezifischer Proteoglykane ist eine mögliche Funktion dieses Genprodukts bei der Interaktion mit Integrinen und der Zell-Zellinteraktion, aber auch bei der Signaltransduktion denkbar. rnDie EST-Sequenzierungen von ca. 4000 cDNA-Klonen können aber in der Regel nur einen Bruchteil der möglichen Transkripte des untersuchten Gewebes abdecken. Mit den neuen Sequenziertechnologien des „Next Generation Sequencing“ bestehen völlig neue Möglichkeiten, komplette Transkriptome mit sehr hoher Abdeckung zu sequenzieren und zu analysieren. Zur Unterstützung der EST-Daten und zur deutlichen Verbreiterung der Datenbasis wurde das Transkriptom der bovinen fötalen Wachstumsfuge sowohl mit Hilfe der Roche-454/FLX- als auch der Illumina-Solexa-Technologie sequenziert. Bei der Auswertung der ca. 40000 454- und 75 Millionen Illumina-Sequenzen wurden Verfahren zur allgemeinen Handhabung, der Qualitätskontrolle, dem „Clustern“, der Annotation und quantitativen Auswertung von großen Mengen an Sequenzdaten etabliert. Beim Vergleich der Hochdurchsatz Blast-Analysen im klassischen „Read-Count“-Ansatz mit dem erstellten EST-Expressionsprofil konnten gute Überstimmungen gezeigt werden. Abweichungen zwischen den einzelnen Methoden konnten nicht in allen Fällen methodisch erklärt werden. In einigen Fällen sind Korrelationen zwischen Transkriptlänge und „Read“-Verteilung zu erkennen. Obwohl schon simple Methoden wie die Normierung auf RPKM („reads per kilo base transkript per million mappable reads“) eine Verbesserung der Interpretation ermöglichen, konnten messtechnisch durch die Art der Sequenzierung bedingte systematische Fehler nicht immer ausgeräumt werden. Besonders wichtig ist daher die geeignete Normalisierung der Daten beim Vergleich verschieden generierter Datensätze. rnDie hier diskutierten Ergebnisse aus den verschiedenen Analysen zeigen die neuen Sequenziertechnologien als gute Ergänzung und potentiellen Ersatz für etablierte Methoden zur Genexpressionsanalyse.rn
Resumo:
Am Mainzer Mikrotron MAMI wurde ein neuartiges Interferometer entwickelt und getestet, mit dem magneto-optische Effekte an dünnen, freitragenden Folien von 3d-Übergangsmetallen wie Eisen, Kobalt oder Nickel an den L_{2,3}-Absorptionskanten (im Spektralbereich der weichen Röntgenstrahlung) gemessen werden können. Es handelt sich um eine Weiterentwicklung eines an MAMI erprobten Interferometers, das im wesentlichen aus einer kollinearen Anordnung zweier identischer Undulatoren, zwischen die die dünne Probefolie eingebracht wird, und einem Gitterspektrometer besteht. Aus den als Funktion des Abstands der Undulatoren beobachtbaren Intensitätsoszillation lassen sich das Dekrement des Realteils δ und der Absorptionskoeffizient β des komplexen Brechungsindex bestimmen.rnIm Rahmen der vorliegenden Arbeit wurde die Apparatur derart weiterentwickelt, dass auch die magnetisch zirkulare Doppelbrechung Δδ und der magnetisch zirkulare Dichroismus Δβ an den L_{2,3}-Absorptionskanten von Übergangsmetallen gemessen werden können. Der zweite Undulator wurde um die Elektronenstrahlachse um den Winkel Ψ = ±107° drehbar gemacht. Damit dient er auch als Analysator der aus der Folie austretenden elliptisch polarisierten weichen Röntgenstrahlung, für die - wie bei der Faraday-Rotation - die Polarisationsebene gedreht ist. Weiterhin kann die Spaltbreite der 10-poligen Hybrid-Undulatoren mit einer Periodenlänge von 12 mm und damit der Undulatorparameter über eine Antriebsmechanik kontinuierlich variiert werden, wodurch eine optimale Anpassung der Amplituden der Undulatorstrahlung aus den beiden Undulatoren möglich wird. Der maximale Undulatorparameter beträgt K = 1.1. Auch das Spektrometer, das auf einem selbstfokussierenden Gitter mit variierter Liniendichte (im Mittel 1400 Linien / mm) basiert, wurde weiterentwickelt. Als Detektor kommt jetzt eine fensterlose CCD mit 1024 x 1024 Pixeln und einer Pixelgröße von 13 μm x 13 μm zum Einsatz, die im Bildmodus betrieben wird, was die gleichzeitige Messung eines Energieintervalls von ca. 50 eV ermöglicht. Die totale Linienbreite wurde bei einer vertikalen Strahlfleckausdehnung von σ_y = 70 μm (rms) am Neon 1s-3p Übergang bei (867.18 ±0.02) eV zu Δħω = (0.218 ±0.002) eV (FWHM) gemessen. Das hohe Auflösungsvermögen von 4000 und die Möglichkeit der Eichung gegen den 1s-3p Übergang von Neon wurden ausgenutzt, um die Energie der Maxima an den Absorptionskanten von Nickel (weiße Linien) neu zu bestimmen. Die Ergebnisse E_{L_2}=(869.65_{-0.16}^{+0.27}) eV und E_{L_3}=(852.37_{-0.11}^{+0.16}) eV stellen eine Verbesserung früherer Messungen dar, die große Streuungen aufwiesen.rnAus systematischen Messungen als Funktion des Abstandes der Undulatoren und des Drehwinkels Ψ wurden die magnetisch zirkulare Doppelbrechung Δδ im Energiebereich 834 eV ≤ ħω ≤ 885 eV an einer freitragenden, bis zur Sättigung magnetisierten Nickelfolie der Dicke von (96.4 ±2.7) nm gemessen. Sowohl das Auflösungsvermögen als auch die Genauigkeit der Messungen für Δδ übersteigen bekannte Literaturangaben signifikant, so dass eine bisher nicht bekannte Feinstruktur gefunden werden konnte. Außerdem wurde der Betrag des magnetisch zirkularen Dichroismus |Δβ| im Bereich des Maximums an der L_3-Absorptionskante mit hoher Genauigkeit gemessen.rn