945 resultados para short-time dynamics
Resumo:
The quality of astronomical sites is the first step to be considered to have the best performances from the telescopes. In particular, the efficiency of large telescopes in UV, IR, radio etc. is critically dependent on atmospheric transparency. It is well known that the random optical effects induced on the light propagation by turbulent atmosphere also limit telescope’s performances. Nowadays, clear appears the importance to correlate the main atmospheric physical parameters with the optical quality reachable by large aperture telescopes. The sky quality evaluation improved with the introduction of new techniques, new instrumentations and with the understanding of the link between the meteorological (or synoptical parameters and the observational conditions thanks to the application of the theories of electromagnetic waves propagation in turbulent medias: what we actually call astroclimatology. At the present the site campaigns are evolved and are performed using the classical scheme of optical seeing properties, meteorological parameters, sky transparency, sky darkness and cloudiness. New concept are added and are related to the geophysical properties such as seismicity, microseismicity, local variability of the climate, atmospheric conditions related to the ground optical turbulence and ground wind regimes, aerosol presence, use of satellite data. The purpose of this project is to provide reliable methods to analyze the atmospheric properties that affect ground-based optical astronomical observations and to correlate them with the main atmospheric parameters generating turbulence and affecting the photometric accuracy. The first part of the research concerns the analysis and interpretation of longand short-time scale meteorological data at two of the most important astronomical sites located in very different environments: the Paranal Observatory in the Atacama Desert (Chile), and the Observatorio del Roque de Los Muchachos(ORM) located in La Palma (Canary Islands, Spain). The optical properties of airborne dust at ORM have been investigated collecting outdoor data using a ground-based dust monitor. Because of its dryness, Paranal is a suitable observatory for near-IR observations, thus the extinction properties in the spectral range 1.00-2.30 um have been investigated using an empirical method. Furthermore, this PhD research has been developed using several turbulence profilers in the selection of the site for the European Extremely Large Telescope(E-ELT). During the campaigns the properties of the turbulence at different heights at Paranal and in the sites located in northern Chile and Argentina have been studied. This given the possibility to characterize the surface layer turbulence at Paranal and its connection with local meteorological conditions.
Resumo:
Il presente lavoro di tesi riguarda la sintesi di nanopolveri allumina-zirconia, seguendo tre differenti metodologie (sintesi per coprecipitazione, sintesi con il metodo dei citrati, sintesi idrotermale assistita da microonde) e il trattamento termico (calcinazione) delle polveri ottenute, mediante tecniche di riscaldamento convenzionali ed alternative (microonde). Lo scopo del lavoro è consistito nell’individuare, tra le tecniche esaminate, quella più idonea e conveniente, per la preparazione di nanopolveri cristalline 95 mol% Al2O3 – 5 mol% ZrO2 e nell’esaminare gli effetti che la calcinazione condotta con le microonde, ha sulle caratteristiche finali delle polveri, rispetto ai trattamenti termici convenzionali. I risultati ottenuti al termine del lavoro hanno evidenziato che, tra le tecniche di sintesi esaminate, la sintesi idrotermale assistita da microonde, risulta il metodo più indicato e che, il trattamento termico eseguito con le microonde, risulta di gran lunga vantaggioso rispetto a quello convenzionale. La sintesi idrotermale assistita da microonde consente di ottenere polveri nano cristalline poco agglomerate, che possono essere facilmente disaggregate e con caratteristiche microstrutturali del tutto peculiari. L’utilizzo di tale tecnica permette, già dopo la sintesi a 200°C/2ore, di avere ossido di zirconio, mentre per ottenere gli ossidi di alluminio, è sufficiente un ulteriore trattamento termico a basse temperature e di breve durata (400°C/ 5 min). Si è osservato, inoltre, che il trattamento termico condotto con le microonde comporta la formazione delle fasi cristalline desiderate (ossidi di alluminio e zirconio), impiegando (come per la sintesi) tempi e temperature significativamente ridotti. L’esposizione delle polveri per tempi ridotti e a temperature più basse consente di evitare la formazione di aggregati duri nelle nanopolveri finali e di contrastare il manifestarsi di fenomeni di accrescimento di grani, preservando così la “nanostruttura” delle polveri e le sue caratteristiche proprietà.
Resumo:
Ground-based Earth troposphere calibration systems play an important role in planetary exploration, especially to carry out radio science experiments aimed at the estimation of planetary gravity fields. In these experiments, the main observable is the spacecraft (S/C) range rate, measured from the Doppler shift of an electromagnetic wave transmitted from ground, received by the spacecraft and coherently retransmitted back to ground. If the solar corona and interplanetary plasma noise is already removed from Doppler data, the Earth troposphere remains one of the main error sources in tracking observables. Current Earth media calibration systems at NASA’s Deep Space Network (DSN) stations are based upon a combination of weather data and multidirectional, dual frequency GPS measurements acquired at each station complex. In order to support Cassini’s cruise radio science experiments, a new generation of media calibration systems were developed, driven by the need to achieve the goal of an end-to-end Allan deviation of the radio link in the order of 3×〖10〗^(-15) at 1000 s integration time. The future ESA’s Bepi Colombo mission to Mercury carries scientific instrumentation for radio science experiments (a Ka-band transponder and a three-axis accelerometer) which, in combination with the S/C telecommunication system (a X/X/Ka transponder) will provide the most advanced tracking system ever flown on an interplanetary probe. Current error budget for MORE (Mercury Orbiter Radioscience Experiment) allows the residual uncalibrated troposphere to contribute with a value of 8×〖10〗^(-15) to the two-way Allan deviation at 1000 s integration time. The current standard ESA/ESTRACK calibration system is based on a combination of surface meteorological measurements and mathematical algorithms, capable to reconstruct the Earth troposphere path delay, leaving an uncalibrated component of about 1-2% of the total delay. In order to satisfy the stringent MORE requirements, the short time-scale variations of the Earth troposphere water vapor content must be calibrated at ESA deep space antennas (DSA) with more precise and stable instruments (microwave radiometers). In parallel to this high performance instruments, ESA ground stations should be upgraded to media calibration systems at least capable to calibrate both troposphere path delay components (dry and wet) at sub-centimetre level, in order to reduce S/C navigation uncertainties. The natural choice is to provide a continuous troposphere calibration by processing GNSS data acquired at each complex by dual frequency receivers already installed for station location purposes. The work presented here outlines the troposphere calibration technique to support both Deep Space probe navigation and radio science experiments. After an introduction to deep space tracking techniques, observables and error sources, in Chapter 2 the troposphere path delay is widely investigated, reporting the estimation techniques and the state of the art of the ESA and NASA troposphere calibrations. Chapter 3 deals with an analysis of the status and the performances of the NASA Advanced Media Calibration (AMC) system referred to the Cassini data analysis. Chapter 4 describes the current release of a developed GNSS software (S/W) to estimate the troposphere calibration to be used for ESA S/C navigation purposes. During the development phase of the S/W a test campaign has been undertaken in order to evaluate the S/W performances. A description of the campaign and the main results are reported in Chapter 5. Chapter 6 presents a preliminary analysis of microwave radiometers to be used to support radio science experiments. The analysis has been carried out considering radiometric measurements of the ESA/ESTEC instruments installed in Cabauw (NL) and compared with the requirements of MORE. Finally, Chapter 7 summarizes the results obtained and defines some key technical aspects to be evaluated and taken into account for the development phase of future instrumentation.
Resumo:
Con il trascorrere del tempo, le reti di stazioni permanenti GNSS (Global Navigation Satellite System) divengono sempre più un valido supporto alle tecniche di rilevamento satellitare. Esse sono al tempo stesso un’efficace materializzazione del sistema di riferimento e un utile ausilio ad applicazioni di rilevamento topografico e di monitoraggio per il controllo di deformazioni. Alle ormai classiche applicazioni statiche in post-processamento, si affiancano le misure in tempo reale sempre più utilizzate e richieste dall’utenza professionale. In tutti i casi risulta molto importante la determinazione di coordinate precise per le stazioni permanenti, al punto che si è deciso di effettuarla tramite differenti ambienti di calcolo. Sono stati confrontati il Bernese, il Gamit (che condividono l’approccio differenziato) e il Gipsy (che utilizza l’approccio indifferenziato). L’uso di tre software ha reso indispensabile l’individuazione di una strategia di calcolo comune in grado di garantire che, i dati ancillari e i parametri fisici adottati, non costituiscano fonte di diversificazione tra le soluzioni ottenute. L’analisi di reti di dimensioni nazionali oppure di reti locali per lunghi intervalli di tempo, comporta il processamento di migliaia se non decine di migliaia di file; a ciò si aggiunge che, talora a causa di banali errori, oppure al fine di elaborare test scientifici, spesso risulta necessario reiterare le elaborazioni. Molte risorse sono quindi state investite nella messa a punto di procedure automatiche finalizzate, da un lato alla preparazione degli archivi e dall’altro all’analisi dei risultati e al loro confronto qualora si sia in possesso di più soluzioni. Dette procedure sono state sviluppate elaborando i dataset più significativi messi a disposizione del DISTART (Dipartimento di Ingegneria delle Strutture, dei Trasporti, delle Acque, del Rilevamento del Territorio - Università di Bologna). E’ stato così possibile, al tempo stesso, calcolare la posizione delle stazioni permanenti di alcune importanti reti locali e nazionali e confrontare taluni fra i più importanti codici scientifici che assolvono a tale funzione. Per quanto attiene il confronto fra i diversi software si è verificato che: • le soluzioni ottenute dal Bernese e da Gamit (i due software differenziati) sono sempre in perfetto accordo; • le soluzioni Gipsy (che utilizza il metodo indifferenziato) risultano, quasi sempre, leggermente più disperse rispetto a quelle degli altri software e mostrano talvolta delle apprezzabili differenze numeriche rispetto alle altre soluzioni, soprattutto per quanto attiene la coordinata Est; le differenze sono però contenute in pochi millimetri e le rette che descrivono i trend sono comunque praticamente parallele a quelle degli altri due codici; • il citato bias in Est tra Gipsy e le soluzioni differenziate, è più evidente in presenza di determinate combinazioni Antenna/Radome e sembra essere legato all’uso delle calibrazioni assolute da parte dei diversi software. E’ necessario altresì considerare che Gipsy è sensibilmente più veloce dei codici differenziati e soprattutto che, con la procedura indifferenziata, il file di ciascuna stazione di ciascun giorno, viene elaborato indipendentemente dagli altri, con evidente maggior elasticità di gestione: se si individua un errore strumentale su di una singola stazione o se si decide di aggiungere o togliere una stazione dalla rete, non risulta necessario il ricalcolo dell’intera rete. Insieme alle altre reti è stato possibile analizzare la Rete Dinamica Nazionale (RDN), non solo i 28 giorni che hanno dato luogo alla sua prima definizione, bensì anche ulteriori quattro intervalli temporali di 28 giorni, intercalati di sei mesi e che coprono quindi un intervallo temporale complessivo pari a due anni. Si è così potuto verificare che la RDN può essere utilizzata per l’inserimento in ITRF05 (International Terrestrial Reference Frame) di una qualsiasi rete regionale italiana nonostante l’intervallo temporale ancora limitato. Da un lato sono state stimate le velocità ITRF (puramente indicative e non ufficiali) delle stazioni RDN e, dall’altro, è stata effettuata una prova di inquadramento di una rete regionale in ITRF, tramite RDN, e si è verificato che non si hanno differenze apprezzabili rispetto all’inquadramento in ITRF, tramite un congruo numero di stazioni IGS/EUREF (International GNSS Service / European REference Frame, SubCommission for Europe dello International Association of Geodesy).
Resumo:
Osmotic Dehydration and Vacuum Impregnation are interesting operations in the food industry with applications in minimal fruit processing and/or freezing, allowing to develop new products with specific innovative characteristics. Osmotic dehydration is widely used for the partial removal of water from cellular tissue by immersion in hypertonic (osmotic) solution. The driving force for the diffusion of water from the tissue is provided by the differences in water chemical potential between the external solution and the internal liquid phase of the cells. Vacuum Impregnation of porous products immersed in a liquid phase consist of reduction of pressure in a solid-liquid system (vacuum step) followed by the restoration of atmospheric pressure (atmospheric step). During the vacuum step the internal gas in the product pores is expanded and partially flows out while during the atmospheric step, there is a compression of residual gas and the external liquid flows into the pores (Fito, 1994). This process is also a very useful unit operation in food engineering as it allows to introduce specific solutes in the tissue which can play different functions (antioxidants, pH regulators, preservatives, cryoprotectants etc.). The present study attempts to enhance our understanding and knowledge of fruit as living organism, interacting dynamically with the environment, and to explore metabolic, structural, physico-chemical changes during fruit processing. The use of innovative approaches and/or technologies such as SAFES (Systematic Approach to Food Engineering System), LF-NMR (Low Frequency Nuclear Magnetic Resonance), GASMAS (Gas in Scattering Media Absorption Spectroscopy) are very promising to deeply study these phenomena. SAFES methodology was applied in order to study irreversibility of the structural changes of kiwifruit during short time of osmotic treatment. The results showed that the deformed tissue can recover its initial state 300 min after osmotic dehydration at 25 °C. The LF-NMR resulted very useful in water status and compartmentalization study, permitting to separate observation of three different water population presented in vacuole, cytoplasm plus extracellular space and cell wall. GASMAS techniques was able to study the pressure equilibration after Vacuum Impregnation showing that after restoration of atmospheric pressure in the solid-liquid system, there was a reminding internal low pressure in the apple tissue that slowly increases until reaching the atmospheric pressure, in a time scale that depends on the vacuum applied during the vacuum step. The physiological response of apple tissue on Vacuum Impregnation process was studied indicating the possibility of vesicular transport within the cells. Finally, the possibility to extend the freezing tolerance of strawberry fruits impregnated with cryoprotectants was proven.
Resumo:
Italy and France in Trianon’s Hungary: two political and cultural penetration models During the first post-war, the Danubian Europe was the theatre of an Italian-French diplomatic challenge to gain hegemony in that part of the continent. Because of his geographical position, Hungary had a decisive strategic importance for the ambitions of French and Italian foreign politics. Since in the 1920s culture and propaganda became the fourth dimension of international relations, Rome and Paris developed their diplomatic action in Hungary to affirm not only political and economic influence, but also cultural supremacy. In the 1930, after Hitler’s rise to power, the unstoppable comeback of German political influence in central-eastern Europe determined the progressive decline of Italian and French political and economic positions in Hungary: only the cultural field allowed a survey of Italian-Hungarian and French-Hungarian relations in the contest of a Europe dominated by Nazi Germany during the Second World War. Nevertheless, the radical geopolitical changes in second post-war Europe did not compromise Italian and French cultural presence in the new communist Hungary. Although cultural diplomacy is originally motivated by contingent political targets, it doesn’t respect the short time of politics, but it’s the only foreign politics tool that guarantees preservations of bilateral relations in the long run.
Resumo:
Intorno alla metà degli anni trenta la Spagna diventò il centro dell’attenzione del mondo e tutte le grandi potenze internazionali, vecchie e nuove, vennero coinvolte, in misura diversa, nella guerra civile. Già nell’agosto del 1936, un mese dopo l’esplosione del conflitto, tutti gli Stati più rappresentativi caldeggiavano l’ipotesi di una politica comune di “non intervento”. Il ruolo guida in tal senso venne assunto dal governo inglese, capace di dissuadere, in tempi estremamente rapidi, il governo frontista francese di Leon Blum dall’intento di sostenere economicamente e militarmente il legittimo governo repubblicano spagnolo. La preoccupazione che il conflitto potesse degenerare in uno scontro più generale fu quindi la ragione principale per la quale qualche settimana dopo nacque il “Comitato di Non Intervento”, cui aderirono ben ventisette nazioni europee tra cui Francia, Inghilterra, URSS, Italia, Germania e Portogallo. Il mio progetto di ricerca dottorale esamina il ruolo, le scelte ed i relativi dibattiti in merito all’unica grande potenza, gli Stati Uniti d’America, che, pur scegliendo di rimanere neutrale, si astenne dal partecipare al suddetto Comitato. In ambito statunitense particolare rilievo assumono due aspetti del dibattito politico sulla Spagna: il primo maturato in seno all’Amministrazione Roosevelt, il secondo elaborato dalla componente Liberal della coalizione del New Deal attraverso i settimanali, “The Nation” e “The New Republic”. Il confronto pubblico acceso dalla guerra civile spagnola fu infatti l’occasione per la società civile americana per dibattere apertamente e francamente circa l’opportunità e la capacità della nazione di assumere o meno un ruolo internazionale corrispondente al prestigio socio-economico in via di acquisizione a livello mondiale. Approfondire ed esaminare il dibattito sulla guerra civile spagnola negli USA significa dunque andare alla ricerca delle radici culturali di quello che sarà uno dei più vasti ed articolati confronti politici e teorici del ventesimo secolo: l’internazionalismo americano.
Resumo:
In den letzten Jahrzehnten wurde eine deutliche, anhaltende Veränderung des globalen Klimas beobachtet, die in Zukunft zu einer Erhöhung der durchschnittlichen Oberflächentemperatur, erhöhten Niederschlagsmengen und anderen gravierenden Umweltveränderungen führen wird (IPCC 2001). Der Klimawandel wird in Flüssen sowohl mehr Extremereignisse verursachen als auch das Abflussregime bisher schmelzwasserdominierter Flüsse zu grundwassergespeisten hin ändern; dies gilt insbesondere für den Rhein (MIDDELKOOP et al. 2001). Um die möglichen Auswirkungen dieser Veränderungen auf die genetische Populationsstruktur von Makrozoobenthosorganismen vorhersagen zu können, wurden in den grundwassergespeisten Flüssen Main und Mosel sowie im Rhein Entnahmestellen oberhalb und unterhalb von Staustufen beprobt, die durch kontrastierende Strömungsverhältnisse als Modell für die zu erwartenden Änderungen dienten. Als Untersuchungsobjekt wurden Dreissena polymorpha PALLAS 1771 sowie Dikerogammarus villosus SOWINSKI 1894 herangezogen. Sie zeichnen sich durch hohe Abundanzen aus, sind aber unterschiedlich u.a. hinsichtlich ihrer Besiedlungsstrategie und –historie. Bei beiden Spezies sind die phylogeographischen Hintergründe bekannt; daher wurde auch versucht, die Einwanderungsrouten in der Populationsstruktur nachzuweisen (phylogeographisches Szenario). Dies konkurrierte mit der möglichen Anpassung der Spezies an das Abflussregime des jeweiligen Flusses (Adaptations-Szenario). Die Populationen wurden molekulargenetisch mit Hilfe der AFLP-Methode („Amplified-Fragment Length Polymorphism“) untersucht. Die Ergebnisse zeigen, dass D. polymorpha deutlich durch die Abflussregimes der Flüsse (Schmelz- oder Grundwasserdominanz) beeinflusst wird. Die Allelfrequenzen in Populationen des Rheins sind von denen der beiden grundwassergespeisten Flüsse Main und Mosel deutlich unterscheidbar (Adaptations-Szenario). Jedoch ist kein Unterschied der genetischen Diversitäten zu beobachten; das ist auf die lange Adaptation an ihre jeweiligen Habitate durch die lange Besiedlungsdauer zurückzuführen. Dies ist auch der Grund, warum die Einwanderungsrouten anhand der Populationsstruktur nicht mehr nachzuweisen waren. Die kontrastierenden Strömungsverhältnisse um die Staustufen hatten ebenfalls keine konsistenten Auswirkungen auf die genetische Diversität der Populationen. Diese Ergebnisse zeigen eine hohe phänotypische Plastizität der Spezies und dadurch eine große Anpassungsfähigkeit an wechselnde Umweltbedingungen, die unter anderem für den großen Erfolg dieser Spezies verantwortlich ist. D. villosus wanderte erst vor Kurzem in das Untersuchungsgebiet ein; die Einwanderungsroute war anhand der genetischen Diversität nachvollziehbar (phylogeographisches Szenario); durch die kurze Besiedlungsdauer war eine Adaptation an die divergenten Abflussregime der Flüsse nicht zu erwarten und wurde auch nicht gefunden. Dagegen war ein deutlicher negativer Einfluss von starker Strömung auf die genetische Diversität nachweisbar. Die Ergebnisse weisen darauf hin, dass die zukünftigen Auswirkungen des Klimawandels auf die Strömungsgeschwindigkeit negative Konsequenzen auf die genetische Diversität von D. villosus haben werden, während D. polymorpha hier keine Auswirkungen erkennen lässt. Die Auswirkungen des veränderten Abflussregimes im Rhein sind für D. villosus mit den vorliegenden Daten aufgrund der kurzen Besiedlungsdauer nicht vorhersagbar; D. polymorpha wird durch die Veränderung des Rheins zu einem grundwassergespeisten Fluss zwar einen Wandel in der genetischen Struktur erfahren, aber auch hier keine Einbußen in der genetischen Diversität erleiden.
Resumo:
La ricerca pone al suo centro lo studio dell'opera architettonica di Emil Steffann (1899-1968) la cui produzione realizzata consta, nel breve arco temporale che va dal 1950 al 1968, del ragguardevole numero di trentanove chiese, rappresentando un caso emblematico di progettazione e costruzione di edifici per il culto cristiano in grado di raffigurarne concretamente i principi fondativi liturgici, estetici e morfologici. L'architettura di Steffann, profondamente ispirata dallo spirito religioso, legata a figure primigenie che plasmano lo stare-insieme della comunità nella qualità corporea della materia, dove la presenza liturgica e monumentale si esprime nel silenzio e nella disponibilità di uno spazio circoscritto dai muri e direzionato dalla luce, concorre a definire nell'oggettivo amore per il vero la percezione estetico-teologica e la poetica formativa che connaturano, a nostro parere, progetto e segno della chiesa. Il testo concretizza il primo studio monografico completo di questo corpus architettonico e si basa sulla ricognizione diretta delle opere di Steffann; ne è derivata una narrazione non conseguente a un ordine cronologico o di presupposta importanza degli edifici, bensì che ricerca ed evidenzia corrispondenze tra nodi di una rete ideativa la quale, con diversi gradi di finitezza, in punti non sempre omogenei del tempo e dello spazio, denota un'esperienza autentica del comporre e del costruire. Il racconto individua gli oggetti architettonici, ne discute la consistenza aprendosi a riferimenti altri (in particolare il pensiero ecclesiologico-liturgico di Romano Guardini e quello estetico-teologico di Hans Urs von Balthasar) in grado di illuminarne la genesi e la manifestazione, li lega infine in sequenze analogiche. Una serie di tavole fotografiche originali, parte ineludibile e integrante della ricerca, testimonia dello stato attuale dei luoghi, connotando ulteriormente l'aspetto info-rappresentativo della loro composizione architettonica. In chiusura, la sintesi architetturale vuole essere uno strumento di verifica e progetto, quindi di trasposizione futura, correlato all'elaborazione documentaria.
Resumo:
The main concern of the A4 parity violation experiment at the Mainzer Microtron accelerator facility is to study the electric and magnetic contributions of strange quarks to the charge and magnetism of the nucleons at the low momentum transfer region. More precisely, the A4 collaboration investigates the strange quarks' contribution to the electric and magnetic vector form factors of the nucleons. Thus, it is important that the A4 experiment uses an adequate and precise non-destructive online monitoring tool for the electron beam polarization when measuring single spin asymmetries in elastic scattering of polarized electrons from unpolarized nucleons. As a consequence, the A4 Compton backscattering polarimeter was designed and installed such that we can take the absolute measurement of the electron beam polarization without interruption to the parity violation experiment. The present study shows the development of an electron beam line that is called the chicane for the A4 Compton backscattering polarimeter. The chicane is an electron beam transport line and provides an interaction region where the electron beam and the laser beam overlap. After studying the properties of beam line components carefully, we developed an electron beam control system that makes a beam overlap between the electron beam and the laser beam. Using the system, we can easily achieve the beam overlap in a short time. The electron control system, of which the performance is outstanding, is being used in production beam times. And the study presents the development of a scintillating fiber electron detector that reduces the statistical error in the electron polarization measurement. We totally redesigned the scintillating fiber detector. The data that were taken during a 2008 beam time shows a huge background suppression, approximately 80 percent, while leaving the Compton spectra almost unchanged when a coincidence between the fiber detector and the photon detector is used. Thus, the statistical error of the polarization measurement is reduced by about 40 percent in the preliminary result. They are the significant progress in measuring a degree of polarization of the electron beam.
Resumo:
Biodegradable polymers for short time applications have attracted much interest all over the world. The reason behind this growing interest is the incompatibility of the polymeric wastes with the environment where they are disposed after usage. Synthetic aliphatic polyesters represent one of the most economically competitive biodegradable polymers. In addition, they gained considerable attention as they combine biodegradability and biocompatibility with interesting physical and chemical properties. In this framework, the present research work focused on the modification by reactive blending and polycondensation of two different aliphatic polyesters, namely poly(butylene succinate) (PBS) and poly(butylene 1,4-cyclohexanedicarboxylate) (PBCE). Both are characterized by good thermal properties, but their mechanical characteristics do not fit the requirements for applications in which high flexibility is requested and, moreover, both show slow biodegradation rate. With the aim of developing new materials with improved characteristics with respect to the parent homopolymers, novel etheroatom containing PBS and PBCE-based fully aliphatic polyesters and copolyesters have been therefore synthesized and carefully characterized. The introduction of oxygen or sulphur atoms along the polymer chains, by acting on chemical composition or molecular architecture, tailored solid-state properties and biodegradation rate: type and amount of comonomeric units and sequence distribution deeply affected the material final properties owing, among all, to the hydrophobic/hydrophilic ratio and to the different ability of the polymer to crystallize. The versatility of the synthesized copolymers has been well proved: as a matter of fact these polymers can be exploited both for biomedical and ecological applications. Feasibility of 3D electrospun scaffolds has been investigated, biocompatibility studies and controlled release of a model molecule showed good responses. As regards ecological applications, barrier properties and eco-toxicological assessments have been conducted with outstanding results. Finally, the ability of the novel polyesters to undergo both hydrolytic and enzymatic degradation has been demonstrated under physiological and environmental conditions.
Resumo:
Der Ökotourismus hat sich in den letzten Jahren zu einer Tourismussparte entwickelt, die nicht nur immer mehr Interessenten unter den Nutzern findet, sondern auch vielfältige Forschungsmöglichkeiten eröffnet.rnAus interdisziplinärer Betrachtungsweise kann man sowohl in den Gebieten der Biologie, der Wirtschaft, der Geographie, aber auch der Politik forschend tätig werden. rnDa der Tourismus in den letzten Jahren eine immer größere Bedeutung gerade für Länder mit weitestgehend intakten Naturressourcen erlangt hat, stellt sich die Frage inwieweit die Wirtschaft eines Landes auf diese Einnahmequelle angewiesen ist und ob nicht die ökologischen Belange immer weiter in den Hintergrund treten.rnAus diesem Ansatz heraus erfolgte zunächst eine qualitative und quantitative Bestandsaufnahme, die ein klares Bild vom derzeitigen Zustand in der Region ermöglicht. Darüber hinaus werden im Rahmen der Untersuchungen Zukunftsperspektiven aufgezeigt. Diese sollen verdeutlichen, inwieweit man steuernd in solche dynamischen Entwicklungsprozesse eingreifen kann oder soll.rnDie Schwerpunkte dieser Arbeit liegen in dem Bereich der Befragung von Touristen und in der Ausarbeitung eines digitalen Geländemodells zur späteren Nutzung in einem aufzubauenden Nationalpark-Infozentrum. Auf der Grundlage dieser Untersuchungen wurde ein touristisches Nutzungskonzept entwickelt und auf seine ökologischen Umsetzungschancen hin untersucht. Der Aspekt des Ökotourismus wird einleitend erörtert und definiert. Anschließend werden die Potenziale der norwegischen Tourismuswirtschaft untersucht. Die Befragungsergebnisse sowohl der norwegischen Besucher als auch der ausländischen Touristen werden in verschiedenen Korrelationen näher untersucht.rnEin gesonderter Bereich der Untersuchungen gilt dem Problemfeld des Wildcampings in Norwegen. Die dramatischen Entwicklungen der letzten Jahre rufen immer mehr Aktivisten auf den Plan. Da die Deutschen die größte Besuchergruppe darstellen, wurden innerhalb der Jahre 2003 bis 2006 Einzelinterviews geführt, um einen Überblick über das Übernachtungsverhalten der Deutschen in Norwegen gewinnen zu können. In den vergangenen 10 Jahren sind die deutschen Besucherzahlen in Norwegen leicht rückläufig, während die der Niederländer kontinuierlich steigen.rnAuf diesen Ergebnissen basierend wurden problemzentrierte Interviews mit Wohnmobilreisenden, der größten Gruppe der Individualreisenden, durchgeführt. rnMehr als 600.000 Nächte pro Jahr verbrachten die deutschen Wohnmobilreisenden außerhalb der Campingplätze, was ökologische und ökonomische Auswirkungen hat und nicht mehr mit dem in Norwegen geltenden „Allemansrett“, dem Jedermannsrecht, vereinbar ist. rnGerade die Touristen, die mit dem Wohnmobil reisen, können nur schwer mit anderen Reisenden verglichen werden, da sie mit einer völlig anderen Reiseauffassung mehr oder weniger autark unterwegs sind. Dabei legen sie besonders große Distanzen zurück und haben sich zum Ziel gesetzt, möglichst viel in kurzer Zeit zu sehen und zu erleben. Für alle Touristengruppen wurde untersucht, auf welchem Weg die Informationen für die geplante Reise beschafft wurden. Der Reiseführer ist der hauptsächliche Informationslieferant und ist teilweise für das Verhalten der Urlauber mitverantwortlich. Es konnte festgestellt werden, dass das Image des Landes und die Reisemotive das Reiseverhalten und die Wahrnehmung determinieren. Eine Untersuchung der so genannten Pull- und Push-Faktoren ergab, dass die nahezu noch unberührte Natur, die raue Landschaft sowie Ruhe und Erholung die entscheidenden Pull-Faktoren für Norwegenreisende sind. Dabei überprägt das Image Norwegens als „wildes Naturland“ die Wahrnehmung für verschiedene Problembereiche, die in Norwegen, wie auch in vielen anderen Ländern Europas, durchaus vorhanden sind. rnProblemfelder, wie Landschaftsausbeutung, Wildcamping, reduziertes Konsumverhalten und damit einhergehende rückläufige Besucherzahlen, können aber durch innovative Tourismuskonzepte und neue Reiseformen abgebaut werden. Hierbei sind Medien, wie Reiseführer, Internet und Reisemagazine, in die Pflicht zu nehmen.
Resumo:
Come risposta positiva alle richieste provenienti dal mondo dei giuristi, spesso troppo distante da quello scientifico, si vuole sviluppare un sistema solido dal punto di vista tecnico e chiaro dal punto di vista giurico finalizzato ad migliore ricerca della verità. L’obiettivo ci si prefigge è quello di creare uno strumento versatile e di facile utilizzo da mettere a disposizione dell’A.G. ed eventualmente della P.G. operante finalizzato a consentire il proseguo dell’attività d’indagine in tempi molto rapidi e con un notevole contenimento dei costi di giustizia rispetto ad una normale CTU. La progetto verterà su analisi informatiche forensi di supporti digitali inerenti vari tipi di procedimento per cui si dovrebbe richiedere una CTU o una perizia. La sperimentazione scientifica prevede un sistema di partecipazione diretta della P.G. e della A.G. all’analisi informatica rendendo disponibile, sottoforma di macchina virtuale, il contenuto dei supporti sequestrati in modo che possa essere visionato alla pari del supporto originale. In questo modo il CT diventa una mera guida per la PG e l’AG nell’ambito dell’indagine informatica forense che accompagna il giudice e le parti alla migliore comprensione delle informazioni richieste dal quesito. Le fasi chiave della sperimentazione sono: • la ripetibilità delle operazioni svolte • dettare delle chiare linee guida per la catena di custodia dalla presa in carico dei supporti • i metodi di conservazione e trasmissione dei dati tali da poter garantire integrità e riservatezza degli stessi • tempi e costi ridotti rispetto alle normali CTU/perizie • visualizzazione diretta dei contenuti dei supporti analizzati delle Parti e del Giudice circoscritte alle informazioni utili ai fini di giustizia
Resumo:
Die Entstehung eines Marktpreises für einen Vermögenswert kann als Superposition der einzelnen Aktionen der Marktteilnehmer aufgefasst werden, die damit kumulativ Angebot und Nachfrage erzeugen. Dies ist in der statistischen Physik mit der Entstehung makroskopischer Eigenschaften vergleichbar, die von mikroskopischen Wechselwirkungen zwischen den beteiligten Systemkomponenten hervorgerufen werden. Die Verteilung der Preisänderungen an Finanzmärkten unterscheidet sich deutlich von einer Gaußverteilung. Dies führt zu empirischen Besonderheiten des Preisprozesses, zu denen neben dem Skalierungsverhalten nicht-triviale Korrelationsfunktionen und zeitlich gehäufte Volatilität zählen. In der vorliegenden Arbeit liegt der Fokus auf der Analyse von Finanzmarktzeitreihen und den darin enthaltenen Korrelationen. Es wird ein neues Verfahren zur Quantifizierung von Muster-basierten komplexen Korrelationen einer Zeitreihe entwickelt. Mit dieser Methodik werden signifikante Anzeichen dafür gefunden, dass sich typische Verhaltensmuster von Finanzmarktteilnehmern auf kurzen Zeitskalen manifestieren, dass also die Reaktion auf einen gegebenen Preisverlauf nicht rein zufällig ist, sondern vielmehr ähnliche Preisverläufe auch ähnliche Reaktionen hervorrufen. Ausgehend von der Untersuchung der komplexen Korrelationen in Finanzmarktzeitreihen wird die Frage behandelt, welche Eigenschaften sich beim Wechsel von einem positiven Trend zu einem negativen Trend verändern. Eine empirische Quantifizierung mittels Reskalierung liefert das Resultat, dass unabhängig von der betrachteten Zeitskala neue Preisextrema mit einem Anstieg des Transaktionsvolumens und einer Reduktion der Zeitintervalle zwischen Transaktionen einhergehen. Diese Abhängigkeiten weisen Charakteristika auf, die man auch in anderen komplexen Systemen in der Natur und speziell in physikalischen Systemen vorfindet. Über 9 Größenordnungen in der Zeit sind diese Eigenschaften auch unabhängig vom analysierten Markt - Trends, die nur für Sekunden bestehen, zeigen die gleiche Charakteristik wie Trends auf Zeitskalen von Monaten. Dies eröffnet die Möglichkeit, mehr über Finanzmarktblasen und deren Zusammenbrüche zu lernen, da Trends auf kleinen Zeitskalen viel häufiger auftreten. Zusätzlich wird eine Monte Carlo-basierte Simulation des Finanzmarktes analysiert und erweitert, um die empirischen Eigenschaften zu reproduzieren und Einblicke in deren Ursachen zu erhalten, die zum einen in der Finanzmarktmikrostruktur und andererseits in der Risikoaversion der Handelsteilnehmer zu suchen sind. Für die rechenzeitintensiven Verfahren kann mittels Parallelisierung auf einer Graphikkartenarchitektur eine deutliche Rechenzeitreduktion erreicht werden. Um das weite Spektrum an Einsatzbereichen von Graphikkarten zu aufzuzeigen, wird auch ein Standardmodell der statistischen Physik - das Ising-Modell - auf die Graphikkarte mit signifikanten Laufzeitvorteilen portiert. Teilresultate der Arbeit sind publiziert in [PGPS07, PPS08, Pre11, PVPS09b, PVPS09a, PS09, PS10a, SBF+10, BVP10, Pre10, PS10b, PSS10, SBF+11, PB10].
Resumo:
Laterally loaded piles are a typical situation for a large number of cases in which deep foundations are used. Dissertation herein reported, is a focus upon the numerical simulation of laterally loaded piles. In the first chapter the best model settings are largely discussed, so a clear idea about the effects of interface adoption, model dimension, refinement cluster and mesh coarseness is reached. At a second stage, there are three distinct parametric analyses, in which the model response sensibility is studied for variation of interface reduction factor, Eps50 and tensile cut-off. In addition, the adoption of an advanced soil model is analysed (NGI-ADP). This was done in order to use the complex behaviour (different undrained shear strengths are involved) that governs the resisting process of clay under short time static loads. Once set a definitive model, a series of analyses has been carried out with the objective of defining the resistance-deflection (P-y) curves for Plaxis3D (2013) data. Major results of a large number of comparisons made with curves from API (America Petroleum Institute) recommendation are that the empirical curves have almost the same ultimate resistance but a bigger initial stiffness. In the second part of the thesis a simplified structural preliminary design of a jacket structure has been carried out to evaluate the environmental forces that act on it and on its piles foundation. Finally, pile lateral response is studied using the empirical curves.