268 resultados para Weiche Materie
Resumo:
In this thesis, a systematic analysis of the bar B to X_sgamma photon spectrum in the endpoint region is presented. The endpoint region refers to a kinematic configuration of the final state, in which the photon has a large energy m_b-2E_gamma = O(Lambda_QCD), while the jet has a large energy but small invariant mass. Using methods of soft-collinear effective theory and heavy-quark effective theory, it is shown that the spectrum can be factorized into hard, jet, and soft functions, each encoding the dynamics at a certain scale. The relevant scales in the endpoint region are the heavy-quark mass m_b, the hadronic energy scale Lambda_QCD and an intermediate scale sqrt{Lambda_QCD m_b} associated with the invariant mass of the jet. It is found that the factorization formula contains two different types of contributions, distinguishable by the space-time structure of the underlying diagrams. On the one hand, there are the direct photon contributions which correspond to diagrams with the photon emitted directly from the weak vertex. The resolved photon contributions on the other hand arise at O(1/m_b) whenever the photon couples to light partons. In this work, these contributions will be explicitly defined in terms of convolutions of jet functions with subleading shape functions. While the direct photon contributions can be expressed in terms of a local operator product expansion, when the photon spectrum is integrated over a range larger than the endpoint region, the resolved photon contributions always remain non-local. Thus, they are responsible for a non-perturbative uncertainty on the partonic predictions. In this thesis, the effect of these uncertainties is estimated in two different phenomenological contexts. First, the hadronic uncertainties in the bar B to X_sgamma branching fraction, defined with a cut E_gamma > 1.6 GeV are discussed. It is found, that the resolved photon contributions give rise to an irreducible theory uncertainty of approximately 5 %. As a second application of the formalism, the influence of the long-distance effects on the direct CP asymmetry will be considered. It will be shown that these effects are dominant in the Standard Model and that a range of -0.6 < A_CP^SM < 2.8 % is possible for the asymmetry, if resolved photon contributions are taken into account.
Resumo:
La presenza di micotossine nelle materie prime desta grande preoccupazione a causa delle importanti implicazioni nella sicurezza di alimenti e mangimi. Lo scopo di questo lavoro è stato quello di mettere a punto e validare una metodica analitica rapida e semplice, in cromatografia liquida ad ultra prestazione accoppiata a spettrometria di massa-tandem (UPLC-MS/MS), per la determinazione simultanea di differenti micotossine: aflatossine (B1, B2, G1, G2), ocratossina A, fumonisine (B1, B2), deossinivalenolo e zearalenone in matrici biologiche. Il metodo sviluppato per l’analisi di campioni di mangime secco per cani ha mostrato prestazioni adeguate ed è stato applicato a 49 campioni reperibili in commercio, al fine di valutare la sua efficacia e di ottenere alcuni dati preliminari sulla contaminazione da micotossine in alimenti per cani disponibili sul mercato italiano. Lo studio ha evidenziato una percentuale alta di campioni positivi, contenenti principalmente fumonisine, deossinivalenolo e ocratossina A; tutti i tenori si sono dimostrati inferiori al limite di legge previsto (Racc. CE 576/2006). Una seconda metodica è stata messa a punto e validata per l’identificazione e la quantificazione micotossine in campioni di formaggio; per questa matrice è stata inserita anche l’aflatossina M1, specifica dei prodotti lattiero - caseari. Le differenti proprietà chimico-fisiche degli analiti e la complessità della matrice hanno implicato alcune difficoltà nello sviluppo della metodica. Tuttavia, il metodo validato si è mostrato rapido, semplice ed affidabile ed è stato applicato a diversi tipi di formaggi per verificarne la versatilità. I risultati preliminari hanno mostrato l’assenza di contaminazione da parte delle micotossine in oggetto. Entrambi i metodi si sono dimostrati utili per il monitoraggio di contaminanti in matrici complesse ad oggi ancora poco studiate.
Resumo:
La ricerca è dedicata a verificare se e come, a livello dell’Unione europea, la lotta alla criminalità (ed in particolare quella organizzata) venga condotta nel rispetto di diritti e libertà fondamentali, e se la cooperazione tra Stati membri su questo fronte possa giungere a promuovere standard omogenei ed elevati di tutela degli stessi. Gli ambiti di cooperazione interessati sono principalmente quello giudiziario in materia penale e quello di polizia, e la ritrosia degli Stati a cedere all’Unione competenze in materia si è accompagnata ad un ritardo ancora maggiore dell’emersione, nell’ambito degli stessi, della dimensione dei diritti. Ciò ha reso molto difficile lo sviluppo completo ed equilibrato di uno “spazio di libertà, sicurezza e giustizia” (art. 67 TFUE). L’assetto istituzionale introdotto dal Trattato di Lisbona e l’attribuzione di valore giuridico vincolante alla Carta hanno però posto le basi per il superamento della condizione precedente, anche grazie al fatto che, negli ambiti richiamati, la salvaguardia dei diritti è divenuta competenza ed obiettivo esplicito dell’Unione. Centrale è per la ricerca la cooperazione giudiziaria in materia penale, che ha visto la ricca produzione normativa di stampo repressivo recentemente bilanciata da interventi del legislatore europeo a finalità garantista e promozionale. L’analisi degli strumenti nella prospettiva indicata all’inizio dell’esposizione è quindi oggetto della prima parte dell’elaborato. La seconda parte affronta invece la cooperazione di polizia e quello degli interventi volti alla confisca dei beni e ad impedire il riciclaggio, misure – queste ultime - di particolare rilievo soprattutto per il contrasto al crimine organizzato. Sottesi all’azione dell’Unione in queste materie sono, in modo preponderante, due diritti: quello alla salvaguardia dei dati personali e quello al rispetto della proprietà privata. Questi, anche in ragione delle peculiarità che li caratterizzano e della loro natura di diritti non assoluti, sono analizzati con particolare attenzione.
Resumo:
The Standard Model of elementary particle physics was developed to describe the fundamental particles which constitute matter and the interactions between them. The Large Hadron Collider (LHC) at CERN in Geneva was built to solve some of the remaining open questions in the Standard Model and to explore physics beyond it, by colliding two proton beams at world-record centre-of-mass energies. The ATLAS experiment is designed to reconstruct particles and their decay products originating from these collisions. The precise reconstruction of particle trajectories plays an important role in the identification of particle jets which originate from bottom quarks (b-tagging). This thesis describes the step-wise commissioning of the ATLAS track reconstruction and b-tagging software and one of the first measurements of the b-jet production cross section in pp collisions at sqrt(s)=7 TeV with the ATLAS detector. The performance of the track reconstruction software was studied in great detail, first using data from cosmic ray showers and then collisions at sqrt(s)=900 GeV and 7 TeV. The good understanding of the track reconstruction software allowed a very early deployment of the b-tagging algorithms. First studies of these algorithms and the measurement of the b-tagging efficiency in the data are presented. They agree well with predictions from Monte Carlo simulations. The b-jet production cross section was measured with the 2010 dataset recorded by the ATLAS detector, employing muons in jets to estimate the fraction of b-jets. The measurement is in good agreement with the Standard Model predictions.
Resumo:
I Poliidrossialcanoati (PHA) sono poliesteri completamente biodegradabili, prodotti da microrganismi come fonte di energia e di carbonio per la sintesi di nuovo materiale cellulare, utilizzando come substrato materie prime rinnovabili. Questi poliesteri sono considerati potenziali candidati per la sostituzione delle materie plastiche convenzionali. Tuttavia, i più alti costi di produzione dei PHA in confronto a quelli delle materie plastiche derivanti dal petrolio, rappresentano il principale ostacolo per la parziale sostituzione di questi ultimi con i biopolimeri. Gli alti costi sono principalmente dovuti all'utilizzo di colture microbiche pure (in cui sia presente un solo ceppo batterico) e substrati puri e costosi. Nell'ultimo decennio è stato sviluppato un processo di produzione a tre stadi alternativo e potenzialmente a minor costo, basato sull'utilizzo di colture microbiche miste (Mixed Microbials Culture, MMC) e una varietà di substrati organici a costo contenuto o nullo, quali alcuni rifiuti dell’industria agro-alimentare. Il presente studio si è concentrato sulla prima fase del processo di produzione dei PHA da colture miste, la fermentazione acidogenica, utilizzando siero di latte come fonte di carbonio per produrre acidi organici. In particolare questo lavoro ha avuto come obiettivo quello di studiare come diverse condizioni operative utilizzate nella fase di fermentazione acidogenica possono influenzare la concentrazione e il profilo degli acidi organici prodotti. Sono stati valutati anche gli effetti dei diversi profili degli acidi organici sulla fase di selezione della coltura microbica, in termini di capacità di stoccaggio di PHA e composizione polimerica.
Resumo:
The composition of the atmosphere is frequently perturbed by the emission of gaseous and particulate matter from natural as well as anthropogenic sources. While the impact of trace gases on the radiative forcing of the climate is relatively well understood the role of aerosol is far more uncertain. Therefore, the study of the vertical distribution of particulate matter in the atmosphere and its chemical composition contribute valuable information to bridge this gap of knowledge. The chemical composition of aerosol reveals information on properties such as radiative behavior and hygroscopicity and therefore cloud condensation or ice nucleus potential. rnThis thesis focuses on aerosol pollution plumes observed in 2008 during the POLARCAT (Polar Study using Aircraft, Remote Sensing, Surface Measurements and Models, of Climate, Chemistry, Aerosols, and Transport) campaign over Greenland in June/July and CONCERT (Contrail and Cirrus Experiment) campaign over Central and Western Europe in October/November. Measurements were performed with an Aerodyne compact time-of-flight aerosol mass spectrometer (AMS) capable of online size-resolved chemical characterization of non-refractory submicron particles. In addition, the origins of pollution plumes were determined by means of modeling tools. The characterized pollution episodes originated from a large variety of sources and were encountered at distinct altitudes. They included pure natural emissions from two volcanic eruptions in 2008. By the time of detection over Western Europe between 10 and 12 km altitude the plume was about 3 months old and composed to 71 % of particulate sulfate and 21 % of carbonaceous compounds. Also, biomass burning (BB) plumes were observed over Greenland between 4 and 7 km altitude (free troposphere) originating from Canada and East Siberia. The long-range transport took roughly one and two weeks, respectively. The aerosol was composed of 78 % organic matter and 22 % particulate sulfate. Some Canadian and all Siberian BB plumes were mixed with anthropogenic emissions from fossil fuel combustion (FF) in North America and East Asia. It was found that the contribution of particulate sulfate increased with growing influences from anthropogenic activity and Asia reaching up to 37 % after more than two weeks of transport time. The most exclusively anthropogenic emission source probed in the upper troposphere was engine exhaust from commercial aircraft liners over Germany. However, in-situ characterization of this aerosol type during aircraft chasing was not possible. All long-range transport aerosol was found to have an O:C ratio close to or greater than 1 implying that low-volatility oxygenated organic aerosol was present in each case despite the variety of origins and the large range in age from 3 to 100 days. This leads to the conclusion that organic particulate matter reaches a final and uniform state of oxygenation after at least 3 days in the free troposphere. rnExcept for aircraft exhaust all emission sources mentioned above are surface-bound and thus rely on different types of vertical transport mechanisms, such as direct high altitude injection in the case of a volcanic eruption, or severe BB, or uplift by convection, to reach higher altitudes where particles can travel long distances before removal mainly caused by cloud scavenging. A lifetime for North American mixed BB and FF aerosol of 7 to 11 days was derived. This in consequence means that emission from surface point sources, e.g. volcanoes, or regions, e.g. East Asia, do not only have a relevant impact on the immediate surroundings but rather on a hemispheric scale including such climate sensitive zones as the tropopause or the Arctic.
Resumo:
In alcuni paesi in via di sviluppo la forte crescita demografica ha favorito l’insinuarsi di un sistema consumistico, che comporta la generazione di ingenti quantitativi di rifiuti urbani. In tali paesi il problema è aggravato dalla progressiva urbanizzazione, con la conseguente necessità di smaltire i rifiuti solidi urbani nelle immediate vicinanze delle città dove vengono prodotti in gran quantità.Storicamente nei piani di gestione dei rifiuti si è sempre tenuta in considerazione la tutela della salute pubblica e dell’ambiente; negli ultimi anni è cresciuta l’attenzione verso l’utilizzo dei rifiuti come fonte di materie prime o di energia. Ai metodi di smaltimento tradizionali, rappresentati dalle discariche e dagli impianti di incenerimento, si sono progressivamente affiancate tecniche per la valorizzazione dei rifiuti: alcune di queste differenziano i rifiuti in base al materiale di cui sono costituiti per ottenere materie prime (raccolta differenziata), altre invece ricavano energia mediante opportuni trattamenti termici(termovalorizzazione). Se l’incenerimento dei rifiuti è nato con l’obiettivo di ridurne il volume e di distruggere le sostanze pericolose in essi presenti, la termovalorizzazione comprende un secondo obiettivo, che è quello di valorizzare il potere calorifico dei rifiuti, recuperando la potenza termica sviluppata durante la combustione e utilizzandola per produrre vapore, successivamente impiegato per produrre energia elettrica o come vettore termico per il teleriscaldamento. Il presente lavoro di tesi fa seguito ad un tirocinio svolto presso il termovalorizzatore costituito dal forno F3 per rifiuti speciali anche pericolosi della società Herambiente, ubicato in via Baiona a Ravenna. L’impianto utilizza un forno a tamburo rotante, scelto proprio per la sua versatilità nell’incenerire varie tipologie di rifiuti: solidi, liquidi organici e inorganici, fluidi fangosi. Negli ultimi anni si è delineato un aumento della richiesta di incenerimento di liquidi inorganici pericolosi, che sono prodotti di scarto di processi industriali derivanti dagli impianti del polo chimico ravennate. La presenza di un’elevata quantità di liquidi inorganici in ingresso al forno fa calare l’energia disponibile per la combustione e, di conseguenza, porta ad un consumo maggiore di combustibile ausiliario (metano). Si pone un problema di ottimo e cioè, a parità di potenza elettrica prodotta, occorre trovare la portata di rifiuti inorganici da inviare al forno che limiti la portata di metano in ingresso in modo da ottenere un utile netto positivo; ovviamente la soluzione ottimale è influenzata dal prezzo del metano e dalla remunerazione che il gestore riceve per lo smaltimento dei reflui inorganici. L’impostazione del problema di ottimo richiede la soluzione dei bilanci di materia e di energia per il termovalorizzatore. L’obiettivo del lavoro di tesi è stato l’impostazione in un foglio di calcolo dei bilanci di materia e di energia per il tamburo rotante e per la camera statica di post-combustione a valle del tamburo.
Resumo:
A unique characteristic of soft matter is its ability to self-assemble into larger structures. Characterizing these structures is crucial for their applications. In the first part of this work, I investigated DNA-organic hybrid material by means of Fluorescence Correlation Spectroscopy (FCS) and Fluorescence Cross-Correlation Spectroscopy (FCCS). DNA-organic hybrid materials, a novel class of hybrid materials composed of synthetic macromolecules and oligodeoxynucleotide segmenta, are mostly amphiphilic and can self-assemble into supramolecular structures in aqueous solution. A hybrid material of a fluorophore, perylenediimide (PDI), and a DNA segment (DNA-PDI) has been developed in Prof. A. Hermann’s group (University of Groningen). This novel material has the ability to form aggregates through pi-pi stacking between planar PDIs and can be traced in solution due to the fluorescence of PDI. I have determined the diffusion coefficient of DNA-PDI conjugates in aqueous solution by means of FCS. In addition, I investigated whether such DNA-PDIs form aggregates with certain structure, for instance dimers. rnOnce the DNA hybrid material self-assemble into supermolecular structures for instance into micelles, the single molecules do not necessarily stay in one specific micelle. Actually, a single molecule may enter and leave micelles constantly. The average residence time of a single molecule in a certain micelle depends on the nature of the molecule. I have chosen DNA-b-polypropylene oxide (PPO) as model molecules and investigated the residence time of DNA-b-PPO molecules in their according micelles by means of FCCS.rnBesides the DNA hybrid materials, polymeric colloids can also form ordered structures once they are brought to an air/water interface. Here, hexagonally densely packed monolayers can be generated. These monolayers can be deposited onto different surfaces as coating layers. In the second part of this work, I investigated the mechanical properties of such colloidal monolayers using micromechanical cantilevers. When a coating layer is deposited on a cantilever, it can modify the elasticity of the cantilever. This variation can be reflected either by a deflection or by a resonance frequency shift of the cantilever. In turn, detecting these changes provides information about the mechanical properties of the coating layer. rnIn the second part of this work, polymeric colloidal monolayers were coated on a cantilever and homogenous polymer films of a few hundred nanometers in thickness were generated from these colloidal monolayers by thermal annealing or organic vapor annealing. Both the film formation process and the mechanical properties of these resulting homogenous films were investigated by means of cantilever. rnElastic property changes of the coating film, for example upon absorption of organic vapors, induce a deflection of the cantilever. This effect enables a cantilever to detect target molecules, when the cantilever is coated with an active layer with specific affinity to target molecules. In the last part of this thesis, I investigated the applicability of suitably functionalized micromechanical cantilevers as sensors. In particular, glucose sensitive polymer brushes were grafted on a cantilever and the deflection of this cantilever was measured during exposure to glucose solution. rn
Resumo:
La bonifica di acquiferi contaminati è una pratica che oggi dispone di diverse soluzioni a livello tecnologico, caratterizzate tuttavia da costi (ambientali ed economici) e problematiche tecniche di entità tale da rendere in alcuni casi poco conveniente la realizzazione dell’intervento stesso. Per questo motivo sempre maggiore interesse viene rivolto nell’ambito della ricerca alle tecnologie di bioremediation, ovvero sistemi in cui la degradazione degli inquinanti avviene ad opera di microorganismi e batteri opportunamente selezionati e coltivati. L’impiego di queste tecniche consente un minor utilizzo di risorse ed apparati tecnologici per il raggiungimento degli obiettivi di bonifica rispetto ai sistemi tradizionali. Il lavoro di ricerca presentato in questa tesi ha l’obiettivo di fornire, tramite l’utilizzo della metodologia LCA, una valutazione della performance ambientale di una tecnologia di bonifica innovativa (BEARD) e due tecnologie largamente usate nel settore, una di tipo passivo (Permeable Reactive Barrier) ed una di tipo attivo (Pump and Treat con Carboni Attivi).
Resumo:
Quantum Chromodynamics (QCD) is the theory of strong interactions, one of the four fundamental forces in our Universe. It describes the interaction of gluons and quarks which build up hadrons like protons and neutrons. Most of the visible matter in our universe is made of protons and neutrons. Hence, we are interested in their fundamental properties like their masses, their distribution of charge and their shape. \\rnThe only known theoretical, non-perturbative and {\it ab initio} method to investigate hadron properties at low energies is lattice Quantum Chromodynamics (lattice QCD). However, up-to-date simulations (especially for baryonic quantities) do not achieve the accuracy of experiments. In fact, current simulations do not even reproduce the experimental values for the form factors. The question arises wether these deviations can be explained by systematic effects in lattice QCD simulations.rnrnThis thesis is about the computation of nucleon form factors and other hadronic quantities from lattice QCD. So called Wilson fermions are used and the u- and d-quarks are treated fully dynamically. The simulations were performed using gauge ensembles with a range of lattice spacings, volumes and pion masses.\\rnFirst of all, the lattice spacing was set to be able to make contact between the lattice results and their experimental complement and to be able to perform a continuum extrapolation. The light quark mass has been computed and found to be $m_{ud}^{\overline{\text{MS}}}(2\text{ GeV}) = 3.03(17)(38)\text{ MeV}$. This value is in good agreement with values from experiments and other lattice determinations.\\rnElectro-magnetic and axial form factors of the nucleon have been calculated. From these form factors the nucleon radii and the coupling constants were computed. The different ensembles enabled us to investigate systematically the dependence of these quantities on the volume, the lattice spacing and the pion mass.\newpage Finally we perform a continuum extrapolation and chiral extrapolations to the physical point.\\rnIn addition, we investigated so called excited state contributions to these observables. A technique was used, the summation method, which reduces these effects significantly and a much better agreement with experimental data was achieved. On the lattice, the Dirac radius and the axial charge are usually found to be much smaller than the experimental values. However, due to the carefully investigation of all the afore-mentioned systematic effects we get $\langle r_1^2\rangle_{u-d}=0.627(54)\text{ fm}^2$ and $g_A=1.218(92)$, which is in agreement with the experimental values within the errors.rnrnThe first three chapters introduce the theoretical background of form factors of the nucleon and lattice QCD in general. In chapter four the lattice spacing is determined. The computation of nucleon form factors is described in chapter five where systematic effects are investigated. All results are presented in chapter six. The thesis ends with a summary of the results and identifies options to complement and extend the calculations presented. rn
Resumo:
L’oggetto dell'elaborato riguarda l’insegnamento attuale dell’analisi matematica nella scuola secondaria superiore. Si sono esaminate le difficoltà incontrate dagli studenti ed elaborate riflessioni di carattere didattico per operare un insegnamento efficace. Nel primo capitolo sono state messe a punto alcune riflessioni sui fini dell’educazione. Il secondo capitolo si è concentrato sulle difficoltà legate all'insegnamento dell’analisi matematica, esaminando diverse situazioni didattiche verificatesi nel corso del tirocinio svolto nei mesi di Ottobre e Novembre 2013 presso l'Istituto Tecnico Tecnologico di Cesena. Il terzo capitolo opera un confronto fra i diversi approcci all'insegnamento della matematica in generale e dell'analisi in particolare che si presentano nelle diverse scuole secondarie, in particolare nei Licei e negli Istituti Tecnici. Nel quarto capitolo ci si è occupati del livello scolastico successivo, analizzando le differenze che intercorrono tra la scuola secondaria superiore e l’università per quanto riguarda gli stadi dello sviluppo mentale degli studenti, le materie, i metodi di studio e gli obiettivi di apprendimento.
Resumo:
In this thesis we have extended the methods for microscopic charge-transport simulations for organic semiconductors. In these materials the weak intermolecular interactions lead to spatially localized charge carriers, and the charge transport occurs as an activated hopping process between diabatic states. In addition to weak electronic couplings between these states, different electrostatic environments in the organic material lead to a broadening of the density of states for the charge energies which limits carrier mobilities.rnThe contributions to the method development includern(i) the derivation of a bimolecular charge-transfer rate,rn(ii) the efficient evaluation of intermolecular (outer-sphere) reorganization energies,rn(iii) the investigation of effects of conformational disorder on intramolecular reorganization energies or internal site energiesrnand (iv) the inclusion of self-consistent polarization interactions for calculation of charge energies.These methods were applied to study charge transport in amorphous phases of small molecules used in the emission layer of organic light emitting diodes (OLED).rnWhen bulky substituents are attached to an aromatic core in order to adjust energy levels or prevent crystallization, a small amount of delocalization of the frontier orbital to the substituents can increase electronic couplings between neighboring molecules. This leads to improved charge-transfer rates and, hence, larger charge-mobility. We therefore suggest using the mesomeric effect (as opposed to the inductive effect) when attaching substituents to aromatic cores, which is necessary for example in deep blue OLEDs, where the energy levels of a host molecule have to be adjusted to those of the emitter.rnFurthermore, the energy landscape for charges in an amorphous phase cannot be predicted by mesoscopic models because they approximate the realistic morphology by a lattice and represent molecular charge distributions in a multipole expansion. The microscopic approach shows that a polarization-induced stabilization of a molecule in its charged and neutral states can lead to large shifts, broadening, and traps in the distribution of charge energies. These results are especially important for multi-component systems (the emission layer of an OLED or the donor-acceptor interface of an organic solar cell), if the change in polarizability upon charging (or excitation in case of energy transport) is different for the components. Thus, the polarizability change upon charging or excitation should be added to the set of molecular parameters essential for understanding charge and energy transport in organic semiconductors.rnWe also studied charge transport in self-assembled systems, where intermolecular packing motives induced by side chains can increase electronic couplings between molecules. This leads to larger charge mobility, which is essential to improve devices such as organic field effect transistors, where low carrier mobilities limit the switching frequency.rnHowever, it is not sufficient to match the average local molecular order induced by the sidernchains (such as the pitch angle between consecutive molecules in a discotic mesophase) with maxima of the electronic couplings.rnIt is also important to make the corresponding distributions as narrow as possible compared to the window determined by the closest minima of thernelectronic couplings. This is especially important in one-dimensional systems, where charge transport is limited by the smallest electronic couplings.rnThe immediate implication for compound design is that the side chains should assist the self-assemblingrnprocess not only via soft entropic interactions, but also via stronger specific interactions, such as hydrogen bonding.rnrnrnrn
Resumo:
With the aim to provide people with sustainable options, engineers are ethically required to hold the safety, health and welfare of the public paramount and to satisfy society's need for sustainable development. The global crisis and related sustainability challenges are calling for a fundamental change in culture, structures and practices. Sustainability Transitions (ST) have been recognized as promising frameworks for radical system innovation towards sustainability. In order to enhance the effectiveness of transformative processes, both the adoption of a transdisciplinary approach and the experimentation of practices are crucial. The evolution of approaches towards ST provides a series of inspiring cases which allow to identify advances in making sustainability transitions happen. In this framework, the thesis has emphasized the role of Transition Engineering (TE). TE adopts a transdisciplinary approach for engineering to face the sustainability challenges and address the risks of un-sustainability. With this purpose, a definition of Transition Technologies is provided as a valid instruments to contribute to ST. In the empirical section, several transition initiatives have been analysed especially at the urban level. As a consequence, the model of living-lab of sustainability has crucially emerged. Living-labs are environments in which innovative technologies and services are co-created with users active participation. In this framework, university can play a key role as learning organization. The core of the thesis has concerned the experimental application of transition approach within the School of Engineering and Architecture of University of Bologna at Terracini Campus. The final vision is to realize a living-lab of sustainability. Particularly, a Transition Team has been established and several transition experiments have been conducted. The final result is not only the improvement of sustainability and resilience of the Terracini Campus, but the demonstration that university can generate solutions and strategies that tackle the complex, dynamic factors fuelling the global crisis.
Resumo:
Spectroscopy of the 1S-2S transition of antihydrogen confined in a neutral atom trap and comparison with the equivalent spectral line in hydrogen will provide an accurate test of CPT symmetry and the first one in a mixed baryon-lepton system. Also, with neutral antihydrogen atoms, the gravitational interaction between matter and antimatter can be tested unperturbed by the much stronger Coulomb forces.rnAntihydrogen is regularly produced at CERN's Antiproton Decelerator by three-body-recombination (TBR) of one antiproton and two positrons. The method requires injecting antiprotons into a cloud of positrons, which raises the average temperature of the antihydrogen atoms produced way above the typical 0.5 K trap depths of neutral atom traps. Therefore only very few antihydrogen atoms can be confined at a time. Precision measurements, like laser spectroscopy, will greatly benefit from larger numbers of simultaneously trapped antihydrogen atoms.rnTherefore, the ATRAP collaboration developed a different production method that has the potential to create much larger numbers of cold, trappable antihydrogen atoms. Positrons and antiprotons are stored and cooled in a Penning trap in close proximity. Laser excited cesium atoms collide with the positrons, forming Rydberg positronium, a bound state of an electron and a positron. The positronium atoms are no longer confined by the electric potentials of the Penning trap and some drift into the neighboring cloud of antiprotons where, in a second charge exchange collision, they form antihydrogen. The antiprotons remain at rest during the entire process, so much larger numbers of trappable antihydrogen atoms can be produced. Laser excitation is necessary to increase the efficiency of the process since the cross sections for charge-exchange collisions scale with the fourth power of the principal quantum number n.rnThis method, named double charge-exchange, was demonstrated by ATRAP in 2004. Since then, ATRAP constructed a new combined Penning Ioffe trap and a new laser system. The goal of this thesis was to implement the double charge-exchange method in this new apparatus and increase the number of antihydrogen atoms produced.rnCompared to our previous experiment, we could raise the numbers of positronium and antihydrogen atoms produced by two orders of magnitude. Most of this gain is due to the larger positron and antiproton plasmas available by now, but we could also achieve significant improvements in the efficiencies of the individual steps. We therefore showed that the double charge-exchange can produce comparable numbers of antihydrogen as the TBR method, but the fraction of cold, trappable atoms is expected to be much higher. Therefore this work is an important step towards precision measurements with trapped antihydrogen atoms.
Resumo:
La movimentazione delle materie prime, degli intermedi e dei prodotti finali all’interno di una raffineria avviene attraverso una struttura logistica che prevede la ricezione delle materie prime, i trasferimenti delle sostanze tra le diverse unità produttive, la spedizione dei prodotti finiti. La distribuzione dei fluidi avviene su vie di tubazioni (pipe rack e trincee) che si possono articolare su un’ampia porzione di territorio, in prossimità di impianti, strade ed altri centri nevralgici. La perdita di contenimento accidentale dalle tubazioni può costituire un elemento di rischio di difficile gestione, proprio per la diffusione dei percorsi su un’area di vaste dimensioni. Il presente lavoro di tesi, svolto presso lo studio ICARO s.r.l. di Cortona, si propone di effettuare l’analisi del rischio dovuto al trasferimento dei fluidi all’interno di una raffineria, valutando la frequenza e la distribuzione spaziale degli effetti degli scenari incidentali finali che possono avere luogo in caso di rilascio. Le tubazioni prese in esame sono quelle di maggior impatto dal punto di vista del rischio a causa della pericolosità della sostanza trasferita e della vicinanza del percorso a punti nevralgici all’interno dello stabilimento; sulla base di questo criterio sono state analizzate le tubazioni per il trasferimento di GPL, H2S e benzina. I risultati ottenuti consentono di identificare soluzioni per l’ottimizzazione del layout della raffineria e costituiscono, più in generale, uno strumento analitico di supporto alle modifiche progettuali. L’elaborato è strutturato come segue. Nel Capitolo 1 è riportata la descrizione della raffineria e delle linee di interconnessione selezionate ai fini dello studio. Nel Capitolo 2 vengono identificate le tipologie più rappresentative di perdita di contenimento dalle linee e ne viene stimata la frequenza di accadimento. Nel Capitolo 3 viene illustrata una metodologia per la stima della probabilità di innesco che tiene in considerazione la circolazione di automezzi nelle strade interne della raffineria. Nel Capitolo 4 vengono esaminati, confrontati e selezionati i vari tipi di modelli di rilascio presenti nel package di simulazione Phast Professional 7.1 in vista della loro applicazione alle perdite dalle linee. Nel Capitolo 5 è riportato il calcolo delle frequenze di accadimento degli scenari incidentali finali, mentre nel Capitolo 6 sono illustrati i risultati relativi alla valutazione delle conseguenze. Nel Capitolo 7 viene effettuato lo studio dell’effetto domino, sviluppato in accordo ad un approccio metodologico innovativo. Infine nel Capitolo 8 vengono riportate alcune considerazioni finali.