96 resultados para A. Matteo


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The "sustainability" concept relates to the prolonging of human economic systems with as little detrimental impact on ecological systems as possible. Construction that exhibits good environmental stewardship and practices that conserve resources in a manner that allow growth and development to be sustained for the long-term without degrading the environment are indispensable in a developed society. Past, current and future advancements in asphalt as an environmentally sustainable paving material are especially important because the quantities of asphalt used annually in Europe as well as in the U.S. are large. The asphalt industry is still developing technological improvements that will reduce the environmental impact without affecting the final mechanical performance. Warm mix asphalt (WMA) is a type of asphalt mix requiring lower production temperatures compared to hot mix asphalt (HMA), while aiming to maintain the desired post construction properties of traditional HMA. Lowering the production temperature reduce the fuel usage and the production of emissions therefore and that improve conditions for workers and supports the sustainable development. Even the crumb-rubber modifier (CRM), with shredded automobile tires and used in the United States since the mid 1980s, has proven to be an environmentally friendly alternative to conventional asphalt pavement. Furthermore, the use of waste tires is not only relevant in an environmental aspect but also for the engineering properties of asphalt [Pennisi E., 1992]. This research project is aimed to demonstrate the dual value of these Asphalt Mixes in regards to the environmental and mechanical performance and to suggest a low environmental impact design procedure. In fact, the use of eco-friendly materials is the first phase towards an eco-compatible design but it cannot be the only step. The eco-compatible approach should be extended also to the design method and material characterization because only with these phases is it possible to exploit the maximum potential properties of the used materials. Appropriate asphalt concrete characterization is essential and vital for realistic performance prediction of asphalt concrete pavements. Volumetric (Mix design) and mechanical (Permanent deformation and Fatigue performance) properties are important factors to consider. Moreover, an advanced and efficient design method is necessary in order to correctly use the material. A design method such as a Mechanistic-Empirical approach, consisting of a structural model capable of predicting the state of stresses and strains within the pavement structure under the different traffic and environmental conditions, was the application of choice. In particular this study focus on the CalME and its Incremental-Recursive (I-R) procedure, based on damage models for fatigue and permanent shear strain related to the surface cracking and to the rutting respectively. It works in increments of time and, using the output from one increment, recursively, as input to the next increment, predicts the pavement conditions in terms of layer moduli, fatigue cracking, rutting and roughness. This software procedure was adopted in order to verify the mechanical properties of the study mixes and the reciprocal relationship between surface layer and pavement structure in terms of fatigue and permanent deformation with defined traffic and environmental conditions. The asphalt mixes studied were used in a pavement structure as surface layer of 60 mm thickness. The performance of the pavement was compared to the performance of the same pavement structure where different kinds of asphalt concrete were used as surface layer. In comparison to a conventional asphalt concrete, three eco-friendly materials, two warm mix asphalt and a rubberized asphalt concrete, were analyzed. The First Two Chapters summarize the necessary steps aimed to satisfy the sustainable pavement design procedure. In Chapter I the problem of asphalt pavement eco-compatible design was introduced. The low environmental impact materials such as the Warm Mix Asphalt and the Rubberized Asphalt Concrete were described in detail. In addition the value of a rational asphalt pavement design method was discussed. Chapter II underlines the importance of a deep laboratory characterization based on appropriate materials selection and performance evaluation. In Chapter III, CalME is introduced trough a specific explanation of the different equipped design approaches and specifically explaining the I-R procedure. In Chapter IV, the experimental program is presented with a explanation of test laboratory devices adopted. The Fatigue and Rutting performances of the study mixes are shown respectively in Chapter V and VI. Through these laboratory test data the CalME I-R models parameters for Master Curve, fatigue damage and permanent shear strain were evaluated. Lastly, in Chapter VII, the results of the asphalt pavement structures simulations with different surface layers were reported. For each pavement structure, the total surface cracking, the total rutting, the fatigue damage and the rutting depth in each bound layer were analyzed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Adaptive Optics is the measurement and correction in real time of the wavefront aberration of the star light caused by the atmospheric turbulence, that limits the angular resolution of ground based telescopes and thus their capabilities to deep explore faint and crowded astronomical objects. The lack of natural stars enough bright to be used as reference sources for the Adaptive Optics, over a relevant fraction of the sky, led to the introduction of artificial reference stars. The so-called Laser Guide Stars are produced by exciting the Sodium atoms in a layer laying at 90km of altitude, by a powerful laser beam projected toward the sky. The possibility to turn on a reference star close to the scientific targets of interest has the drawback in an increased difficulty in the wavefront measuring, mainly due to the time instability of the Sodium layer density. These issues are increased with the telescope diameter. In view of the construction of the 42m diameter European Extremely Large Telescope a detailed investigation of the achievable performances of Adaptive Optics becomes mandatory to exploit its unique angular resolution . The goal of this Thesis was to present a complete description of a laboratory Prototype development simulating a Shack-Hartmann wavefront sensor using Laser Guide Stars as references, in the expected conditions for a 42m telescope. From the conceptual design, through the opto-mechanical design, to the Assembly, Integration and Test, all the phases of the Prototype construction are explained. The tests carried out shown the reliability of the images produced by the Prototype that agreed with the numerical simulations. For this reason some possible upgrades regarding the opto-mechanical design are presented, to extend the system functionalities and let the Prototype become a more complete test bench to simulate the performances and drive the future Adaptive Optics modules design.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present study aims at assessing the innovation strategies adopted within a regional economic system, the Italian region Emilia-Romagna, as it faced the challenges of a changing international scenario. As the strengthening of the regional innovative capabilities is regarded as a keystone to foster a new phase of economic growth, it is important also to understand how the local industrial, institutional, and academic actors have tackled the problem of innovation in the recent past. In this study we explore the approaches to innovation and the strategies adopted by the main regional actors through three different case studies. Chapter 1 provides a general survey of the innovative performance of the regional industries over the past two decades, as it emerges from statistical data and systematic comparisons at the national and European levels. The chapter also discusses the innovation policies that the regional government set up since 2001 in order to strengthen the collaboration among local economic actors, including universities and research centres. As mechanics is the most important regional industry, chapter 2 analyses the combination of knowledge and practices utilized in the period 1960s-1990s in the design of a particular kind of machinery produced by G.D S.p.A., a world-leader in the market of tobacco packaging machines. G.D is based in Bologna, the region’s capital, and is at the centre of the most important Italian packaging district. In chapter 3 the attention turns to the institutional level, focusing on how the local public administrations, and the local, publicly-owned utility companies have dealt with the creation of new telematic networks on the regional territory during the 1990s and 2000s. Finally, chapter 4 assesses the technology transfer carried out by the main university of the region – the University of Bologna – by focusing on the patenting activities involving its research personnel in the period 1960-2010.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si studiano modelli con supersimmetria globale N=1 in d=4, con e senza interazioni di gauge, con riferimento anche alla Gauge Mediation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The procedure for event location in OPERA ECC has been optimazed for penetrating particles while is less efficient for electrons. For this reason new procedure has been defined in order to recover event with an electromagnetic shower in its final state not located with the standard one. The new procedure include the standard procedure during which several electromagnetic shower hint has been defined by means of the available data. In case the event is not located, the presence of an electromagnetic shower hint trigger a dedicated procedure. The old and new location procedure has been then simulated in order to obtain the standard location efficiency and the possible gain due to the new one for the events with electromagnetic shower. Finally a Data-MC comparison has been performed for the 2008 and 2009 runs for what concern the NC in order to validate the Monte Carlo. Then the expected electron neutrino interactions for the 2008 and 2009 runs has been evaluated and compared with the available data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Non-Equilibrium Statistical Mechanics is a broad subject. Grossly speaking, it deals with systems which have not yet relaxed to an equilibrium state, or else with systems which are in a steady non-equilibrium state, or with more general situations. They are characterized by external forcing and internal fluxes, resulting in a net production of entropy which quantifies dissipation and the extent by which, by the Second Law of Thermodynamics, time-reversal invariance is broken. In this thesis we discuss some of the mathematical structures involved with generic discrete-state-space non-equilibrium systems, that we depict with networks in all analogous to electrical networks. We define suitable observables and derive their linear regime relationships, we discuss a duality between external and internal observables that reverses the role of the system and of the environment, we show that network observables serve as constraints for a derivation of the minimum entropy production principle. We dwell on deep combinatorial aspects regarding linear response determinants, which are related to spanning tree polynomials in graph theory, and we give a geometrical interpretation of observables in terms of Wilson loops of a connection and gauge degrees of freedom. We specialize the formalism to continuous-time Markov chains, we give a physical interpretation for observables in terms of locally detailed balanced rates, we prove many variants of the fluctuation theorem, and show that a well-known expression for the entropy production due to Schnakenberg descends from considerations of gauge invariance, where the gauge symmetry is related to the freedom in the choice of a prior probability distribution. As an additional topic of geometrical flavor related to continuous-time Markov chains, we discuss the Fisher-Rao geometry of nonequilibrium decay modes, showing that the Fisher matrix contains information about many aspects of non-equilibrium behavior, including non-equilibrium phase transitions and superposition of modes. We establish a sort of statistical equivalence principle and discuss the behavior of the Fisher matrix under time-reversal. To conclude, we propose that geometry and combinatorics might greatly increase our understanding of nonequilibrium phenomena.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’idea fondamentale da cui prende avvio la presente tesi di dottorato è che sia possibile parlare di una svolta nel modo di concettualizzare e implementare le politiche sociali, il cui fuoco diviene sempre più la costruzione di reti di partnership fra attori pubblici e privati, in cui una serie di soggetti sociali plurimi (stakeholders) attivano fra loro una riflessività relazionale. L’ipotesi generale della ricerca è che, dopo le politiche improntate a modelli statalisti e mercatisti, o un loro mix, nella politica sociale italiana emerga l’esigenza di una svolta riflessiva e relazionale, verso un modello societario, sussidiario e plurale, e che di fatto – specie a livello locale – stiano sorgendo molte iniziative in tal senso. Una delle idee più promettenti sembra essere la creazione di distretti sociali per far collaborare tra loro attori pubblici, privati e di Terzo settore al fine di creare forme innovative di servizi per la famiglia e la persona. La presente tesi si focalizza sul tentativo della Provincia di Trento di distrettualizzare le politiche per la famiglia. Tramite l’analisi del progetto “Trentino – Territorio Amico della Famiglia e di una sua verticalizzazione, il Distretto Famiglia, si è studiato l’apporto delle partnership pubblico-privato nella formazione di strumenti innovativi di governance che possano determinare una svolta morfogenetica nell’elaborazione di politiche per la famiglia. Le conclusioni del lavoro, attraverso una comparazione tra esperienze territoriali, presentano la differenziazione delle partnership sociali, in base ad alcuni variabili (pluralità di attori, pluralità di risorse, shared project, capitale sociale, decision making, mutual action, logiche di lavoro relazionale, sussidiarietà). Le diverse modalità di gestione delle partnership (capacitante, professionale e generativa) sintetizzano i portati culturali, strutturali e personali coinvolti nelle singole costruzioni. Solo le partnership che interpretano il loro potenziale regolativo e promozionale secondo la riflessività relazionale tendono a generare beni comuni nel contesto sociale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

PREMESSA: Le linee guida raccomandano la fistola AV radio-cefalica autogena (RCAVF)come prima scelta per l'emodialisi. Preoccupazione è stata sollevata che questo potrebbe non essere appropriato nei pazienti anziani. METODO: Noi abbiamo seguito in modo prospettico 126 pazienti per tre anni. Dopo sistematica valutazione clinica ed ecografica, la RCAVF è stata creata utilizzando un microscopio operatore. La pervietà è stata valutata subito, a 1 settimana, a 1 mese e a 1 anno. I risultati sono stati registrati e stratificati in 2 gruppi: <70a e > 70a. RISULTATI: La RCAVF è stata creata nel 75% dei <70a e nel 70% dei >70a. L'incidenza di insuccesso immediato è stata 11% (<70a) e 13% (>70a). La pervietà primaria e secondaria ad 1 anno è stata 67% e 84% (<70a), 63% e 80% (>70a). CONCLUSIONI: La microchirurgia ha permesso la creazione di RCVAF in >70a con un rischio accettabile di fallimento e lievi differenze rispetto a <70a. L'età non deve precludere una creazione di RCAVF.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi di Matteo Allodi intende analizzare alcune pratiche socio-assistenziali rivolte a minori e famiglie in difficoltà relative a progetti di accoglienza presso alcune strutture residenziali. In particolare, Matteo Allodi si sofferma su progetti di accoglienza elaborati presso alcune Comunità familiari la cui metodologia d’intervento si caratterizza per un orientamento verso un modello di lavoro sociale di tipo sussidiario nell’ottica del recupero dei legami e delle competenze genitoriali. La tesi affronta nella prima parte la dimensione teorica relativa a un approccio progettuale di intervento sociale che, mettendo al centro le relazioni dei soggetti in gioco, possa promuovere la loro attivazione in funzione della realizzazione dell’obiettivo del recupero della genitorialità. Allodi si concentra dal punto di vista teorico sulle modalità di realizzazione di un servizio alla persona guidato dal principio di sussidiarietà, ovvero orientato alla valorizzazione delle capacità riflessive degli attori. Nella seconda, parte Allodi presenta l’indagine condotta in alcune Comunità di tipo familiare di Parma. La strategia iniziale d’indagine è quella del case study. Allodi sceglie di indagare il fenomeno partendo da un’osservazione partecipata di orientamento etnometodologico integrata con interviste agli attori privilegiati. In questa fase si è proceduto a una prima ricerca qualitativa, attraverso la metodologia dello studio di caso, che ha permesso di entrare in contatto con alcune tipologie di strutture residenziali per minori al fine di completare il quadro generale del fenomeno delle Comunità familiari e impostare una prima mappatura esplorativa. La ricerca prosegue con uno studio longitudinale prospettico volto a monitorare e valutare il lavoro di rete della comunità e dei servizi, osservando principalmente la mobilitazione verso l’autonomia e l’empowerment dei soggetti (minori) e delle reti ancorate al soggetto (single case study). Si è voluto comprendere quali modalità relazionali gli attori della rete di coping mettono in gioco in funzione del “cambiamento sociale”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Background: The recent increasing incidence of intrahepatic cholangiocellular carcinoma (ICC) in cirrhosis increased the problem of noninvasive differential diagnosis between ICC and hepatocellular carcinoma (HCC) in cirrhosis. In literature there isn’t data about treatment and prognosis of ICC in cirrhosis. Aim: To investigate the role of the different imaging techniques in the diagnosis of ICC in cirrhosis; to analyze treatments and prognosis with particular attention to factors associated with survival. Methods: The data of 30 cirrhotic patients with ICC were retrospectively collected; patients were referred to Liver Units (S.Orsola-Malpighi and S.Matteo Hospitals) between 2005 and 2011. The results of contrast-enhanced ultrasound (CEUS), computed tomography (CT) and magnetic resonance (MR) were evaluated; the enhancement pattern at different imaging techniques were analysed, with particular attention to misdiagnosis of HCC. We evaluated the different treatments and survival of the study group and then we performed the survival analysis of different clinico-pathologic factors. Results: Twenty-five patients underwent CEUS, 27 CT and 10 MR. In 3 cases (12%) CEUS misdiagnosed ICC for HCC, in 7 cases (26%) CT misdiagnosed ICC and in 1 case (10%) MR misdiagnosed ICC. Patient were followed for a mean of 30 months (range:4-86), with a mean survival of 30 months. Twenty-four out of 30 patients were treated with curative approach, while the other 6 underwent TACE (n=4), radioembolization (n=1) or systemic treatment with Gemcitabine (n=1). The univariate analysis revealed that CA19-9 levels, surveillance program and nodule size were significantly related with survival. By multivariate analysis only nodule size £ 40mm was significant (p=0,004). Conclusion: Diagnosis of ICC in cirrhosis remains difficult because there isn’t a typical enhancement pattern and in some cases it cannot be distinguished from HCC by the different imaging techniques. The study of survival related factors shows that nodule size ≤ 40mm is correlated with improved survival.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca inquadra all’interno dell’opera dell’autore, lo specifico tema della residenza. Esso costituisce il campo di applicazione del progetto di architettura, in cui più efficacemente ricercare i tratti caratteristici del metodo progettuale dell’architetto, chiave di lettura dello studio proposto. Il processo che giunge alla costituzione materiale dell’architettura, viene considerato nelle fasi in cui è scomposto, negli strumenti che adotta, negli obbiettivi che si pone, nel rapporto con i sistemi produttivi, per come affronta il tema della forma e del programma e confrontato con la vasta letteratura presente nel pensiero di alcuni autori vicini a Ignazio Gardella. Si definiscono in tal modo i tratti di una metodologia fortemente connotata dal realismo, che rende coerente una ricerca empirica e razionale, legata ad un’idea di architettura classica, di matrice illuministica e attenta alle istanze della modernità, all’interno della quale si realizza l’eteronomia linguistica che caratterizza uno dei tratti caratteristici delle architetture di Ignazio Gardella; aspetto più volte interpretato come appartenenza ai movimenti del novecento, che intersecano costantemente la lunga carriera dell’architetto. L’analisi dell’opera della residenza è condotta non per casi esemplari, ma sulla totalità dei progetti che si avvale anche di contributi inediti. Essa è intesa come percorso di ricerca personale sui processi compositivi e sull’uso del linguaggio e permette un riposizionamento della figura di Gardella, in relazione al farsi dell’architettura, della sua realizzazione e non alla volontà di assecondare stili o norme a-priori. E’ la dimensione pratica, del mestiere, quella che meglio si presta all’interpretazione dei progetti di Gardella. Le residenze dell’architetto si mostrano per la capacità di adattarsi ai vincoli del luogo, del committente, della tecnologia, attraverso la re-interpretazione formale e il trasferimento da un tema all’altro, degli elementi essenziali che mostrano attraverso la loro immagine, una precisa idea di casa e di architettura, non autoriale, ma riconoscibile e a-temporale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi di dottorato è inserita nell’ambito della convenzione tra ARPA_SIMC (che è l’Ente finanziatore), l’Agenzia Regionale di Protezione Civile ed il Dipartimento di Scienze della Terra e Geologico - Ambientali dell’Ateneo di Bologna. L’obiettivo principale è la determinazione di possibili soglie pluviometriche di innesco per i fenomeni franosi in Emilia Romagna che possano essere utilizzate come strumento di supporto previsionale in sala operativa di Protezione Civile. In un contesto geologico così complesso, un approccio empirico tradizionale non è sufficiente per discriminare in modo univoco tra eventi meteo innescanti e non, ed in generale la distribuzione dei dati appare troppo dispersa per poter tracciare una soglia statisticamente significativa. È stato quindi deciso di applicare il rigoroso approccio statistico Bayesiano, innovativo poiché calcola la probabilità di frana dato un certo evento di pioggia (P(A|B)) , considerando non solo le precipitazioni innescanti frane (quindi la probabilità condizionata di avere un certo evento di precipitazione data l’occorrenza di frana, P(B|A)), ma anche le precipitazioni non innescanti (quindi la probabilità a priori di un evento di pioggia, P(A)). L’approccio Bayesiano è stato applicato all’intervallo temporale compreso tra il 1939 ed il 2009. Le isolinee di probabilità ottenute minimizzano i falsi allarmi e sono facilmente implementabili in un sistema di allertamento regionale, ma possono presentare limiti previsionali per fenomeni non rappresentati nel dataset storico o che avvengono in condizioni anomale. Ne sono esempio le frane superficiali con evoluzione in debris flows, estremamente rare negli ultimi 70 anni, ma con frequenza recentemente in aumento. Si è cercato di affrontare questo problema testando la variabilità previsionale di alcuni modelli fisicamente basati appositamente sviluppati a questo scopo, tra cui X – SLIP (Montrasio et al., 1998), SHALSTAB (SHALlow STABility model, Montgomery & Dietrich, 1994), Iverson (2000), TRIGRS 1.0 (Baum et al., 2002), TRIGRS 2.0 (Baum et al., 2008).