95 resultados para 620.4 Ingegneria per specifici tipi di ambiente geografico
Resumo:
A wall film model has been implemented in a customized version of KIVA code developed at University of Bologna. Under the hypothesis of `thin laminar ow' the model simulates the dynamics of a liquid wall film generated by impinging sprays. Particular care has been taken in numerical implementation of the model. The major phenomena taken into account in the present model are: wall film formation by impinging spray; body forces, such as gravity or acceleration of the wall; shear stress at the interface with the gas and no slip condition on the wall; momentum contribution and dynamic pressure generated by the tangential and normal component of the impinging drops; film evaporation by heat exchange with wall and surrounding gas. The model doesn't consider the effect of the wavy film motion and suppose that all the impinging droplets adhere to the film. The governing equations have been integrated in space by using a finite volume approach with a first order upwind differencing scheme and they have been integrated in time with a fully explicit method. The model is validated using two different test cases reproducing PFI gasoline and DI Diesel engine wall film conditions.
Resumo:
La valutazione dell’intensità secondo una procedura formale trasparente, obiettiva e che permetta di ottenere valori numerici attraverso scelte e criteri rigorosi, rappresenta un passo ed un obiettivo per la trattazione e l’impiego delle informazioni macrosismiche. I dati macrosismici possono infatti avere importanti applicazioni per analisi sismotettoniche e per la stima della pericolosità sismica. Questa tesi ha affrontato il problema del formalismo della stima dell’intensità migliorando aspetti sia teorici che pratici attraverso tre passaggi fondamentali sviluppati in ambiente MS-Excel e Matlab: i) la raccolta e l’archiviazione del dataset macrosismico; ii), l’associazione (funzione di appartenenza o membership function) tra effetti e gradi di intensità della scala macrosismica attraverso i principi della logica dei fuzzy sets; iii) l’applicazione di algoritmi decisionali rigorosi ed obiettivi per la stima dell’intensità finale. L’intera procedura è stata applicata a sette terremoti italiani sfruttando varie possibilità, anche metodologiche, come la costruzione di funzioni di appartenenza combinando le informazioni macrosismiche di più terremoti: Monte Baldo (1876), Valle d’Illasi (1891), Marsica (1915), Santa Sofia (1918), Mugello (1919), Garfagnana (1920) e Irpinia (1930). I risultati ottenuti hanno fornito un buon accordo statistico con le intensità di un catalogo macrosismico di riferimento confermando la validità dell’intera metodologia. Le intensità ricavate sono state poi utilizzate per analisi sismotettoniche nelle aree dei terremoti studiati. I metodi di analisi statistica sui piani quotati (distribuzione geografica delle intensità assegnate) si sono rivelate in passato uno strumento potente per analisi e caratterizzazione sismotettonica, determinando i principali parametri (localizzazione epicentrale, lunghezza, larghezza, orientazione) della possibile sorgente sismogenica. Questa tesi ha implementato alcuni aspetti delle metodologie di analisi grazie a specifiche applicazioni sviluppate in Matlab che hanno permesso anche di stimare le incertezze associate ai parametri di sorgente, grazie a tecniche di ricampionamento statistico. Un’analisi sistematica per i terremoti studiati è stata portata avanti combinando i vari metodi per la stima dei parametri di sorgente con i piani quotati originali e ricalcolati attraverso le procedure decisionali fuzzy. I risultati ottenuti hanno consentito di valutare le caratteristiche delle possibili sorgenti e formulare ipotesi di natura sismotettonica che hanno avuto alcuni riscontri indiziali con dati di tipo geologico e geologico-strutturale. Alcuni eventi (1915, 1918, 1920) presentano una forte stabilità dei parametri calcolati (localizzazione epicentrale e geometria della possibile sorgente) con piccole incertezze associate. Altri eventi (1891, 1919 e 1930) hanno invece mostrato una maggiore variabilità sia nella localizzazione dell’epicentro che nella geometria delle box: per il primo evento ciò è probabilmente da mettere in relazione con la ridotta consistenza del dataset di intensità mentre per gli altri con la possibile molteplicità delle sorgenti sismogenetiche. Anche l’analisi bootstrap ha messo in evidenza, in alcuni casi, le possibili asimmetrie nelle distribuzioni di alcuni parametri (ad es. l’azimut della possibile struttura), che potrebbero suggerire meccanismi di rottura su più faglie distinte.
Resumo:
ABSTRACT: The dimension stone qualification through the use of non-destructive tests (NDT) is a relevant research topic for the industrial characterisation of finite products, because the competition of low-costs products can be sustained by an offer of highqualification and a top-guarantee products. The synthesis of potentialities offered by the NDT is the qualification and guarantee similar to the well known agro-industrial PDO, Protected Denomination of Origin. In fact it is possible to guarantee both, the origin and the quality of each stone product element, even through a Factory Production Control on line. A specific disciplinary is needed. A research developed at DICMA-Univ. Bologna in the frame of the “OSMATER” INTERREG project, allowed identifying good correlations between destructive and non-destructive tests for some types of materials from Verbano-Cusio-Ossola region. For example non conventional ultrasonic tests, image analysis parameters, water absorption and other measurements showed to be well correlated with the bending resistance, by relationships varying for each product. In conclusion it has been demonstrated that a nondestructive approach allows reaching several goals, among the most important: 1) the identification of materials; 2) the selection of products; 3) the substitution of DT by NDT. Now it is necessary to move from a research phase to the industrial implementation, as well as to develop new ND technologies focused on specific aims.
Resumo:
Aims: We aimed to quantify the release of bio-markers of myocardial damage in relation to direct intramyocardial injections of genes and stem cells in patients with severe coronary artery disease. Methods and Results: We studied 71 patients with “no-option” coronary artery disease. Patients had, via the percutaneous transluminal route, a total of 11±1 (mean ± SD) intramyocardial injections of vascular endothelial growth factor genes (n=56) or mesenchymal stromal cells (n=15). Injections were guided to an ischemic area by electromechanical mapping, using the NOGA™/Myostar™ catheter system. ECG was monitored continuously until discharge. Plasma CKMB (upper normal laboratory limit=5 μg/l) was 2 μg/l (2-3) at baseline; increased to 6 (5-9) after 8 hours (p < 0.0001) and normalized to 4 (3-5) after 24 hours. A total of 8 patients (17%), receiving a volume of 0.3 ml per injection, had CKMB rises exceeding 3 times the upper limit, whereas no patient in the group receiving 0.2 ml had a more than two fold CKMB increase. No patient developed new ECG changes. There were no clinically important ventricular arrhythmias and no death. Conclusion: Direct Intramyocardial injections of stem cells or genes lead to measurable release of cardiac bio-markers, which was related to the injected volume.
Resumo:
Lo scopo di questa tesi di dottorato è la comparazione di metodi per redarre mappe della vulnerabilità degli acquiferi all’inquinamento. Sono state redatte le mappe di vulnerabilità dell’acquifero della conoide del Reno utilizzando i metodi parametrici SINTACS (Civita e De Maio, 1997) e DRASTIC (Aller et al., 1987). E' stato elaborato un modello tridimensionale del flusso tramite l'utilizzo del software di modellistica numerica FEFLOW. I risultati ottenuti sono stati confrontati con le mappe derivanti dall'appllicazione dei PCSM. E’ stato, inoltre, approfondito lo sviluppo di un modello inverso, che, partendo dalla distruzione del carico piezometrico, fornisce la distribuzione della conducibilità idraulica dell’acquifero.La conoscenza di questo parametro è, infatti, il punto di partenza per lo sviluppo di un nuovo metodo per la definizione della vulnerabilità basato sulla caratterizzazione dell'area di acquifero potenzialmente inquinabile rispetto ad uno sversamento in superficie di un inquinante.L’indice di vulnerabilità viene definito sulla lunghezza del cammino che un inquinante percorrere nell’arco di un anno.
Resumo:
La leishmaniosi è una malattia protozoaria importante che interessa l’ambito della sanità animale e umana, in relazione al carattere zoonotico dell’infezione. In Italia l’infezione è sostenuta da Leishmania infantum, i cui ceppi viscerotropi sono responsabili della leishmaniosi canina (LCan) e della forma viscerale zoonotica (LVZ), ed i ceppi dermotropi della forma cutanea sporadica nell’uomo (LCS). La trasmissione dell’infezione è sostenuta da femmine ematofaghe di ditteri appartenenti al genere Phlebotomus, che hanno il ruolo di vettori biologici attivi. L’unico serbatoio domestico riconosciuto è il cane. In Italia la LCan è in forte espansione. Fino agli anni ottanta era presente in forma endemica nel centro-sud Italia e nelle isole mentre il nord Italia, fatta eccezione per la Liguria e una piccola parte dell’Emilia-Romagna risultava indenne. A partire dagli anni novanta, parallelamente ad un aumento della consistenza e del numero dei focolai nelle aree storicamente endemiche, sono iniziate, nelle regioni del Nord, le segnalazioni di focolai autoctoni stabili. Le attività del network scientifico LeishMap™, tra il 2002 e il 2005, hanno evidenziato un nuovo quadro epidemiologico in tutte le regioni del nord Italia, confermato anche da indagini successive. Alla riemergenza della leishmaniosi hanno concorso una serie di fattori ecologico-ambientali e umani. Tra i primi si ricorda il cambiamento climatico che ha influito sulla distribuzione e sulla densità della popolazione vettoriale; tra i secondi, ruolo fondamentale ha giocato la maggiore movimentazione di animali, provenienti da aree indenni, in zone interessate dalla malattia. La valutazione di tutti questi aspetti è stato il punto di partenza per la messa a punto di un progetto per la realizzazione della sorveglianza della leishmaniosi in Emilia-Romagna. Parte delle attività previste da tale progetto costituiscono la prima parte della presente tesi. Mediante la realizzazione di una banca dati e, la successiva georeferenziazione, dei casi di leishmaniosi canina (LCan) in cani di proprietà della regione e zone limitrofe (Pesaro-Urbino, Repubblica di San Marino), sono stati evidenziati 538 casi, la maggior parte dei quali nelle province di Bologna e Rimini (235 e 204, rispettivamente). Nelle due province sono stati individuati clusters di aggregazione importanti in base alla densità di casi registrati/km2 (4 nella provincia di Bologna e 3 in quella di Rimini). Nella seconda parte della presente tesi è stato approfondito l’aspetto diagnostico della malattia. Molte sono le metodiche applicabili alla diagnosi di LCan: da quelle dirette, come i metodi parassitologici e molecolari, a quelle indirette, come le tecniche sierologiche. Nella II parte sperimentale della presente tesi, 100 sieri di cane sono stati esaminati in Immunofluorescenza Indiretta (IFI), Enzyme-Linked Immunosorbent Assay (ELISA) e Western Blot (WB), al fine di valutare l’applicazione di queste metodiche a scopi diagnostici ed epidemiologici. L’elaborazione statistica dei risultati ottenuti conferma l’IFI metodica gold standard per la diagnosi della LCan. Inoltre, si è osservato che il grado di concordanza tra l’IFI e le altre due metodiche aumenta quando nell’animale si instaura una risposta anticorpale forte, che, corrisponderebbe ad uno stato di infezione in atto.
Resumo:
This work describes the development of a simulation tool which allows the simulation of the Internal Combustion Engine (ICE), the transmission and the vehicle dynamics. It is a control oriented simulation tool, designed in order to perform both off-line (Software In the Loop) and on-line (Hardware In the Loop) simulation. In the first case the simulation tool can be used in order to optimize Engine Control Unit strategies (as far as regard, for example, the fuel consumption or the performance of the engine), while in the second case it can be used in order to test the control system. In recent years the use of HIL simulations has proved to be very useful in developing and testing of control systems. Hardware In the Loop simulation is a technology where the actual vehicles, engines or other components are replaced by a real time simulation, based on a mathematical model and running in a real time processor. The processor reads ECU (Engine Control Unit) output signals which would normally feed the actuators and, by using mathematical models, provides the signals which would be produced by the actual sensors. The simulation tool, fully designed within Simulink, includes the possibility to simulate the only engine, the transmission and vehicle dynamics and the engine along with the vehicle and transmission dynamics, allowing in this case to evaluate the performance and the operating conditions of the Internal Combustion Engine, once it is installed on a given vehicle. Furthermore the simulation tool includes different level of complexity, since it is possible to use, for example, either a zero-dimensional or a one-dimensional model of the intake system (in this case only for off-line application, because of the higher computational effort). Given these preliminary remarks, an important goal of this work is the development of a simulation environment that can be easily adapted to different engine types (single- or multi-cylinder, four-stroke or two-stroke, diesel or gasoline) and transmission architecture without reprogramming. Also, the same simulation tool can be rapidly configured both for off-line and real-time application. The Matlab-Simulink environment has been adopted to achieve such objectives, since its graphical programming interface allows building flexible and reconfigurable models, and real-time simulation is possible with standard, off-the-shelf software and hardware platforms (such as dSPACE systems).
Resumo:
La tesi si occupa della traduzione di Measure for Measure di Shakespeare scritta da Cesare Garboli e pubblicata nel 1992 con Einaudi nella collana «Scrittori tradotti da scrittori». La traduzione fu concepita per il Teatro Stabile di Torino diretto da Luca Ronconi, che debuttò al teatro Carignano nel 1992 e venne successivamente ripresa, con alcune varianti, dalla compagnia di Carlo Cecchi nel 1998, per una nuova messinscena al teatro Garibaldi di Palermo. A partire dagli esiti più recenti dei Translation Studies, il lavoro sviluppa uno studio comparato, dal punto di vista linguistico e sotto il profilo ermeneutico, fra la traduzione di Garboli, il testo originale nelle due edizioni Arden e Cambridge e le traduzioni italiane di Measure for Measure pubblicate nel Novecento. La parte finale della tesi è dedicata alle messinscene a Torino e a Palermo: un confronto per evidenziare gli elementi che in entrambe appartengono alla strutturazione del testo tradotto e i caratteri specifici degli universi di finzione raffigurati dai due registi.
Resumo:
Satellite SAR (Synthetic Aperture Radar) interferometry represents a valid technique for digital elevation models (DEM) generation, providing metric accuracy even without ancillary data of good quality. Depending on the situations the interferometric phase could be interpreted both as topography and as a displacement eventually occurred between the two acquisitions. Once that these two components have been separated it is possible to produce a DEM from the first one or a displacement map from the second one. InSAR DEM (Digital Elevation Model) generation in the cryosphere is not a straightforward operation because almost every interferometric pair contains also a displacement component, which, even if small, when interpreted as topography during the phase to height conversion step could introduce huge errors in the final product. Considering a glacier, assuming the linearity of its velocity flux, it is therefore necessary to differentiate at least two pairs in order to isolate the topographic residue only. In case of an ice shelf the displacement component in the interferometric phase is determined not only by the flux of the glacier but also by the different heights of the two tides. As a matter of fact even if the two scenes of the interferometric pair are acquired at the same time of the day only the main terms of the tide disappear in the interferogram, while the other ones, smaller, do not elide themselves completely and so correspond to displacement fringes. Allowing for the availability of tidal gauges (or as an alternative of an accurate tidal model) it is possible to calculate a tidal correction to be applied to the differential interferogram. It is important to be aware that the tidal correction is applicable only knowing the position of the grounding line, which is often a controversial matter. In this thesis it is described the methodology applied for the generation of the DEM of the Drygalski ice tongue in Northern Victoria Land, Antarctica. The displacement has been determined both in an interferometric way and considering the coregistration offsets of the two scenes. A particular attention has been devoted to investigate the importance of the role of some parameters, such as timing annotations and orbits reliability. Results have been validated in a GIS environment by comparison with GPS displacement vectors (displacement map and InSAR DEM) and ICEsat GLAS points (InSAR DEM).
Resumo:
This thesis was carried out in the context of a co-tutoring program between Centro Ceramico Bologna (Italy) and Instituto di Tecnologia Ceramica, Castellón de la Plana (Spain). The subject of the thesis is the synthesis of silver nanoparticles and at their likely decorative application in the productive process of porcelain ceramic tiles. Silver nanoparticles were chosen as a case study, because metal nanoparticles are thermally stable, and they have non-linear optical properties when nano-structured, and therefore they develop saturated colours. The nanoparticles were synthesized by chemical reduction in aqueous solution, a method chosen because of its reduced working steps and energy costs. Besides such a synthesis method uses non-expensive and non-toxic raw material. By adopting this synthesis technique, it was also possible to control the dimension and the final shape of the nanoparticles. Several syntheses were carried out during the research work, modifying the molecular weight of the reducing agent and/or the firing temperature, in order to evaluate the influence such parameters have on the Ag-nanoparticles formation. The syntheses were monitored with the use of UV-Vis spectroscopy and the average dimension as well as the morphology of the nanoparticles was analysed by SEM. From the spectroscopic data obtained from each synthesis, a kinetic study was completed, relating the progress of the reaction to the two variables (ie temperature and molecular weight of the reducing agent). The aim was finding equations that allow the establishing of a relationship between the operating conditions during the synthesis and the characteristics of the final product. The next step was finding the best method of synthesis for the decorative application. For such a purpose the amount of nanoparticles, their average particle size, the shape and the agglomeration are considered. An aqueous suspension containing the nanoparticles is then sprayed over the fired ceramic tiles and they are subsequently thermally treated in conditions similar to the industrial one. The colorimetric parameters of the obtained ceramic tiles were studied and the method proved successful, giving the ceramic tiles stable and intense colours.
Resumo:
In the present work qualitative aspects of products that fall outside the classic Italian of food production view will be investigated, except for the apricot, a fruit, however, less studied by the methods considered here. The development of computer systems and the advanced software systems dedicated for statistical processing of data, has permitted the application of advanced technologies including the analysis of niche products. The near-infrared spectroscopic analysis was applied to the chemical industry for over twenty years and, subsequently, was applied in food industry with great success for non-destructive in line and off-line analysis. The work that will be presented below range from the use of spectroscopy for the determination of some rheological indices of ice cream applications to the characterization of the main quality indices of apricots, fresh dates, determination of the production areas of pistachio. Next to the spectroscopy will be illustrated different methods of multivariate analysis for spectra interpretation or for the construction of qualitative models of estimation. The thesis is divided into four separate studies that consider the same number of products. Each one of it is introduced by its own premise and ended with its own bibliography. This studies are preceded by a general discussion on the state of art and the basics of NIR spectroscopy.
Resumo:
The assessment of the RAMS (Reliability, Availability, Maintainability and Safety) performances of system generally includes the evaluations of the “Importance” of its components and/or of the basic parameters of the model through the use of the Importance Measures. The analytical equations proposed in this study allow the estimation of the first order Differential Importance Measure on the basis of the Birnbaum measures of components, under the hypothesis of uniform percentage changes of parameters. The aging phenomena are introduced into the model by assuming exponential-linear or Weibull distributions for the failure probabilities. An algorithm based on a combination of MonteCarlo simulation and Cellular Automata is applied in order to evaluate the performance of a networked system, made up of source nodes, user nodes and directed edges subjected to failure and repair. Importance Sampling techniques are used for the estimation of the first and total order Differential Importance Measures through only one simulation of the system “operational life”. All the output variables are computed contemporaneously on the basis of the same sequence of the involved components, event types (failure or repair) and transition times. The failure/repair probabilities are forced to be the same for all components; the transition times are sampled from the unbiased probability distributions or it can be also forced, for instance, by assuring the occurrence of at least a failure within the system operational life. The algorithm allows considering different types of maintenance actions: corrective maintenance that can be performed either immediately upon the component failure or upon finding that the component has failed for hidden failures that are not detected until an inspection; and preventive maintenance, that can be performed upon a fixed interval. It is possible to use a restoration factor to determine the age of the component after a repair or any other maintenance action.
Resumo:
Introduzione. La movimentazione manuale di carichi è stata recentemente proposta come un possibile determinante del distacco di retina. Al fine di confortare quest’ipotesi, sono stati analizzati i tassi di incidenza di distacco di retina regmatogeno (DRR) idiopatico, trattato chirurgicamente, tra i residenti in Toscana addetti ad attività lavorative manuali, non manuali e casalinghe. Metodi. Le schede di dimissione ospedaliera (SDO) della Toscana contengono anche informazioni codificate sulla categoria generica di impiego. Sono stati utilizzati i dati di tutti i pazienti residenti in Toscana con una SDO emessa da un qualsiasi ospedale italiano nel periodo 1997-2009, con diagnosi principale di DRR (ICD-9: 361,0-361,07 e 361,9) e con DRG 36 (“interventi sulla retina”). Dopo l’eliminazione dei soggetti che non soddisfacevano i criteri di eligibilità, è stato deciso di restringere la popolazione in studio ai soggetti di età 25-59 anni, successivamente classificati in addetti ad attività lavorative manuali, non manuali o casalinghe. Risultati. Sono stati identificati 1.946 casi. Tra gli uomini, gli addetti ad attività lavorative manuali hanno riportato un tasso di incidenza standardizzato per età 1,8 volte più alto rispetto agli addetti ad attività lavorative non manuali (17,4 [IC95%, 16,1–18,7] vs. 9,8 [IC95%, 8,8–10,8]). Tra le donne, i tassi di incidenza standardizzati per età erano 1,9 volte più alti negli addetti ad attività lavorative manuali (11,1 [IC95%, 9,8–12,3]) e 1,7 volte più alti nelle casalinghe (9,5 [IC95%, 8,3–10,8]) rispetto agli addetti ad attività lavorative non manuali (5,7 [IC95%, 4,8–6,6]). Conclusioni. Lo studio mette in evidenza come gli addetti ad attività lavorative manuali siano maggiormente affetti da DRR idiopatico rispetto agli addetti ad attività lavorative non manuali. Questi risultati supportano l’ipotesi che la movimentazione manuale di carichi, che difficilmente può ritrovarsi come compito di attività lavorative non manuali, possa avere un ruolo causale nella genesi della patologia.
Resumo:
Con la presente tesi si è inteso studiare le possibilità applicative di una particolare tipologia strutturale dotata di isolamento sismico “di piano”, intendendosi con ciò una struttura in cui l'intero piano terra, tramite l'inserimento di opportuni elementi dissipativi isteretici ed in analogia al consueto isolamento sismico di base, agisce da “strato” di protezione passiva per i piani sovrastanti. A riguardo, fra le possibili soluzioni per realizzare effettivamente tale isolamento "di piano" è stata considerata la disposizione di particolari elementi dissipativi isteretici di controvento detti Crecent-Shaped Braces, caratterizzati da una forma bilatera o curva, tale comunque da presentare un'eccentricità non nulla fra l'asse del controvento stesso e la linea congiungente gli estremi.
Resumo:
La Comunità Europea, alla luce dei recenti eventi alluvionali occorsi nei Paesi Membri ed al progressivo aumento dei danni economici da essi provocati, ha recentemente emanato una direttiva (Direttiva Europea 2007/60/CE, Flood Directive) per la valutazione e la predisposizione di piani di gestione del rischio idraulico alluvionale. Con riferimento a tale contesto l’attività di ricerca condotta si è concentrata sulla valutazione delle potenzialità offerte dalla modellistica numerico-idraulica mono e bidimensionale quale strumento per l’attuazione della Direttiva 2007/60. Le attività sono state affrontate ponendo particolare attenzione alla valutazione dei termini di incertezza che caratterizzano l’applicazione dei modelli numerico-idraulici, esaminando i possibili effetti di tale incertezza sulla mappatura della pericolosità idraulica. In particolare, lo studio si concentra su diversi tratti fluviali del corso medio inferiore del Fiume Po e si articola in tre parti: 1) analisi dell’incertezza connessa alla definizione delle scale di deflusso in una generica sezione fluviale e valutazione dei suoi effetti sulla calibrazione dei modelli numerici quasi-bidimensionali (quasi-2D); 2) definizione di mappe probabilistiche di allagamento per tratti fluviali arginati in presenza di tre sorgenti di incertezza: incertezza nelle condizioni al contorno di monte, nelle condizioni di valle e nell’identificazione delle eventuali brecce arginali; 3) valutazione dell’applicabilità di un modello quasi-2D per la definizione, a grande scala spaziale, di strategie alternative al tradizionale rialzo dei manufatti arginali per la mitigazione del rischio alluvionale associato a eventi di piena catastrofici. Le analisi condotte, oltre ad aver definito e valutato le potenzialità di metodologie e modelli idraulici a diversa complessità, hanno evidenziato l’entità e l’impatto dei più importanti elementi d’incertezza, sottolineando come la corretta mappatura della pericolosità idraulica debba sempre essere accompagnata da una valutazione della sua incertezza.