299 resultados para Rustichelli-Valori
Resumo:
La ricerca riguarda lo studio delle modifiche indotte dalla diffusione di acqua e umidità nelle pavimentazioni stradali con riferimento ai materiali bituminosi. Lo scopo è stato quello di analizzare le implicazioni che si sviluppano a livello chimico e reologico in vari bitumi. In questo progetto oltre alla fase sperimentale, è stato utilizzato un software per la simulazione agli elementi finiti. Per quanto concerne la fase di laboratorio, è stato sviluppato un nuovo protocollo di condizionamento. Tre diversi bitumi sono stati soggetti alla diffusione di acqua in forma liquida o vapore, a determinate condizioni ambientali e per svariati intervalli temporali. Grazie a l’utilizzo di due camere climatiche il condizionamento è stato realizzato in modo uniforme a precisi valori temperatura e umidità mantenuti stabili. I materiali analizzati: un bitume soft, uno hard, ed infine uno modificato con l’aggiunta di polimeri. Il dispositivo FTIR-ATR è stato utilizzato per la caratterizzazione chimica, mentre il comportamento reologico è stato analizzato tramite test eseguiti con il DSR. Le avanzate tecnologie presenti nel laboratorio della TU Delft hanno consentito di ottenere notevoli risultati. L’analisi è stata condotta con l’obiettivo di evidenziare i diversi cambiamenti indotti dalla diffusione di acqua liquida o vapore e per analizzare l’influenza della temperatura, del tipo del bitume e dell’incremento del tempo di condizionamento. Una analisi analoga è stata condotta parallelamente, con lo scopo di investigare la correlazione tra il processo di invecchiamento e la diffusione di umidità. Infine, la simulazione agli elementi finiti è stata sviluppata tramite il software CAPA-3D per analizzare il comportamento del bitume in periodi più estesi di diffusione di umidità. Inoltre, il comportamento dei bitumi è stato studiato anche in presenza di particelle di riempitivo. Particelle granitiche e calcaree sono state aggiunte ai bitumi in differenti percentuali.
Resumo:
In questo elaborato si affronta lo studio della tecnica di sopraelevazione di edifici esistenti in muratura con strutture in legno di tipo XLAM. Le sopraelevazioni, sebbene non siano una tipologia di intervento ancora così diffusa in Italia, offrono numerosi vantaggi e, in tale contesto, le caratteristiche del legno si prestano perfettamente a rendere vantaggioso e pratico questo sistema costruttivo. Partendo dall’analisi delle diverse caratteristiche e proprietà meccaniche che contraddistinguono la muratura e il legno, viene trattata l’interazione tra i due materiali all’interno della medesima struttura, concentrandosi sulla corretta progettazione degli elementi di collegamento. Vengono creati una serie di modelli agli elementi finiti per riprodurre il comportamento di un edificio esistente in muratura allo stato di fatto e a seguito degli interventi di sopraelevazione, analizzando le sollecitazioni che la parte di struttura sopraelevata genera sulla sottostruttura. Lo studio prevede la variazione dell’input sismico, prendendo in considerazione diversi valori di accelerazione di picco (da 0,35g a 0,05g). Particolare attenzione viene riservata per i collegamenti metallici tra sopraelevazione lignea e sottostruttura in muratura. Si propongono due diverse tecniche di sopraelevazione in XLAM: a parete unica e a pareti separate.
Resumo:
In questa tesi si presenta la realizzazione di un data-set ad alta risoluzione (30 secondi d'arco) di precipitazioni mensili (per il periodo 1921-2014), per la regione del Trentino-Alto Adige. Esso è basato su una densa rete di stazioni con osservazioni di lunga durata, sottoposte ai necessari controlli di qualità. La tecnica di interpolazione si basa sull'assunzione che la configurazione spazio-temporale del campo di una variabile meteorologica su una certa area possa essere descritta con la sovrapposizione di due campi: i valori normali relativi a un periodo standard (1961-1990), ossia le climatologie, e le deviazioni da questi, ossia le anomalie. Le due componenti possono venire ricostruite tramite metodologie diverse e si possono basare su data-set indipendenti. Per le climatologie bisogna avere un elevato numero di stazioni (anche se disponibili per un lasso temporale limitato); per le anomalie viceversa la densità spaziale ha un rilievo minore a causa della buona coerenza spaziale della variabilità temporale, mentre è importante la qualità dei dati e la loro estensione temporale. L'approccio utilizzato per le climatologie mensili è la regressione lineare pesata locale. Per ciascuna cella della griglia si stima una regressione lineare pesata della precipitazione in funzione dell'altitudine; si pesano di più le stazioni aventi caratteristiche simili a quelle della cella stessa. Invece le anomalie mensili si ricavano, per ogni cella di griglia, grazie a una media pesata delle anomalie delle vicine stazioni. Infine la sovrapposizione delle componenti spaziale (climatologie) e temporale (anomalie) consente di ottenere per ogni nodo del grigliato una serie temporale di precipitazioni mensili in valori assoluti. La bontà dei risultati viene poi valutata con gli errori quadratici medi (RMSE) e i coefficienti di correlazione di Pearson delle singole componenti ricostruite. Per mostrare le potenziali applicazioni del prodotto si esaminano alcuni casi studio.
Resumo:
In questa tesi si è studiato uno dei principali processi nelle stelle responsabili della nucleosintesi degli elementi pesanti dopo il 56Fe, il processo-s. In particolare sono state illustrate le sorgenti di neutroni che alimentano questo processo e si è analizzata la reazione 22Ne (α,n) 25Mg. Per costruire un valido modello matematico di questo processo è necessario conoscere in maniera accurata il reaction rate di questa reazione. Conseguentemente è necessario conoscere la sezione d'urto di tale reazione in maniera molto accurata. Sono stati condotti diversi esperimenti nel tentativo di valutare la sezione d'urto per via diretta, facendo collidere un fascio di particelle α su un campione di 22Ne. Queste rilevazioni hanno dato esiti non soddisfacenti nell'intervallo di energie riguardanti il processo-s, in quanto, a causa di disturbi dovuti al fondo di raggi cosmici e alla barriera Coulombiana, non è stato possibile osservare risonanze per valori di energie delle particelle α minori di (832± 2) keV. Per colmare la mancanza di dati sperimentali si è deciso di studiare gli stati eccitati del nucleo composto 26Mg tramite la reazione inversa 25Mg+n alle facility n_TOF, situata al CERN, e GELINA al IRMM. Le misure effettuate hanno mostrato diverse risonanze al di sotto di (832±2) keV, compatibili con le spin-parità di 22Ne e α. In seguito è stato stimato il loro contributo al reaction rate e i risultati hanno mostrato che per temperature tipiche di stelle massive il contributo di queste risonanze è trascurabile ma risulta di grande rilevanza alle temperature tipiche delle stelle appartenenti al ramo asintotico delle giganti (AGB).
Resumo:
Il lavoro di questa tesi si propone di esaminare i dati di immagini cerebrali ricevuti da due differentii bobine RF per l'imaging in risonanza magnetica. La strumentazione utilizzata é: un apparecchio di RMN che utilizza uno scanner a 1.5T (GE Medical System signa HDx 15) e due differenti bobine a radiofrequenza: 1) 8-channel brain phased array coil GE (1.5T HD 8 Channel High Resolution Head Array per il GE HDx MR System); 2) GE Quad HEAD Birdcage Coil. I software utilizzati invece sono stati quattro, due per la segmentazione e la parcellizzazione dei dati dalle acquisizioni di MRI (FSL e Freesurfer), e due per l'analisi dei dati (SPSS e Microsoft Excel). I tool utilizzati di FSL sono stati SIENA, per un'indagine sulla variazione percentile della totalitá del volume cerebrale; SIENAX invece permette una segmentazione di volumi di 6 sotto regioni: sostanza grigia (GREY), sostanza bianca (WHITE), totalitá del cervello (BRAIN), liquor cerebrospinale dei ventricoli (vcsf), scaling volumetrico (vscaling), sostanza grigia periferica (pgrey). Freesurfer invece parcellizza la corteccia cerebrale e segmenta le zone della sostanza grigia profonda cerebrale. Lo scopo ultimo era quello di analizzare come la differenza di segnale acquisito dalle due bobine variasse i risultati delle analisi volumetriche delle immagini e vedere se il t-test evidenziasse variazioni sistematiche. Questa analisi aveva come scopo quello di determinare la possibilità di confrontare i soggetti i cui dati sono stati ottenuti con due bobine differenti. I dati analizzati non hanno evidenziato particolari differenze tra le due bobine, se non per i valori del liquor dei ventricoli che sono risultati variare, verosimilmente, per i processi fisiologici di atrofia della sostanza grigia cerebrale che avvengono nel tempo intercorso tra un'acquisizione e l'altra.
Resumo:
La sostituzione totale di caviglia o artroplastica totale di caviglia (Total Ankle Replacement - TAR) è un'operazione eseguita per sostituire le superfici di contatto delle ossa di tibia e astragalo mediante componenti protesiche e sta diventando una comune procedura chirurgica per il trattamento dell’ultimo stadio di osteoartrite di caviglia. La morfologia articolare della caviglia e la relativa cinematica sono molto complesse. Gli attuali dispositivi per TAR soffrono ancora di alti tassi di insoddisfazione e fallimento, probabilmente a causa dei relativi disegni protesici non pienamente rispettosi della normale morfologia di caviglia e del normale trasferimento dei carichi articolari. Recentemente, è stato proposto un nuovo disegno basato su un originale postulato che approssima la superficie articolare talare in modo maggiormente fisiologico, come un tronco di cono a sella con apice diretto lateralmente. L'obiettivo di questa tesi di laurea è di valutare sperimentalmente, mediante il supporto del navigatore chirurgico, il comportamento cinematico derivante dall’impianto del dispositivo TAR basato sul nuovo postulato e di confrontarlo con la cinematica derivante dalla caviglia intatta e derivante da modelli protesici basati sui disegni più comunemente utilizzati. Dieci arti inferiori da cadavere con caviglie intatte e normali, sono state scansionati via CT. Le immagini di caviglia sono state poi segmentate per la produzione dei modelli virtuali articolari. Questi sono stati prodotti sia basandosi sul nuovo postulato sia su quelli standard, e successivamente stampati in materiale plastico via 3D-printing. I risultati ottenuti a seguito di elaborazioni confermano che il nuovo dispositivo sembra riprodurre meglio rispetto agli altri, il fisiologico comportamento funzionale della caviglia, presentando valori prossimi a quelli della caviglia naturale.
Resumo:
L’energia è uno dei più importanti fattori dello sviluppo di ogni attività sociale ed economica. La carenza o addirittura l’assenza di risorse energetiche nazionali non può che incidere negativamente sullo sviluppo di un Paese. La disponibilità, in particolare, di fonti energetiche fossili da valorizzare accortamente influisce positivamente sulle possibilità di sviluppo socio-economico, industriale ed occupazionale di un Paese e quindi sul benessere sociale, oltre a costituire valida alternativa alla loro importazione con ovvi benefici sulla riduzione o addirittura azzeramento della dipendenza da altri Paesi produttori e quindi sulla bilancia dei pagamenti. A causa delle ridotte potenzialità giacimentologiche, tali che la produzione di idrocarburi liquidi e gassosi si attesti attualmente su valori inferiori al 10% rispetto al fabbisogno energetico, l’Italia è altamente dipendente dall’importazione di combustibili fossili e ha quindi evidente necessità di utilizzare appieno le riserve nazionali di idrocarburi oltre che di incrementare la fase di ricerca nell’ottica di scoperta di nuovi giacimenti che possono reintegrare le riserve prodotte. Gli idrocarburi esistenti nel sottosuolo marino nazionale costituiscono una risorsa che contribuisce apprezzabilmente alla sicurezza energetica del Paese, poiché gran parte della percentuale di produzione nazionale deriva da quanto prodotto nell’offshore italiano. L’industria italiana degli idrocarburi ha avuto da sempre particolare attenzione alla ricerca tecnologica, alla capacità tecnico-professionale, alla cultura mineraria nelle sue diverse diramazioni disciplinari, adottando metodologie operative improntate al rigoroso rispetto della normativa nazionale di settore che si colloca tra le più rigide in campo internazionale, sia per quanto riguarda la sicurezza delle operazioni e degli addetti ai lavori sia la tutela ambientale.
Resumo:
Il principale componente non idrocarburico contenuto nel gas naturale è l’acqua che viene rimossa mediante assorbimento con glicole trietilenico, il processo di trattamento più comune nella produzione di gas naturale. La presenza di acqua libera nel gas deve essere rimossa totalmente, per evitare la formazione di condensa nelle condizioni di trasporto e di distribuzione più critiche cioè a pressione elevata e a bassa temperatura. Obiettivo di questa tesi è l’analisi delle cause e dei fenomeni che portano a rilevanti perdite di glicole (TEG) in impianti di disidratazione del gas naturale operanti con elevate concentrazioni di CO2 e H2S nel gas di processo. Le perdite, in relazione alle diverse condizioni operative e concentrazioni dei gas menzionati, possono arrivare a raggiungere valori pari a 3-4 volte l'entità attesa, con punte che raggiungono 10 volte tali valori. Il lavoro di tesi è stato focalizzato su un impianto attualmente in esercizio, situato in Arabia Saudita. L’attività è stata condotta presso la Comart di Ravenna, azienda specializzata nella progettazione di impianti nel settore Oil&Gas. Inizialmente sono state studiate le caratteristiche di un impianto di disidratazione di gas naturale mediante assorbimento con glicole trietilenico. Dopo l’analisi delle possibili fonti di perdita, la colonna di alimentazione del ribollitore (Still Column) e il relativo condensatore, sulla base dei dati operativi degli impianti, sembra essere il punto su cui si concentrano le perdite. Vengono presentati i dettagli costruttivi di tale colonna al fine di determinarne i possibili malfunzionamenti. Scopo della tesi sarà l'identificazione, partendo dall'attuale configurazione dell’impianto, delle cause che portano a tali valori di perdite e l'individuazione di una configurazione colonna/condensatore (con eventuali altri equipment necessari) in grado di minimizzare le perdite contenendo al minimo i costi aggiuntivi della soluzione.
Resumo:
L'EGR (Exhaust Gas Recirculation) è una tecnica comunemente sfruttata per la riduzione delle emissioni. In questo studio sono stati investigati i benefici, in termini di fuel economy, prodotti dall'aggiunta di un circuito EGR long route su un motore diesel per applicazioni automobilistiche dotato di sistema short route. L'indagine è stata svolta su di un modello motore su software GT-Power, adeguatamente calibrato e validato sui dati da piano quotato. Simulazioni sono state svolte al fine di valutare gli effetti del solo LP-EGR sul motore, per poi considerare un funzionamento combinato dai due sistemi di ricircolo (dual loop). Le maggiori portate che per il sistema long route interessano la turbina determinano un incremento nelle contropressioni. Ciò ha portato a considerare la possibilità di modificare il sistema turbo. Il layout originario comprendeva una turbina a geometria fissa (FGT), a cui ne sono stati affiancati due ulteriori con turbina a geometria variabile (VGT). I risultati sono stati analizzati vincolando la produzione di inquinanti ai valori registrati nei punti di calibrazione relativi al layout originale del motore. Effettivo risparmio di combustibile non è stato riscontrato nell'allestimento con turbina FGT a causa delle elevate contropressioni, mentre con turbine VGT è stata registrata una effettiva fuel economy grazie al sistema LP-EGR senza alcun deterioramento nelle emissioni di NOx e PM. I benefici riscontrati con il LP-EGR sono da attribure ad un incremento del rendimento indicato dovuto alla riduzione delle perdite per scambio termico a seguito di una minore temperatura caratterizzante i gas ricircolati.
Resumo:
In un paese come l’Italia sempre più investito dal fenomeno del multiculturalismo come conseguenza dell’immigrazione, la lingua è elemento di scambio culturale e linguistico, determinante nella negoziazione delle identità diverse che si incontrano. L’apprendimento e, di conseguenza, la conoscenza della lingua del paese ospitante, costituiscono per l’immigrato il primo fattore di integrazione nonché vettore della propria cultura e dei propri valori, difficilmente trasmissibili ai parlanti nativi nella lingua d’origine. Essendo dunque la questione della lingua per gli immigrati, una prospettiva di indagine di estrema importanza e attualità, ho deciso di farne l’oggetto della mia tesi di fine percorso di studi universitario. Partirò con un’analisi della nascita dell’italiano come lingua di studio e dunque come lingua seconda, sino ad arrivare ai risultati ottenuti dalla linguistica e dalla glottodidattica. Analizzerò quelli che erano i destinatari e i docenti dell’italiano L2 di un tempo, e quelli che invece sono oggi i principali protagonisti dello studio della nostra lingua e i nuovi insegnanti, mettendo in luce le diversità nei metodi e negli scopi. Presenterò i fenomeni e i fattori coinvolti nell’italiano L2 degli immigrati e quelli derivanti dall’incontro delle lingue d’origine di quest’ultimi con la lingua italiana. Non mancherà infatti la riflessione sugli altri attori in gioco, noi italiani, in quanto società ospitante, che nella nostra messa in scena quotidiana, attraverso i comportamenti linguistici, esterniamo il nostro sentimento nei riguardi degli immigrati, sia esso di inclusione o di esclusione. Infine farò un excursus sulla letteratura dell’immigrazione, la quale rappresenta la concretizzazione di quanto verrà detto sulla questione della lingua, analizzando infatti attraverso le varie fasi storiche, proprio le diverse visioni degli scrittori e quindi dei protagonisti delle loro opere in merito alla propria identità linguistica.
Resumo:
La maggior parte dei mercati sono ormai caratterizzati da una elevata incertezza e da una bassa stabilità per quanto riguarda sia il progresso tecnologico che i bisogni e le richieste dei clienti; l’unica arma che le aziende possiedono per fare fronte alla mutabilità intrinseca dei contesti in cui operano è il continuo rinnovo dei prodotti e dei processi. Possiamo vedere l’innovazione, all’interno di un contesto aziendale, come il risultato di diversi fattori: l’evoluzione delle opportunità tecnologiche di prodotto e di processo, i nuovi modelli di impresa, i nuovi valori che si affermano nella società, i nuovi bisogni dei mercati. La prima parte di questa tesi è incentrata sulla descrizione della natura dell’innovazione, delle sue diverse applicazioni all’interno di un contesto aziendale e delle logiche di funzionamento delle aree aziendali preposte alla gestione dei progetti innovativi. Nella seconda parte si entra più nel dettaglio trattando alcuni aspetti distintivi dell’attività innovativa all’interno del mercato degli elettrodomestici ed analizzando uno specifico caso reale. La scelta della focalizzazione sul mercato degli elettrodomestici non è casuale, infatti la terza e ultima parte di questa trattazione è costituita dalla descrizione dell’attività svolta all’interno del Laboratorio di Gestione Aziendale (Business Game) seguito durante il primo semestre di quest’anno e che ha riguardato la simulazione della gestione di un’azienda produttrice di lavatrici e asciugabiancheria.
Resumo:
Il presente elaborato propone un’analisi in regime dinamico mediante il software di simulazione TRNSYS di un impianto solare termico per la produzione di acqua calda sanitaria istallato in un condominio a Bologna. Le simulazioni rappresentano una particolare tipologia di esperimento numerico e possono fornire lo stesso tipo di informazioni sulle performance termiche dei comuni esperimenti fisici. Esse possono valutare gli effetti delle variabili di progetto sulle performance del sistema attraverso una serie di esperimenti, eseguiti tutti in identiche condizioni metereologiche e di carico. Le variabili di progetto esaminate in questo documento mediante simulazione sono l’inclinazione e orientamento del collettore, la superficie captante totale istallata, il volume di accumulo e la portata massima del circuito solare. Le analisi esposte sono un esempio dei risultati che un approccio simulativo può garantire; nel nostro caso, in particolare, le simulazioni hanno confermato la bontà dei criteri di dimensionamento degli impianti solari termici che è possibile incontrare in letteratura. Il presente elaborato si propone inoltre di discutere i benefici, ambientali ed economici, legati all’investimento proposto. L’analisi economica, in particolare, è stata eseguita a seconda dell’impianto tradizionale da affiancare, del diverso costo dell’impianto, di differenti valori di superficie captante e considerando o meno gli incentivi fiscali offerti: per questa valutazione è stato nuovamente necessario l’ausilio del software di simulazione.
Resumo:
L'elaborato è focalizzato sul dimensionamento di un sistema solare termico da integrare ad una caldaia a metano in una palestra di riferimento. Sono state condotte simulazioni dinamiche in ambiente Trnsys per analizzare il consumo energetico dell'utenza termica, eseguite anche al variare dei valori di differenti variabili. Infine sono state condotte valutazioni economiche, tramite parametri finanziari, per decretare la fattibilità e la convenienza dell'investimento.
Resumo:
L’obiettivo di questa tesi di Laurea è stato di analizzare gli scambi termici radiativi che si verificano all’interno di una stanza; per eseguire questa analisi si sono calcolati i fattori di vista Fij tra diversi punti (i) definiti tramite una griglia regolare posta all’interno della stanza e le superfici che vi si affacciano (j); tale griglia prevede 25 punti posti a 3 altezze diverse, per un totale di 75 punti. Dalla conoscenza delle temperature superficiali si sono ottenuti i valori di temperatura media radiante nei punti della griglia, e successivamente i valori degli indici di benessere PMV (voto medio previsto) e PPD (percentuale prevista di insoddisfatti), fissando i parametri necessari. Il calcolo dei fattori di vista è stato eseguito tramite il software TRISCO®, dopo averne confrontato i risultati forniti con COMSOL® e dopo aver valutato la correttezza di alcune approssimazioni. Il modello utilizzato nelle simulazioni è costituito da una stanza di 5x5x2,8 m, in cui sono stati fatti variare il numero e la posizione di alcuni elementi caratterizzanti, come finestre e radiatori, oltre a tipologia di elementi scaldanti e posizione e numero di pareti esterne, tramite la variazione delle temperature. In seguito si è analizzata la potenza scambiata per irraggiamento dagli elementi scaldanti, per poter riconoscere gli elementi responsabili dei maggiori contributi; nel caso di pavimento o soffitto radiante si è divisa tale superficie in diverse porzioni per riconoscere le zone della superficie radiante più influenti. I risultati ottenuti mostrano che la presenza di radiatori, finestre o pareti esterne, introducendo elementi di disturbo asimmetrici, forniscono andamenti disuniformi di temperatura e PMV, con l’omogeneità che migliora allontanandosi da tali elementi; impianti a pavimento o soffitto radiante producono risultati decisamente migliori, sia per quanto riguarda i valori assoluti di temperatura e PMV, che nell’omogeneità della relativa distribuzione.
Resumo:
Alla base delle analisi di radioprotezione di una azienda sanitaria si potrebbero considerare quattro settori da cui partire: le attività svolte che presentano un rischio dal punto di vista radiologico, gli apparecchi radiogeni, i locali all'interno del quale si svolgono le attività e infine i lavoratori, che devono essere classificati o meno in base ai valori di dose efficace a cui vengono esposti. In questo elaborato si vuole presentare un nuovo modello informatico di gestione, definito activity-oriented perché volto a portare le attività al centro dell'indagine di radioprotezione così da poter strutturare di conseguenza anche i dati relativi ad apparecchiature, locali e lavoratori, in modo da avere un visione completa dell’azienda così da facilitarne il monitoraggio. Tale modello è stato creato negli ultimi anni nell’azienda USL di Forlì e contemporaneamente è stato sviluppato un software che permette di automatizzare parte dei lavori di competenza dell’Esperto Qualificato. Applicando tali strumenti sull’Azienda USL della Romagna Area Territoriale di Ravenna è stato possibile passare da una gestione cartacea, priva di modellizzazione informatica, ad una gestione basata sul concetto di attività a rischio radiologico. Verranno evidenziati i passaggi che sono stati necessari per un corretto adattamento dello schema e inoltre verranno presentati i risultati ottenuti. In conclusione si vuole evidenziare come il modello descritto permetta una consistente riduzione del tempo necessario per svolgere le attività di competenza dell'Esperto Qualificato, riducendo inoltre gli errori commessi. Si ha così un guadagno di tempo impiegabile per formare i lavoratori classificati sui rischi che ci sono lavorando con radiazioni ionizzanti e quali possono essere le opportune precauzioni da utilizzare.