470 resultados para Motori a combustione interna, Simulazione, Metodo delle caratteristiche, Sovralimentazione


Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’oggetto di studio di questo lavoro, svolto presso l’azienda Vire Automation del gruppo Bucci Industries di Faenza, è una macchina per il packaging di prodotti igienico-sanitari, più precisamente pannolini baby. Dopo una prima indagine di mercato svolta con l’aiuto dei commerciali dell’azienda, si sono ipotizzate una serie di soluzioni tecniche per migliorare il funzionamento e le prestazioni della macchina. Tramite uno strumento detto Casa della qualità si sono evidenziate le soluzioni tecniche che risultano più apprezzate dal mercato e per questo posseggono una maggior priorità di realizzazione. Si è intervenuti su di un gruppo funzionale per lo spostamento orizzontale del prodotto che agisce superiormente rispetto al pianale di processo e sul trasporto pioli che invece agisce per ostacolo tra cilindri di acciaio ed i prodotti. In particolare per il primo si è realizzato un apposito studio delle grandezze cinematiche in gioco e, dopo una progettazione 3D, si sono stimate le coppie motrici richieste dal nuovo asse che è risultato vantaggioso rispetto al precedente. Per il secondo invece, vista l’esigenza di ottenere un gruppo rifasatore che permettesse alla macchina di funzionare correttamente nonostante i ritardi di arrivo dei prodotti dalla linea di produzione, si è realizzata una nuova gestione logica del gruppo per sopperire alla peggior condizione di funzionamento verificabile e si è riprogettato il gruppo per dotarlo delle nuove necessarie caratteristiche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo lavoro si concentra sullo studio fluidodinamico del flusso multifase cavitante di un iniettore per applicazioni a motori ad iniezione diretta (GDI). L’analisi è stata svolta tramite l’uso del software CFD (Computational Fluid Dynamics) Star-CCM+^® sviluppato da CD-ADAPCO. L’obiettivo di questo studio è investigare i motivi che portano ad un diverso comportamento tra i rilievi della prova sperimentale di caratterizzazione dell’iniettore e quanto atteso dai valori nominali dettati dalla specifica dell’iniettore, con particolare riferimento alla distribuzione di portata fra i diversi ugelli. Il presente lavoro fa parte di una coppia di elaborati collegati tra loro e, pertanto, ha inoltre lo scopo di fornire dati utili allo sviluppo dell’altro tema di analisi mirato alla individuazione di parametri di qualità della miscela aria-combustibile non reagente utili alla previsione della formazione del particolato prodotto dalla combustione di un motore GDI. L’elaborato, costituito di 5 capitoli, è strutturato secondo lo schema sottostante. Nel capitolo 1 vengono presentate le motivazioni che lo hanno avviato e viene esposto lo stato dell’arte della tecnologia GDI. Il capitolo 2 è a sfondo teorico: in esso vengono riportati i fondamenti del processo di cavitazione nella prima parte e i modelli numerici utilizzati nell’analisi nella seconda. Il capitolo 3 descrive la modellazione e successiva validazione dei modelli tramite confronto con il test case ‘Comprensive hydraulic and flow field documentation in model throttle experiments under cavitation conditions’ (E. Winklhofer, 2001). Nella scelta dei modelli e dei parametri relativi, l’analisi si è basata su precedenti lavori trovati in letteratura. Successivamente è stato svolto uno studio di sensibilità per valutare la stabilità della soluzione a piccole variazioni nei valori dei parametri. La scelta dei parametri modellistici nel caso di interesse, l’iniettore multihole, si è basata inizialmente sui valori ‘ottimali’ ottenuti nel test case ed è l’argomento del capitolo 4. All’interno del capitolo si parla inoltre dell’analisi di sensibilità successiva, svolta con lo scopo di comprendere i motivi che portano allo sbilanciamento tra fori corrispondenti e al maggiore sviluppo del getto centrale rispetto agli altri. Nel capitolo 5 dopo un breve riepilogo dei punti fondamentali trattati nello svolgimento dell’elaborato, si tirano le conclusioni sull’analisi e si espongono gli sviluppi futuri.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La documentazione tecnica ha assunto un ruolo fondamentale per i produttori sia per rispondere agli obblighi di legge (v. Direttiva Macchine 2006/42/CE) sia come strumento di marketing. Dato l’alto grado di ripetitività dei manuali di istruzioni e le numerose lingue di destinazione, per la loro traduzione è indispensabile l’uso dei CAT tool. In questo contesto, la presente tesi si pone l’obiettivo di individuare una serie di elementi linguistici che possano fornire informazioni sulla qualità dei testi di partenza in italiano e su cui si possa intervenire per migliorarli, nell’ottica di ottimizzare l’uso dei CAT tool e ridurre il costo delle traduzioni. L’idea alla base del progetto è infatti che le caratteristiche dei testi originali influiscano in maniera fondamentale sulla qualità del risultato finale, così come sul costo del servizio di traduzione. I contenuti sono suddivisi in cinque capitoli. Nel primo capitolo si analizzano gli studi sulla leggibilità dei testi, sulla semplificazione del linguaggio e sui linguaggi specialistici. Nel secondo capitolo si presenta il funzionamento dei CAT tool e si approfondiscono gli aspetti rilevanti per l’ottimizzazione del loro uso nella traduzione dei manuali di istruzioni. Nel terzo capitolo si combinano le conoscenze acquisite nei primi due capitoli e si propone un metodo di revisione dei manuali da sottoporre a traduzione. Tale revisione ha lo scopo di agevolare i CAT tool nel riconoscimento della somiglianza tra le frasi e di permettere di conseguenza un lavoro di traduzione a costi inferiori, senza però perdere di vista la qualità finale del manuale e la sua leggibilità e chiarezza. Nel quarto capitolo si espone l’applicazione pratica del metodo e si analizzano e discutono i risultati ottenuti. Nel quinto capitolo si traggono le conclusioni finali sul metodo proposto e i relativi risultati. Si propongono inoltre argomenti di riflessione e discussione che suggeriscono nuovi scenari e prospettive.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesi di laurea si concentra sulla localizzazione in inglese di varie sezioni del nuovo sito web della Pinacoteca di Brera. Il progetto di localizzazione è stato contestualizzato da un lato all’interno della letteratura sulla comunicazione museale, e dall’altro sulla comunicazione web, per poter avanzare proposte di miglioramento alla luce di ricerche nel campo della SEO (Search Engine Optimization). Lo studio della comunicazione museale si è arricchito grazie all’esperienza di documentazione presso la University of Leicester (UK). La tesi mira a porre le basi per la produzione di contenuti museali adatti ad una lettura sul web, in modo da offrire non solo una traduzione ben fatta dal punto di vista linguistico e culturale, ma anche facilmente fruibile per un utente online e reperibile attraverso motori di ricerca. L’elaborato intende fornire ai musei italiani alcuni spunti di riflessione circa possibili miglioramenti delle proprie piattaforme online grazie alla localizzazione e ad un’analisi approfondita dei contenuti web secondo principi di usabilità e visibilità. Il capitolo 1 introduce la letteratura sugli studi museali, prestando particolare attenzione alla comunicazione. Il capitolo 2 fornisce una panoramica generale sul web: vengono suggerite buone pratiche di web writing, analizzate le strategie di SEO per migliorare la visibilità dei siti e delineato le principali caratteristiche del processo di localizzazione. Il capitolo 3 riunisce i due universi finora esplorati individualmente, ovvero i musei e il web, concentrandosi sulla comunicazione online dei musei e concludendo con uno schema di valutazione dei siti dei musei. Il capitolo 4 applica le strategie precedentemente discusse al caso specifico della Pinacoteca di Brera, concentrandosi sulla valutazione del sito, sulla localizzazione di alcune sezioni e sulla proposta di strategie SEO. Infine, il capitolo 5 tira le fila dell’intero lavoro mettendo in evidenza i principali risultati ottenuti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro di tesi ha avuto lo scopo di valutare l’influenza della marinatura su alcuni aspetti microbiologici e chimico-fisici correlati alla qualità della carne di petto di pollo confezionata sottovuoto durante un periodo di stoccaggio di 14 giorni in condizioni refrigerate. Dalle analisi microbiologiche, è emerso che, nonostante l’aumento di pH dovuto all’azione alcalinizzante del bicarbonato, la shelf-life del prodotto marinato è rimasta invariata rispetto al gruppo di controllo non-marinato ed è stata pari a circa 14 giorni. Dal punto di vista tecnologico, gli ingredienti funzionali aggiunti nella soluzione di marinatura hanno consentito di ottenere livelli di perdite di cottura nel prodotto finito simili a quelli delle carni non-marinate durante tutto il periodo di conservazione. Ciò è riconducibile al notevole aumento della solubilità delle proteine miofibrillari determinato dall’effetto sinergico di cloruro di sodio e bicarbonato. Tuttavia, i prodotti marinati hanno mostrato maggiori perdite di liquido nelle confezioni e questo aspetto può condizionare negativamente la propensione all’acquisto da parte del consumatore. Gli effetti rilevati sul colore non costituiscono invece un elemento determinante nella scelta dei prodotti avicoli confezionati sottovuoto. Infine, è stato escluso qualsiasi effetto negativo della marinatura nei confronti della stabilità ossidativa dei lipidi. I risultati ottenuti in questo lavoro di tesi hanno pertanto dimostrato che è possibile realizzare un prodotto marinato a base di carne di petto di pollo stabile durante la conservazione offrendo così al consumatore un alimento con caratteristiche sensoriali di succulenza e tenerezza superiori e con una maggiore facilità d’uso. Restano da ottimizzare alcuni aspetti legati alla presentazione del prodotto soprattutto in relazione alla presenza di liquido nelle confezioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi descrive il T1 mapping, un metodo diagnostico non invasivo emergente per l’identificazione e la quantificazione della fibrosi atriale. Nel primo capitolo ci si è soffermati sulle caratteristiche del tessuto fibrotico e sulle cause che generano tale patologia tra cui la fibrillazione atriale. Nel secondo capitolo vengono descritte le tecniche non invasive comunemente più utilizzate per la valutazione della fibrosi tra cui: sistemi di mappaggio elettronanatomico e risonanza magnetica cardiaca con l’uso di mezzo di contrasto. Nel terzo capitolo sono approfondite tutte le sequenze necessarie per la costruzione di mappe di tempi T1 indagando anche sui fattori a cui la tecnica è più sensibile. Infine è stato dedicato ampio spazio a ricerche mediche sulla correlazione tra i tempi T1 delle camere cardiache, i potenziali elettroanatomici delle stesse e la probabilità di sviluppare fibrillazioni atriali recidive in alcuni pazienti sottoposti ad ablazione transcatetere.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo lavoro di tesi nasce con l'obbiettivo di studiare il modello di Guyton, proponendone una versione più dettagliata con lo scopo di utilizzarla poi come strumento di indagine per una patologia nota come atresia tricuspidale. Si è giunti così alla creazione di un modello ibrido del sistema cardiovascolare che vede la modellizzazione, a parametri concentrati, dell’intera rete circolatoria interfacciata con una rappresentazione dell' attività cardiaca mediante le cosidette curve di funzionalità. Nello specifico si è risaliti ad un modello della cicolazione cardiocircolatoria separando quella che è la circolazione sistemica dalla circolazione polmonare secondo il sopracitato modello di Guyton, dopo di chè si è trovato un analogo modello per pazienti sottoposti all' intervento di Fontan poiché affetti da atresia tricuspidale.Tramite l'ausilio del software Matlab sono stati implementati questi due modelli semplificati (“Guyton biventricolare” e “Guyton monoventricolare”) e il corrispondente algoritmo risolutivo, con l'obiettivo di verificare, graficamente e numericamente, i risultati ottenuti dalla simulazione.Una volta accertatisi della attendibilità dei risultati, mediante il confronto con dati fisiologici dai manuali e dagli articoli su cui si è fondato questo elaborato, si è proceduto alla simulazione di casi fisiologici di attività fisica e di malfunzionamento del ventricolo sinistro.L'utilizzo di un modello matematico per la circolazione permette di studiare e simulare l'interazione di diversi sistemi fisiologici superando il problema che si ha in ambito clinico, dove l'analisi è più complessa perchè la misurazione delle numerose variabili fisiologiche è indaginosa e a volte non fattibile.Fine ultimo dell'elaborato tuttavia non è quello di dare valutazioni cliniche dei casi presi in esame e delle loro variabili, ma quello di presentare un metodo per studiare come la fisiologia della circolazione umana reagisce a dei cambiamenti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’acquifero superficiale della Provincia di Ferrara è caratterizzato dalla presenza di una diffusa contaminazione da Arsenico. Per dare una risposta a questo fenomeno gli Enti della Provincia e del Comune hanno deciso di intraprendere uno studio volto alla determinazione dei valori di fondo del metalloide ed al miglioramento della comprensione del fenomeno. Il lavoro ha portato alla creazione di tre database con i dati presenti negli archivi provinciali inerenti: ubicazione e caratteristiche dei piezometri, dati idrochimici, concentrazione di Arsenico. L’acquifero superficiale è l’A0, olocenico, che si presenta eterogeneo per via della sua evoluzione geologica. Da uno studio stratigrafico ed idrogeologico si è visto come l’area sia costituita, andando da Ovest verso Est, da corpi alluvionali-deltizio-costieri olocenici in eteropia di facies. L’area centro-orientale è caratterizzata da un ciclo sedimentario trasgressivo-regressivo caratterizzato, nella parte superiore, dalla progradazione di un antico delta del Po. In tale ambiente si sono andati formando depositi ricchi in materia organica e in torba. Questi possono assumere una rilevante importanza nello spiegare il fenomeno, poiché possono svolgere sia il ruolo di sorgente dell’Arsenico che di redox driver attraverso la loro decomposizione. Elaborando i dati sono emersi elementi che sembrano confermare l’azione di un meccanismo di dissoluzione riduttiva che rilascia l’Arsenico, come mostrato dai cross plot tra Arsenico e Potenziale Redox, Ferro e Potenziale Redox, Arsenico e Ferro, Ferro e Manganese. L’area è stata suddivisa in tre zone, in cui la centrale corrisponde all’area ricca in materia organica. Sulla base delle tre aree individuate si è proceduto alla creazione di tre popolazioni di dati sottoposte ad analisi statistica. Quindi si è dimostrata l’assenza di contaminazione antropica, si sono esclusi i dati non significativi, si sono trattati i non detected e si sono individuati ed eliminati gli outlier. Infine si è proceduto alla determinazione della migliore distribuzione per ogni popolazione. Fatto ciò si è calcolato il 95° percentile, che è stato assunto come valore di fondo dell’area. Si è visto come tutti i tre valori di fondo superassero la CSC ed in particolare il valore di fondo dell’area centrale risultasse nettamente superiore agli altri due, superando la CSC di circa 10 volte. Questo ad ulteriore conferma della possibile azione della torba nel rilascio di Arsenico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La malattia aterosclerotica presenta elevate morbilità e mortalità in gran parte del mondo e poterla diagnosticare prima che essa porti a un evento acuto (ictus) comporta indiscutibili vantaggi per la sanità. Il problema a monte della malattia è la presenza di placche aterosclerotiche nei vasi arteriosi. La placca può essere classificata in base alle sue componenti isto-morfologiche in fibrosa, fibrocalcifica o fibroadiposa, che comportano diversi livelli di rischio. In questo elaborato è presentata la procedura CAPSU, che permette la rilevazione e la segmentazione delle placche in modo automatico in immagini eco; è valutata l’efficacia di un tool che permette la classificazione automatica delle placche, già segmentate con il metodo CAPSU. Un esperto ha classificato le placche appartenenti a 44 immagini ecografiche che poi sono state sottoposte all’elaborazione automatica; i risultati si sono rivelati concordi. Sono stati valutati alcuni fattori che potrebbero differenziare univocamente i tipi di placche tra loro (area, eccentricità, minimo, massimo e medio livello di grigio, ecogenicità ed eterogeneità) e a parte i primi due tutti si sono mostrati validi in almeno un confronto tra due tipi di placche. Si è concluso che una classificazione automatica del tutto efficace delle placche carotidee potrebbe essere possibile in seguito a ulteriori sviluppi di questa tecnica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesi intende analizzare il ruolo dell’interprete nel settore della salute mentale tra neutralità e partecipazione attiva. La ricerca è stata condotta nel Belgio francofono, dove il processo di professionalizzazione e armonizzazione ha portato alla creazione di due figure distinte: il mediatore interculturale che opera negli ospedali e l’interprete per i servizi pubblici. Entrambi lavorano nell’ambito della salute mentale. Benché questo settore presenti caratteristiche peculiari che influenzano la partecipazione dell’interprete, non esiste un codice deontologico specifico: quello dei mediatori interculturali è ideato sulle necessità dell’ambito medico, gli interpreti per i servizi pubblici hanno un codice etico generico. Sono stati intervistati quattordici interpreti al fine di ottenere una maggiore comprensione relativa a come concepiscono il loro ruolo, al rispetto del codice deontologico e alla gestione delle emozioni, in un contesto altamente emotivo come quello di una seduta psicoterapeutica. I risultati sono stati analizzati con un metodo qualitativo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo del presente lavoro di tesi è l’implementazione di un metodo per la detezione automatica dei contorni dell’esofago in immagini ecografiche intracardiache acquisite durante procedure di ablazione transcatetere per il trattamento della fibrillazione atriale. Il progetto si è svolto in collaborazione con il laboratorio di elettrofisiologia, Unità Operativa di Cardiologia, Dipartimento Cardiovascolare, dell’ospedale ‘’ S. Maria delle Croci ’’ di Ravenna, Azienda Unità Sanitaria Locale della Romagna e si inserisce in un progetto di ricerca più ampio in cui sono stati sviluppati due differenti metodi per il tracciamento automatico della parete posteriore dell’atrio sinistro. L’obiettivo è consentire al clinico il monitoraggio della posizione dell’esofago rispetto all’atrio sinistro per ridurre il rischio di lesioni della parete esofagea. L’idea di base dell’algoritmo è di lavorare sull’immagine per linee di scansione orizzontali, valutando la distribuzione dei livelli di intensità di grigio. Una volta individuati i punti appartenenti alle pareti anteriore e posteriore dell’esofago, sono stati utilizzati dei polinomi rispettivamente del quarto e secondo ordine per interpolare i dati. Per assicurarsi che la detezione sia corretta è stato introdotto un check aggiuntivo che consente la correzione del risultato qualora il clinico non sia soddisfatto, basandosi su input manuale di due punti richiesto all’operatore. L’algoritmo è stato testato su 15 immagini, una per ogni paziente, e i contorni ottenuti sono stati confrontati con i tracciamenti manuali effettuati da un cardiologo per valutare la bontà del metodo. Le metriche di performance e l’analisi statistica attestano l’accuratezza del metodo. Infine sono state calcolate delle misure di interesse clinico, quali la distanza tra parete posteriore dell’atrio sinistro e parete anteriore dell’esofago e la larghezza media di quest’ultimo che risulta comparabile con quanto riportato in letteratura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi abbiamo provato a definire fino a che punto le misure di sensori siano affidabili, creando un simulatore che sia in grado di analizzare, qualitativamente e quantitativamente, le prestazioni di sensori inerziali facenti parte di sistemi di navigazione inerziale. Non ci siamo soffermati troppo sulle dinamiche dovute agli errori deterministici, che sono eliminabili facilmente mediante prove sperimentali e test, ma abbiamo puntato ad uno studio approfondito riguardante gli errori dovuti a processi stocastici casuali. Il simulatore, programmato sulla piattaforma MATLAB/Simulink, prende i dati grezzi contenuti all’interno dei datasheets dei sensori e li simula, riportando risultati numerici e grafici degli errori risultanti dall’utilizzo di quei specifici sensori; in particolare, esso mette in luce l’andamento degli errori di posizione, velocità ed assetto ad ogni istante di tempo della simulazione. L’analisi effettuata all’interno dell’elaborato ha successivamente condotto all’identificazione dei giroscopi laser come i sensori che soffrono meno di questi disturbi non-sistematici, portandoli ad un livello sopraelevato rispetto ai MEMS ed ai FOG.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il calore contenuto in profondità negli ammassi rocciosi può essere estratto attraverso un sistema geotermico che prevede l’inserimento di tubazioni in corrispondenza del rivestimento del tunnel, all'interno del quale circola un fluido termovettore che assorbe calore dalle pareti circostanti. Il caso di studio analizzato è la Galleria di Mules, un tunnel scavato in metodo tradizionale all'interno del Granito di Bressanone, che funge come unica finestra di accesso sul lato italiano alla Galleria di Base del Brennero (BBT). Essa si sviluppa in direzione ovest-est per una lunghezza pari circa a 1780 m. In fase di esercizio. Attraverso una caratterizzazione geologica e idrogeologica dell’area di interesse, prove di laboratorio su campioni e rilevazioni delle temperature all’interno della galleria, è stato possibile delineare un quadro geotermico dell’area di interesse. I dati raccolti hanno permesso di ricavare un modello 3D delle temperature dell’area e, attraverso un’apposita procedura di calcolo, quantificare il potenziale energetico estraibile dal tratto di galleria considerato. Sulla base dei risultati ottenuti, è stato realizzato uno schema dettagliato della disposizione del circuito sorgente, adattato sul progetto definitivo del rivestimento interno alla Galleria di Mules. In assenza di potenziali utenze termiche nelle vicinanze del portale di accesso, si è ipotizzato di destinare la risorsa geotermica ad una pavimentazione stradale dotata di sistema snow and ice melting. La pavimentazione permetterà il collegamento fra la strada SS12 e l’imbocco del tunnel. E’ stata effettuata una stima dei costi di investimento dell’intero sistema a pompa di calore e, sulla base del fabbisogno energetico dell’utenza considerata, sono stati valutati i costi di esercizio, confrontandoli con altre possibili soluzioni. Lo studio ha dimostrato la fattibilità tecnico-economica di soluzioni di questo tipo e si pone come primo passo per approfondimenti futuri.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nella presente Tesi è affrontata l’analisi sperimentale e teorica del comportamento di pareti in muratura rinforzate con FRCM e sollecitate da azioni di taglio fuori piano. Lo schema statico adottato per i campioni sperimentati consiste in uno schema appoggio-appoggio, mentre le forze esterne di taglio sono state applicate secondo uno schema di carico a quattro punti. Durante il corso della prova, i pannelli murari sono inoltre stati soggetti ad un carico di precompressione verticale costante, che simula l’effetto della presenza del solaio in un edificio in muratura. Dopo una descrizione teorica delle principali caratteristiche dei materiali compositi e dei loro costituenti, all’interno della Tesi sono richiamati alcuni studi scientifici relativi al comportamento fuori piano di elementi strutturali rinforzati con FRCM. In seguito vengono presentati i materiali impiegati per la campagna sperimentale e le prove di caratterizzazione meccanica eseguite. Vengono poi riportati i risultati sperimentali delle prove a taglio fuori piano in termini di spostamenti, di deformazioni e di scorrimenti, affrontando infine un confronto tra i risultati ottenuti per i campioni esaminati e riportando alcune considerazioni circa la strumentazione impiegata. L’ultima parte della Tesi è dedicata all’analisi teorica delle pareti. Viene proposto un modello teorico per stimare la resistenza fornita dai muri rinforzati, ipotizzando tre possibili modalità di rottura: rottura a trazione della fibra, rottura per distacco tra FRCM e supporto in muratura e rottura per delaminazione interna. Infine, viene riportata la modellazione agli elementi finiti svolta mediante il codice di calcolo MidasFea, che consente di attribuire ai materiali legami costitutivi adeguati per la modellazione di strutture in muratura, cogliendone il comportamento non lineare e il progressivo danneggiamento.