937 resultados para Modellazione numerica tridimensionale Plaxis paratia geotecnica interazione terreno-struttura scavi in profondi scavi in sotterrane caratterizzazione geotecnica modelli costitutivi Metro C
Resumo:
In the present study, a new pushover procedure for 3D frame structures is proposed, based on the application of a set of horizontal force and torque distributions at each floor level; in order to predict the most severe configurations of an irregular structure subjected to an earthquake, more than one pushover analysis has to be performed. The proposed method is validated by a consistent comparison of results from static pushover and dynamic simulations in terms of different response parameters, such as displacements, rotations, floor shears and floor torques. Starting from the linear analysis, the procedure is subsequently extended to the nonlinear case. The results confirm the effectiveness of the proposed procedure to predict the structural behaviour in the most severe configurations.
Resumo:
In the early 1970 the community has started to realize that have as a main principle the industry one, with the oblivion of the people and health conditions and of the world in general, it could not be a guideline principle. The sea, as an energy source, has the characteristic of offering different types of exploitation, in this project the focus is on the wave energy. Over the last 15 years the Countries interested in the renewable energies grew. Therefore many devices have came out, first in the world of research, then in the commercial one; these converters are able to achieve an energy transformation into electrical energy. The purpose of this work is to analyze the efficiency of a new wave energy converter, called WavePiston, with the aim of determine the feasibility of its actual application in different wave conditions: from the energy sea state of the North Sea, to the more quiet of the Mediterranean Sea. The evaluation of the WavePiston is based on the experimental investigation conducted at the University of Aalborg, in Denmark; and on a numerical modelling of the device in question, to ascertain its efficiency regardless the laboratory results. The numerical model is able to predict the laboratory condition, but it is not yet a model which can be used for any installation, in fact no mooring or economical aspect are included yet. È dai primi anni del 1970 che si è iniziato a capire che il solo principio dell’industria con l’incuranza delle condizioni salutari delle persone e del mondo in generale non poteva essere un principio guida. Il mare, come fonte energetica, ha la caratteristica di offrire diverse tipologie di sfruttamento, in questo progetto è stata analizzata l’energia da onda. Negli ultimi 15 anni sono stati sempre più in aumento i Paesi interessati in questo ambito e di conseguenza, si sono affacciati, prima nel mondo della ricerca, poi in quello commerciale, sempre più dispositivi atti a realizzare questa trasformazione energetica. Di tali convertitori di energia ondosa ne esistono diverse classificazioni. Scopo di tale lavoro è analizzare l’efficienza di un nuovo convertitore di energia ondosa, chiamato WavePiston, al fine si stabilire la fattibilità di una sua reale applicazione in diverse condizioni ondose: dalle più energetiche del Mare del Nord, alle più quiete del Mar Mediterraneo. La valutazione sul WavePiston è basata sullo studio sperimentale condotto nell’Università di Aalborg, in Danimarca; e su di una modellazione numerica del dispositivo stesso, al fine di conoscerne l’efficienza a prescindere dalla possibilità di avere risultati di laboratorio. Il modello numerico è in grado di predirre le condizioni di laboratorio, ma non considera ancora elementi come gli ancoraggi o valutazione dei costi.
Resumo:
Nel contesto della progettazione di interventi di difesa da frane di crollo, la tesi è rivolta allo studio del comportamento di opere di protezione dalla caduta massi, con particolare riguardo alle barriere paramassi, strutture metalliche progettate per arrestare blocchi in caduta lungo un versante. Specificamente, il comportamento altamente non lineare di queste strutture è stato osservato mediante modellazione numerica agli elementi finiti con codice di calcolo STRAUS 7 v.2.3.3. La formulazione dei modelli è stata sviluppata a partire dai dati contenuti nel Catasto delle opere di protezione (VISO), recentemente messo a punto dalla Provincia Autonoma di Bolzano, nel contesto di una più ampia procedura di analisi della pericolosità di versante in presenza di opere di protezione, finalizzata ad una appropriata gestione del rischio indotto da frane di crollo. Sono stati messi a punto una serie di modelli agli elementi finiti di alcune tra le tipologie più ricorrenti di barriere paramassi a limitata deformabilità. Questi modelli, sottoposti ad una serie di analisi dinamiche e non-lineari, intese a simulare l’impatto di blocchi aventi massa e velocità nota, hanno permesso di osservare la risposta complessiva di queste strutture in regime dinamico identificando i meccanismi di rottura a partire dall’osservazione della formazione di cerniere plastiche, monitorando contestualmente grandezze rilevanti quali gli spostamenti e le forze mobilitate in fondazione. Questi dati, opportunamente interpretati, possono fornire i parametri necessari all’implementazione di più ampie procedure di analisi del rischio indotto da movimenti frane di crollo.
Resumo:
Questa tesi affronta lo studio di una tipologia di vibrazione autoeccitata, nota come chatter, che si manifesta nei processi di lavorazione ad asportazione di truciolo ed in particolare nelle lavorazioni di fresatura. La tesi discute inoltre lo sviluppo di una tecnica di monitoraggio e diagnostica del chatter basato sul rilievo di vibrazioni. Il fenomeno del chatter è caratterizzato da violente oscillazioni tra utensile e pezzo in lavorazione ed elevate emissioni acustiche. Il chatter, se non controllato, causa uno scadimento qualitativo della finitura superficiale e delle tolleranze dimensionali del lavorato, una riduzione della vita degli utensili e dei componenti della macchina. Questa vibrazione affligge negativamente la produttività e la qualità del processo di lavorazione e pregiudica l’interazione uomo-macchina-ambiente. Per una data combinazione di macchina, utensile e pezzo lavorato, i fattori che controllano la velocità di asportazione del materiale sono gli stessi che controllano l’insorgenza del chatter: la velocità di rotazione del mandrino, la profondità assiale di passata e la velocità di avanzamento dell’utensile. Per studiare il fenomeno di chatter, con l’obbiettivo di individuare possibili soluzioni per limitarne o controllarne l’insorgenza, vengono proposti in questa tesi alcuni modelli del processo di fresatura. Tali modelli comprendono il modello viscoelastico della macchina fresatrice e il modello delle azioni di taglio. Per le azioni di taglio è stato utilizzato un modello presente in letteratura, mentre per la macchina fresatrice sono stati utilizzato modelli a parametri concentrati e modelli modali analitico-sperimentali. Questi ultimi sono stati ottenuti accoppiando un modello modale sperimentale del telaio, completo di mandrino, della macchina fresatrice con un modello analitico, basato sulla teoria delle travi, dell’utensile. Le equazioni del moto, associate al processo di fresatura, risultano essere equazioni differenziali con ritardo a coefficienti periodici o PDDE (Periodic Delay Diefferential Equations). È stata implementata una procedura numerica per mappare, nello spazio dei parametri di taglio, la stabilità e le caratteristiche spettrali (frequenze caratteristiche della vibrazione di chatter) delle equazioni del moto associate ai modelli del processo di fresatura proposti. Per testare i modelli e le procedure numeriche proposte, una macchina fresatrice CNC 4 assi, di proprietà del Dipartimento di Ingegneria delle Costruzioni Meccaniche Nucleari e Metallurgiche (DIEM) dell’Università di Bologna, è stata strumentata con accelerometri, con una tavola dinamometrica per la misura delle forze di taglio e con un adeguato sistema di acquisizione. Eseguendo varie prove di lavorazione sono stati identificati i coefficienti di pressione di taglio contenuti nel modello delle forze di taglio. Sono stati condotti, a macchina ferma, rilievi di FRFs (Funzioni Risposta in Frequenza) per identificare, tramite tecniche di analisi modale sperimentale, i modelli del solo telaio e della macchina fresatrice completa di utensile. I segnali acquisiti durante le numerose prove di lavorazione eseguite, al variare dei parametri di taglio, sono stati analizzati per valutare la stabilità di ciascun punto di lavoro e le caratteristiche spettrali della vibrazione associata. Questi risultati sono stati confrontati con quelli ottenuti applicando la procedura numerica proposta ai diversi modelli di macchina fresatrice implementati. Sono state individuate le criticità della procedura di modellazione delle macchine fresatrici a parametri concentrati, proposta in letteratura, che portano a previsioni erronee sulla stabilità delle lavorazioni. È stato mostrato come tali criticità vengano solo in parte superate con l’utilizzo dei modelli modali analitico-sperimentali proposti. Sulla base dei risultati ottenuti, è stato proposto un sistema automatico, basato su misure accelerometriche, per diagnosticare, in tempo reale, l’insorgenza del chatter durante una lavorazione. È stato realizzato un prototipo di tale sistema di diagnostica il cui funzionamento è stato provato mediante prove di lavorazione eseguite su due diverse macchine fresatrici CNC.
Resumo:
Il lavoro di ricerca esplora il panorama dell’efficienza energetica dei sistemi acquedottistici, soffermandosi a considerare possibili indicatori che possano valutarla in maniera corretta e completa, in particolare nei confronti della presenza di perdite in rete. Si prendono in considerazione con maggiore attenzione, tra tutte le strategie per aumentare l’efficienza energetica, quelle che contemporaneamente producono anche risparmi idrici, come la riduzione della pressione e la ricerca attiva delle perdite . Dopo un inquadramento internazionale, sono stati analizzati mediante mappe tematiche di intensità energetica, i consumi energetici specifici sui sistemi acquedottistici della regione Emilia Romagna per gli anni 2006 e 2007, si è passati ad una analisi critica degli indicatori attualmente in uso. Inoltre per casi di studio sintetici e tutti i casi di studio proposti, si sono valutate curve di relazione tra percentuale di perdita idrica e aumento del consumo energetico, in grado di dare indicazioni su come ciascun sistema reagisce, in termini di aumento dell’energia consumata, all’aumentare del livello di perdita. Questa relazione appare fortemente influenzata da fattori come la modalità di pompaggio, la posizione delle rotture sulla rete e la scabrezza delle condotte. E’ emersa la necessità solo poter analizzare separatamentel’influenza sull’efficienza energeticadei sistemi di pompaggio e della rete, mostrando il ruolo importante con cui questa contribuisce all’efficienza globale del sistema. Viene proposto uno sviluppo ulteriore dell’indicatore GEE Global Energy Efficiency (Abadia, 2008), che consente di distinguere l’impatto sull’efficienza energetica dovuto alle perdite idriche e alla struttura intrinseca della rete, in termini di collocazione reciproca tra risorsa idrica e domanda e schema impiantistico.Questa metodologia di analisi dell’efficienza energetica è stata applicata ai casi di studio, sia sintetici che reali, il distretto di Marzaglia (MO) e quello di Mirabello (FE), entrambi alimentati da pompe a giri variabili.. La ricerca ha consentito di mostrare inoltre il ruolo della modellazione numerica in particolare nell’analisi dell’effetto prodotto sull’efficienza energetica dalla presenza di perdite idriche. Nell’ultimo capitolo si completa la panoramica dei benefici ottenibili attraverso la riduzione della pressione, che nei casi citati viene conseguita tramite pompe asservite ad inverter, con il caso di studio del distretto Bolognina all’interno del sistema di distribuzione di Bologna, che vede l’utilizzo di valvole riduttrici di pressione. Oltre a stimare il risparmio energetico derivante dalla riduzione delle perdite ottenuta tramite le PRV, sono stati valutati su modello i benefici energetici conseguenti all’introduzione nel distretto di turbine per la produzione di energia
Resumo:
L’acquifero freatico costiero ravennate è intensamente salinizzato fino a diversi km nell’entroterra. Il corpo dell’acquifero è formato da sabbie che poggiano su un substrato argilloso ad una profondità media di 25 m, i depositi affioranti sono sabbie e argille. Il lavoro svolto consiste in una caratterizzazione dello stato di salinizzazione con metodologie indirette (geoelettrica) e metodologie dirette (letture dei parametri fisici delle acque in pozzo). I sondaggi elettrici verticali (V.E.S.) mostrano stagionalità dovuta alle differenti quantità di pioggia e quindi di ricarica, le aree con depositi superficiali ad alta conducibilità idraulica (sabbie) hanno una lente d’acqua dolce compresa tra 0,1 e 2,25 m di spessore, al di sotto della quale troviamo una zona di mescolamento con spessori che vanno da 1,00 a 12,00 m, mentre quando in superficie abbiamo depositi a bassa conducibilità idraulica (limi sabbiosi e argille sabbiose) la lente d’acqua dolce scompare e la zona di mescolamento è sottile. Le misure dirette in pozzo mostrano una profondità della tavola d’acqua quasi ovunque sotto il livello del mare in entrambi i mesi monitorati, Giugno e Dicembre 2010, presentando una profondità leggermente maggiore nel mese di Dicembre. Dalla ricostruzione litologica risulta un acquifero composto da 4×109 m3 di sabbia, per cui ipotizzando una porosità media del 30% sono presenti 1,2×109 m3 di acqua. Dalla modellazione numerica (Modflow-SEAWAT 2000) risulta che l’origine dell’acqua salata che si trova in falda trova più facilmente spiegazione ipotizzando la sua presenza fin dalla formazione dell’acquifero, residuo delle acque marine che regredivano. Un’altra problematica analizzata è valutare l’applicazione della metodologia a minifiltri in uno studio sulla salinizzazione delle acque di falda. É stata implementata la costruzione di un transetto sperimentale, che ha permesso la mappatura dell’interfaccia acqua dolce/salmastra/salata con una precisione finora non raggiungibile.
Resumo:
L'approvvigionamento di risorse minerali e la tutela dell'ambiente sono spesso considerate attività contrapposte ed inconciliabili, ma in realtà rappresentano due necessità imprescindibili per le società moderne. Le georisorse, in quanto non rinnovabili, devono essere valorizzate in maniera efficiente, adoperando strumenti che garantiscano la sostenibilità ambientale, sociale ed economica degli interventi estrattivi. La necessità di tutelare il territorio e migliorare la qualità della vita delle comunità locali impone alla Pubblica Amministrazione di implementare misure per la riqualificazione di aree degradate, ma fino ai primi anni '90 la normativa di settore non prevedeva strumenti a tal proposito, e ciò ha portato alla proliferazione di siti estrattivi dismessi e abbandonati senza interventi di recupero ambientale. Il presente lavoro di ricerca fornisce contributi innovativi alla pianificazione e progettazione sostenibile delle attività estrattive, attraverso l'adozione di un approccio multidisciplinare alla trattazione del tema e l'utilizzo esperto dei Sistemi Informativi Geografici, in particolare GRASS GIS. A seguito di una approfondita analisi in merito agli strumenti e le procedure adottate nella pianificazione delle Attività Estrattive in Italia, sono stati sviluppati un metodo di indagine ed un sistema esperto per la previsione ed il controllo delle vibrazioni indotte nel terreno da volate in cava a cielo aperto, che consentono di ottimizzare la progettazione della volata e del sistema di monitoraggio delle vibrazioni grazie a specifici strumenti operativi implementati in GRASS GIS. A supporto di una più efficace programmazione di interventi di riqualificazione territoriale, è stata messa a punto una procedura per la selezione di siti dismessi e di potenziali interventi di riqualificazione, che ottimizza le attività di pianificazione individuando interventi caratterizzati da elevata sostenibilità ambientale, economica e sociale. I risultati ottenuti dimostrano la necessità di un approccio esperto alla pianificazione ed alla progettazione delle attività estrattive, incrementandone la sostenibilità attraverso l'adozione di strumenti operativi più efficienti.
Resumo:
In questa Tesi di Laurea viene presentata un’interessante esperienza di implementazione numerica: lo sviluppo di un codice agli elementi finiti in grado di calcolare, verificare e ottimizzare edifici industriali in acciaio. Al giorno d’oggi, la tendenza delle imprese nel campo dell’ingegneria strutturale ed in particolare nel campo dell’edilizia industriale, è quella della specializzazione. E’ sempre più frequente, ad esempio nel campo dei capannoni industriali, che le aziende concentrino la loro attività solo su determinate tipologie costruttive, sulle quali ottimizzano il lavoro riducendo al massimo i tempi di progettazione, di costruzione e abbassando il prezzo. Il mondo dei programmi di calcolo, per la maggior parte, sembra aver preso una direzione di sviluppo opposta. Le case di produzione software mettono a disposizione dei progettisti strumenti sempre più raffinati, capaci di modellare dettagliatamente qualsiasi tipo di struttura, materiale, azione statica o dinamica; spesso questi programmi contengono anche un codice integrato CAD per il disegno della struttura e altri tools per lasciare all’utente la più grande libertà di azione possibile. Se da un lato questi strumenti danno al progettista la possibilità di una modellazione sempre più dettagliata, dall’altra parte hanno il limite di essere poco pratici per un tipo di progettazione standardizzato. Spesso quello di cui le imprese hanno bisogno è invece un programma creato ‘ad hoc’ per le loro attività che, grazie all’inserimento di pochi parametri, possa garantire una progettazione rapida e magari gestire non solo la fase di calcolo, ma anche quella di verifica e di ottimizzazione. In quest’ottica si inserisce lo sviluppo del codice eseguito in questa tesi. L’esposizione si articola in quattro parti. La prima, introduttiva, è dedicata alla descrizione delle tipologie di edifici monopiano in acciaio maggiormente diffuse, dei diversi tipi materiale, dei principali aspetti della normativa per queste costruzioni. Viene inoltre descritta la tipologia costruttiva implementata nel codice sviluppato. Il secondo capitolo è dedicato alla descrizione del metodo agli elementi finiti, esponendone i fondamenti teorici e le principali fasi della costruzione di un codice di calcolo numerico per elementi monodimensionali. Nella terza parte è illustrato il codice sviluppato. In particolare vengono dettagliatamente descritti i moduli di generazione del modello, del solutore, del post-processore in grado di eseguire le verifiche secondo le normative vigenti, e quello dedicato all’ottimizzazione strutturale. In fine, nell’ultimo capitolo viene illustrato un esempio progettuale con il quale si è potuta effettuare la validazione del codice confrontando i risultati ottenuti con quelli di riferimento forniti da programmi attualmente in commercio. La presente dissertazione non mira alla “certificazione” di un software che sia in grado di fare calcoli complessi nell’ambito dell’ingegneria strutturale, ma lo scopo è piuttosto quello di affrontare le problematiche e gestire le scelte operative che riguardano la scrittura di un codice di calcolo. Programmatori non si nasce, ma si diventa attraverso anni di esperienza che permettono di acquisire quella sensibilità numerica che è definibile come una vera e propria “arte”. Ed è in questa direzione che si è svolta la Tesi, ovvero comprendere prima di tutto l’atteggiamento da assumere nei confronti di un elaboratore elettronico e, solo successivamente, passare ad un utilizzo consapevole per scopi progettuali.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
The aim of the present thesis was to investigate the influence of lower-limb joint models on musculoskeletal model predictions during gait. We started our analysis by using a baseline model, i.e., the state-of-the-art lower-limb model (spherical joint at the hip and hinge joints at the knee and ankle) created from MRI of a healthy subject in the Medical Technology Laboratory of the Rizzoli Orthopaedic Institute. We varied the models of knee and ankle joints, including: knee- and ankle joints with mean instantaneous axis of rotation, universal joint at the ankle, scaled-generic-derived planar knee, subject-specific planar knee model, subject-specific planar ankle model, spherical knee, spherical ankle. The joint model combinations corresponding to 10 musculoskeletal models were implemented into a typical inverse dynamics problem, including inverse kinematics, inverse dynamics, static optimization and joint reaction analysis algorithms solved using the OpenSim software to calculate joint angles, joint moments, muscle forces and activations, joint reaction forces during 5 walking trials. The predicted muscle activations were qualitatively compared to experimental EMG, to evaluate the accuracy of model predictions. Planar joint at the knee, universal joint at the ankle and spherical joints at the knee and at the ankle produced appreciable variations in model predictions during gait trials. The planar knee joint model reduced the discrepancy between the predicted activation of the Rectus Femoris and the EMG (with respect to the baseline model), and the reduced peak knee reaction force was considered more accurate. The use of the universal joint, with the introduction of the subtalar joint, worsened the muscle activation agreement with the EMG, and increased ankle and knee reaction forces were predicted. The spherical joints, in particular at the knee, worsened the muscle activation agreement with the EMG. A substantial increase of joint reaction forces at all joints was predicted despite of the good agreement in joint kinematics with those of the baseline model. The introduction of the universal joint had a negative effect on the model predictions. The cause of this discrepancy is likely to be found in the definition of the subtalar joint and thus, in the particular subject’s anthropometry, used to create the model and define the joint pose. We concluded that the implementation of complex joint models do not have marked effects on the joint reaction forces during gait. Computed results were similar in magnitude and in pattern to those reported in literature. Nonetheless, the introduction of planar joint model at the knee had positive effect upon the predictions, while the use of spherical joint at the knee and/or at the ankle is absolutely unadvisable, because it predicted unrealistic joint reaction forces.
Resumo:
La tricuspide è la valvola meno studiata tra quelle cardiache e per questo motivo le conoscenze su questa sono in genere approssimative. Le poche conoscenze sulla valvola, inoltre, non garantiscono una elevata percentuale di successo di un intervento chirurgico. Fino a qualche anno fa i parametri utilizzati per studiare la valvola e determinare il grado di severità delle patologie che la colpiscono (insufficienza e stenosi) erano ricavati da immagini ecografie bidimensionali. Questi però molto spesso risultano inadeguati. Così i ricercatori, negli ultimi tempi, hanno elaborato metodi che utilizzano l’ecocardiografia tridimensionale anche per la valvola tricuspide (prima l’ecocardiografia in clinica era utilizzata per valutare le valvole della parte sinistra del cuore) e si sono potuti così rivalutare i parametri precedentemente ricavati con analisi bidimensionale. Tutto ciò ha avuto ricadute positive sulla terapia chirurgica che si è potuta avvalere di protesi valvolari più fisiologiche derivate dalle più precise conoscenze anatomiche e funzionali con ovvie conseguenze positive sul benessere dei pazienti trattati. Naturalmente questi sono solamente i primi passi che la ricerca ha compiuto in questo campo e si prospettano nuovi sviluppi soprattutto per quanto riguarda il software che dovrebbe essere implementato in modo tale che lo studio della valvola tricuspide diventi di routine anche nella pratica clinica. In particolare, lo studio della valvola tricuspide mediante eco 3D consentirebbe anche la valutazione pre- operatoria ed il planning paziente-specifico dell'intervento da effettuare. In particolare questo elaborato prevede nel capitolo 1 la trattazione dell’anatomia e della fisiologia della valvola, nel capitolo 2 la descrizione delle patologie che colpiscono la tricuspide, nel capitolo 3 i parametri che si possono ricavare con esami strumentali e in particolare con ecocardiografia bidimensionale e infine nel capitolo 4 lo studio della valvola tricuspide con ecocardiografia tridimensionale.