437 resultados para Compositi, simulazione, impatti


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi nasce con l'obbiettivo di studiare il modello di Guyton, proponendone una versione più dettagliata con lo scopo di utilizzarla poi come strumento di indagine per una patologia nota come atresia tricuspidale. Si è giunti così alla creazione di un modello ibrido del sistema cardiovascolare che vede la modellizzazione, a parametri concentrati, dell’intera rete circolatoria interfacciata con una rappresentazione dell' attività cardiaca mediante le cosidette curve di funzionalità. Nello specifico si è risaliti ad un modello della cicolazione cardiocircolatoria separando quella che è la circolazione sistemica dalla circolazione polmonare secondo il sopracitato modello di Guyton, dopo di chè si è trovato un analogo modello per pazienti sottoposti all' intervento di Fontan poiché affetti da atresia tricuspidale.Tramite l'ausilio del software Matlab sono stati implementati questi due modelli semplificati (“Guyton biventricolare” e “Guyton monoventricolare”) e il corrispondente algoritmo risolutivo, con l'obiettivo di verificare, graficamente e numericamente, i risultati ottenuti dalla simulazione.Una volta accertatisi della attendibilità dei risultati, mediante il confronto con dati fisiologici dai manuali e dagli articoli su cui si è fondato questo elaborato, si è proceduto alla simulazione di casi fisiologici di attività fisica e di malfunzionamento del ventricolo sinistro.L'utilizzo di un modello matematico per la circolazione permette di studiare e simulare l'interazione di diversi sistemi fisiologici superando il problema che si ha in ambito clinico, dove l'analisi è più complessa perchè la misurazione delle numerose variabili fisiologiche è indaginosa e a volte non fattibile.Fine ultimo dell'elaborato tuttavia non è quello di dare valutazioni cliniche dei casi presi in esame e delle loro variabili, ma quello di presentare un metodo per studiare come la fisiologia della circolazione umana reagisce a dei cambiamenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi ha lo scopo di analizzare una frana appenninica riattivatasi a partire dal dicembre 2013 nel Comune di Grizzana Morandi (BO). L’operazione di studio della frana è iniziata partendo da una accurata campagna d’indagine eseguita in campo: per prima cosa è stata eseguita una dettagliata perlustrazione del corpo di frana e del territorio limitrofo, questa operazione comprende il rilevamento geologico di dettaglio ed il tracciamento (tramite dispositivo GPS) del profilo del deposito e della corona di distacco. Di fondamentale interesse sono state poi le informazioni ricavate dall’eseguimento di tre carotaggi sul corpo di frana, questi hanno permesso l’estrazione di carote utili a definire la stratigrafia verticale del luogo (fino ai 20 metri di profondità) e prelevare campioni di terreno per effettuare specifiche prove di laboratorio. Parte di queste prove sono state eseguite da un laboratorio di commissione, altre sono state eseguite nel laboratorio geotecnico dell’Università. I dati acquisiti tramite il monitoraggio, effettuato tramite l’istallazione di vari strumenti sul corpo di frana (piezometri, inclinometri ed estensimetri) sono risultati utili al fine di determinare la profondità della superficie di scorrimento, la velocità di movimento del deposito e la variazione del livello piezometrico. Le osservazioni effettuate sul campo e i dati provenienti dai sondaggi, dal monitoraggio e dalle prove di laboratorio sono stati elaborati e commentati, essi sono stati utilizzati per definire il modello geologico tecnico del territorio analizzato. Dalla definizione del modello geologico tecnico è stata effettuata la back analysis (la simulazione delle condizioni presenti sul versante al momento della rottura) tramite software specifico. L’operazione finale è stata la proposta (e la conseguente calibrazione) di diversi sistemi di messa in sicurezza del versante, utili a garantire nel tempo la stabilità del pendio analizzato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I cardiomiociti derivanti da cellule staminali pluripotenti indotte (hiPSC-CMs) costituiscono un nuovo approccio per lo studio delle proprietà delle cellule cardiache sia degli individui sani che di quelli affetti da malattie ereditarie e possono rappresentare inoltre una piattaforma in vitro per la scoperta di nuovi farmaci e terapie rigenerative. Il grande impatto delle hiPSC-CMs nell’ambito della ricerca si deve soprattutto alle loro proprietà elettrofisiologiche: queste cellule non solo esprimono fenotipi genici e proprietà delle correnti ioniche tipiche delle cellule cardiache, ma sono anche in grado di riprodurre fenomeni aritmici, come le EAD, a seguito della somministrazione di farmaci. Grazie anche alla grande potenza di calcolo oggi disponibile è possibile supportare la pratica in vitro con modelli in silico, abbattendo sia i costi che i tempi richiesti dagli esperimenti in laboratorio. Lo scopo di questo lavoro è quello di simulare il comportamento delle hiPSC-CMs di tipo ventricolare in risposta alla somministrazione di farmaci che interagiscono con la corrente di potassio IKr, principale responsabile della ripolarizzazione cardiaca. L’assunzione di certi farmaci può comportare infatti una riduzione della IKr, con conseguente prolungamento della fase di ripolarizzazione del potenziale d’azione cardiaco. Questo meccanismo è causa dell’insorgenza della sindrome del QT lungo di tipo 2, che in casi estremi può degenerare in aritmie gravi. Ciò suggerisce che queste cellule rappresentano un importante strumento per la valutazione del rischio pro-aritmico che può essere facilitata da simulazioni in silico effettuate utilizzando modelli computazionali basati su dati fisiologici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo scritto affronta il tema dello sfruttamento della fonte geotermica per la climatizzazione, sia invernale che estiva, di un edificio ad uso residenziale. In particolare, la situazione a cui faremo riferimento è quella di un condominio di media grandezza (18 appartamenti da circa 60 mq ciascuno) a cui verrà applicato un impianto di climatizzazione ad aria centralizzato, alimentato da una pompa di calore geotermica reversibile. Il fine ultimo di questo lavoro è analizzare, attraverso una simulazione in regime dinamico, le prestazioni energetiche del suddetto impianto e valutarne la convenienza rispetto ad un'istallazione tradizionale, che utilizza un boiler a gas per il riscaldamento e un chiller raffreddato ad aria per il raffrescamento. L'analisi economica svolta riguarderà solo i costi di esercizio delle due versioni di impianto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi abbiamo provato a definire fino a che punto le misure di sensori siano affidabili, creando un simulatore che sia in grado di analizzare, qualitativamente e quantitativamente, le prestazioni di sensori inerziali facenti parte di sistemi di navigazione inerziale. Non ci siamo soffermati troppo sulle dinamiche dovute agli errori deterministici, che sono eliminabili facilmente mediante prove sperimentali e test, ma abbiamo puntato ad uno studio approfondito riguardante gli errori dovuti a processi stocastici casuali. Il simulatore, programmato sulla piattaforma MATLAB/Simulink, prende i dati grezzi contenuti all’interno dei datasheets dei sensori e li simula, riportando risultati numerici e grafici degli errori risultanti dall’utilizzo di quei specifici sensori; in particolare, esso mette in luce l’andamento degli errori di posizione, velocità ed assetto ad ogni istante di tempo della simulazione. L’analisi effettuata all’interno dell’elaborato ha successivamente condotto all’identificazione dei giroscopi laser come i sensori che soffrono meno di questi disturbi non-sistematici, portandoli ad un livello sopraelevato rispetto ai MEMS ed ai FOG.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella presente Tesi è affrontata l’analisi sperimentale e teorica del comportamento di pareti in muratura rinforzate con FRCM e sollecitate da azioni di taglio fuori piano. Lo schema statico adottato per i campioni sperimentati consiste in uno schema appoggio-appoggio, mentre le forze esterne di taglio sono state applicate secondo uno schema di carico a quattro punti. Durante il corso della prova, i pannelli murari sono inoltre stati soggetti ad un carico di precompressione verticale costante, che simula l’effetto della presenza del solaio in un edificio in muratura. Dopo una descrizione teorica delle principali caratteristiche dei materiali compositi e dei loro costituenti, all’interno della Tesi sono richiamati alcuni studi scientifici relativi al comportamento fuori piano di elementi strutturali rinforzati con FRCM. In seguito vengono presentati i materiali impiegati per la campagna sperimentale e le prove di caratterizzazione meccanica eseguite. Vengono poi riportati i risultati sperimentali delle prove a taglio fuori piano in termini di spostamenti, di deformazioni e di scorrimenti, affrontando infine un confronto tra i risultati ottenuti per i campioni esaminati e riportando alcune considerazioni circa la strumentazione impiegata. L’ultima parte della Tesi è dedicata all’analisi teorica delle pareti. Viene proposto un modello teorico per stimare la resistenza fornita dai muri rinforzati, ipotizzando tre possibili modalità di rottura: rottura a trazione della fibra, rottura per distacco tra FRCM e supporto in muratura e rottura per delaminazione interna. Infine, viene riportata la modellazione agli elementi finiti svolta mediante il codice di calcolo MidasFea, che consente di attribuire ai materiali legami costitutivi adeguati per la modellazione di strutture in muratura, cogliendone il comportamento non lineare e il progressivo danneggiamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La programmazione aggregata è un paradigma che supporta la programmazione di sistemi di dispositivi, adattativi ed eventualmente a larga scala, nel loro insieme -- come aggregati. L'approccio prevalente in questo contesto è basato sul field calculus, un calcolo formale che consente di definire programmi aggregati attraverso la composizione funzionale di campi computazionali, creando i presupposti per la specifica di pattern di auto-organizzazione robusti. La programmazione aggregata è attualmente supportata, in modo più o meno parziale e principalmente per la simulazione, da DSL dedicati (cf., Protelis), ma non esistono framework per linguaggi mainstream finalizzati allo sviluppo di applicazioni. Eppure, un simile supporto sarebbe auspicabile per ridurre tempi e sforzi d'adozione e per semplificare l'accesso al paradigma nella costruzione di sistemi reali, nonché per favorire la ricerca stessa nel campo. Il presente lavoro consiste nello sviluppo, a partire da un prototipo della semantica operazionale del field calculus, di un framework per la programmazione aggregata in Scala. La scelta di Scala come linguaggio host nasce da motivi tecnici e pratici. Scala è un linguaggio moderno, interoperabile con Java, che ben integra i paradigmi ad oggetti e funzionale, ha un sistema di tipi espressivo, e fornisce funzionalità avanzate per lo sviluppo di librerie e DSL. Inoltre, la possibilità di appoggiarsi, su Scala, ad un framework ad attori solido come Akka, costituisce un altro fattore trainante, data la necessità di colmare l'abstraction gap inerente allo sviluppo di un middleware distribuito. Nell'elaborato di tesi si presenta un framework che raggiunge il triplice obiettivo: la costruzione di una libreria Scala che realizza la semantica del field calculus in modo corretto e completo, la realizzazione di una piattaforma distribuita Akka-based su cui sviluppare applicazioni, e l'esposizione di un'API generale e flessibile in grado di supportare diversi scenari.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi contiene uno studio sperimentale sul comportamento di una sabbia limosa del sottosuolo della laguna veneta e propone un'interpretazione dei risultati sperimentali ottenuti alla luce dei presupposti teorici di un approccio costitutivo avanzato noto come "Plasticità Generalizzata". Il programma sperimentale è consistito nella realizzazione di prove edometriche e prove triassiali su campioni di sabbia provenienti dal sito di Treporti, situato in prossimità della bocca di Lido. La risposta sperimentale, in termini di modulo volumetrico, è stata messa a confronto con i risultati di alcuni studi di letteratura, con particolare riferimento a quelli condotti da Jefferies & Been (2000). La disponibilità di prove di compressione edometrica realizzate nella cella K0 e la conseguente possibilità di valutare il coefficiente di spinta a riposo ha permesso di interpretare le prove in termini di tensione media efficace p' e di verificare l'applicabilità al caso in esame degli approcci di letteratura disponibili, spesso sviluppati a partire da prove di compressione isotropa effettuate in cella triassiale. Il comportamento tenso-deformativo osservato è stato successivamente simulato con un modello costitutivo per sabbie sviluppato nell'ambito della Plasticità Generalizzata. In particolare sono state utilizzate tre diverse formulazioni, che costituiscono un avanzamento dell'iniziale modello costitutivo proposto da Pastor, Zienkiewicz e Chan (1990), basate sull'uso di un parametro di stato del materiale definito rispetto alle condizioni di Stato Critico. Dal confronto tra previsioni del modello e risposta sperimentale è stato possibile individuare la formulazione che meglio simula il comportamento meccanico osservato sia in compressione edometrica sia in prove di taglio ed è stato proposto un set di parametri costitutivi ritenuti rappresentativi del terreno studiato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene analizzato il concetto di mobilità elettrica e viene proposta un’applicazione per la gestione della propria auto elettrica. L'applicazione in questione si pone come scopo l’agevolazione delle interazioni dell’utente con l’auto a distanza. Analizzando le caratteristiche principali dell’auto elettrica, ne vengono delineati i benefici e le limitazioni dell’autonomia, per la quale si suggerisce soluzione tramite regole da adottare alla guida. Attraverso la comparazione con le tipologie di applicazioni esistenti per la mobilità si decide che genere di approccio adottare nella realizzazione della nostra applicazione. Seguono la descrizione delle tecnologie di sviluppo del progetto sotto forma di applicazione ibrida, tra le quali ci si sofferma sull'utilizzo di linguaggi di markup, fogli di stile e JavaScript lato client. Di quest’ultimo ne vengono elencate le API utilizzate, in particolare Google Maps e Google Charts. Successivamente si introduce il concetto di simulazione server ed i metodi e le tecniche adottate per renderlo effettivo. Infine vengono spiegate le scelte implementative nonché i metodi e le decisioni presi in ambito di sviluppo per realizzare al meglio l’applicazione, fornendo una presentazione dettagliata delle sue funzionalità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca riguarda lo studio delle modifiche indotte dalla diffusione di acqua e umidità nelle pavimentazioni stradali con riferimento ai materiali bituminosi. Lo scopo è stato quello di analizzare le implicazioni che si sviluppano a livello chimico e reologico in vari bitumi. In questo progetto oltre alla fase sperimentale, è stato utilizzato un software per la simulazione agli elementi finiti. Per quanto concerne la fase di laboratorio, è stato sviluppato un nuovo protocollo di condizionamento. Tre diversi bitumi sono stati soggetti alla diffusione di acqua in forma liquida o vapore, a determinate condizioni ambientali e per svariati intervalli temporali. Grazie a l’utilizzo di due camere climatiche il condizionamento è stato realizzato in modo uniforme a precisi valori temperatura e umidità mantenuti stabili. I materiali analizzati: un bitume soft, uno hard, ed infine uno modificato con l’aggiunta di polimeri. Il dispositivo FTIR-ATR è stato utilizzato per la caratterizzazione chimica, mentre il comportamento reologico è stato analizzato tramite test eseguiti con il DSR. Le avanzate tecnologie presenti nel laboratorio della TU Delft hanno consentito di ottenere notevoli risultati. L’analisi è stata condotta con l’obiettivo di evidenziare i diversi cambiamenti indotti dalla diffusione di acqua liquida o vapore e per analizzare l’influenza della temperatura, del tipo del bitume e dell’incremento del tempo di condizionamento. Una analisi analoga è stata condotta parallelamente, con lo scopo di investigare la correlazione tra il processo di invecchiamento e la diffusione di umidità. Infine, la simulazione agli elementi finiti è stata sviluppata tramite il software CAPA-3D per analizzare il comportamento del bitume in periodi più estesi di diffusione di umidità. Inoltre, il comportamento dei bitumi è stato studiato anche in presenza di particelle di riempitivo. Particelle granitiche e calcaree sono state aggiunte ai bitumi in differenti percentuali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato tratta il lavoro di studio, analisi e sperimentazione effettuato dal sottoscritto, Giovanni Sitta, in conclusione al Corso di Laurea Magistrale in Informatica presso l'Università degli Studi di Bologna. Questo ha dapprima previsto un periodo di approfondimento di alcune architetture di supporto alla mobilità dei terminali di rete, in particolare di due protocolli allo stato dell'arte, Mobile IPv6 (MIPv6) e Locator/Identifier Separation Protocol (LISP), e di una terza architettura sperimentale denominata Always Best Packet Switching (ABPS). Sono stati in seguito esaminati tre simulatori, uno per ciascuna architettura di supporto alla mobilità considerata, realizzati come estensioni della libreria INET del framework OMNeT++, assicurandosi che fossero conformi alle specifiche del protocollo implementato (almeno entro i limiti di semplificazione rilevanti ai fini del lavoro), e correggendone eventuali problematiche, mancanze e anomalie in caso questi non le rispettassero. Sono poi stati configurati alcuni scenari simulativi utilizzando le tre librerie, in prima battuta di natura molto semplice, utilizzati per verificare il corretto funzionamento dei simulatori in condizioni ideali, e successivamente più complessi, allestendo un ambiente di esecuzione più verosimile, dotato di un maggior numero di host connessi alla rete e di ostacoli per i segnali radio usati nelle comunicazioni wireless. Tramite i risultati sperimentali ottenuti da queste simulazioni è stato infine possibili realizzare un confronto tra le prestazioni di MIPv6, LISP e ABPS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilizzo sempre crescente di dispositivi mobili, lo sviluppo di applicazioni mobile in continuo aumento, e la necessità di una sempre migliore qualità della comunicazione, ha portato grande interesse ad analizzare i protocolli di supporto alla mobilità dei terminali. Questi, tra i quali il più conosciuto è forse Mobile IP, vengono posti in esame utilizzando diverse metriche per valutarne le prestazioni. Si confrontano dunque due protocolli: LISP e ABPS; per ognuno dei quali ne viene presentata e descritta l'architettura e le principali funzionalità; entrambe queste architetture per il supporto alla mobilità, prevedono delle specifiche per fornire continuità nella comunicazione durante il roaming di un nodo multihomed. Vengono presentati poi gli strumenti con i quali verrà effettuata il l'analisi: il simulatore a eventi discreti OMNeT++ e il suo framework INET. Successivamente sono descritte le principali componenti dei simulatori per LISP e ABPS, che modellano le meccaniche dei due protocolli analizzati. Questi sono stati sottoposti a modifiche mirate a correggerne eventuali anomalie di comportamento, e ad introdurre nuove funzionalità, soprattutto per quanto riguarda ABPS, che era solo parzialmente implementato. Sono mostrati gli scenari in cui verranno effettuati i test per il confronto delle prestazioni: uno scenario semplice e uno che cerca di proporre una rete urbana verosimile; di seguito vengono elencati i parametri e le configurazioni utilizzate per ognuno dei due scenari. Infine vengono presentati i risultati mettendo a confronto due aspetti della mobilità dei terminali: durata dell'intervallo di indisponibilità e latenza dei pacchetti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'applicazione di misure, derivanti dalla teoria dell'informazione, fornisce un valido strumento per quantificare alcune delle proprietà dei sistemi complessi. Le stesse misure possono essere utilizzate in robotica per favorire l'analisi e la sintesi di sistemi di controllo per robot. In questa tesi si è analizzata la correlazione tra alcune misure di complessità e la capacità dei robot di portare a termine, con successo, tre differenti task. I risultati ottenuti suggeriscono che tali misure di complessità rappresentano uno strumento promettente anche nel campo della robotica, ma che il loro utilizzo può diventare difficoltoso quando applicate a task compositi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La simulazione è definita come la rappresentazione del comportamento di un sistema o di un processo per mezzo del funzionamento di un altro o, alternativamente, dall'etimologia del verbo “simulare”, come la riproduzione di qualcosa di fittizio, irreale, come se in realtà, lo fosse. La simulazione ci permette di modellare la realtà ed esplorare soluzioni differenti e valutare sistemi che non possono essere realizzati per varie ragioni e, inoltre, effettuare differenti valutazioni, dinamiche per quanto concerne la variabilità delle condizioni. I modelli di simulazione possono raggiungere un grado di espressività estremamente elevato, difficilmente un solo calcolatore potrà soddisfare in tempi accettabili i risultati attesi. Una possibile soluzione, viste le tendenze tecnologiche dei nostri giorni, è incrementare la capacità computazionale tramite un’architettura distribuita (sfruttando, ad esempio, le possibilità offerte dal cloud computing). Questa tesi si concentrerà su questo ambito, correlandolo ad un altro argomento che sta guadagnando, giorno dopo giorno, sempre più rilevanza: l’anonimato online. I recenti fatti di cronaca hanno dimostrato quanto una rete pubblica, intrinsecamente insicura come l’attuale Internet, non sia adatta a mantenere il rispetto di confidenzialità, integrità ed, in alcuni, disponibilità degli asset da noi utilizzati: nell’ambito della distribuzione di risorse computazionali interagenti tra loro, non possiamo ignorare i concreti e molteplici rischi; in alcuni sensibili contesti di simulazione (e.g., simulazione militare, ricerca scientifica, etc.) non possiamo permetterci la diffusione non controllata dei nostri dati o, ancor peggio, la possibilità di subire un attacco alla disponibilità delle risorse coinvolte. Essere anonimi implica un aspetto estremamente rilevante: essere meno attaccabili, in quanto non identificabili.