999 resultados para ventricolare, modello, archivio
Resumo:
L'obiettivo della tesi è la valutazione delle prestazioni delle migrazioni di reti di macchine virtuali. Ci si è concentrati sul trasferimento delle memorie di tali macchine virtuali in quanto è l'azione che maggiormente comporta l'impiego di tempo e risorse. Allo scopo, si è scelto l'approccio pre-copy in quanto utilizzato dagli hypervisor più diffusi. Si è costruito un modello in grado di descrivere il sistema in esame, analizzandolo sia dal punto di vista matematico, che simulativo. Proprio grazie ai simulatori proposti si sono confrontati i valori del tempo di migrazione e del downtime, indici fondamentali per la migrazione in tempo reale, nel caso di trasferimento in serie e in parallelo delle macchine di un insieme. Si sono considerate anche reti di macchine virtuali aventi diversa dimensione delle memorie, analizzando e confrontando, anche questa volta, gli indici di prestazione con quelli degli altri processi. Si è prestata particolare attenzione anche alla caratterizzazione della dirtying-rate, parametro importante dell'approccio pre-copy.
Resumo:
Nel presente lavoro sono esposti i comportamenti e le caratteristiche principali dei giunti incollati. Il metodo agli elementi finiti è stato studiato in modo da realizzare un modello accurato di un sistema fisico. L’analisi agli elementi finiti è stata utilizzata per effettuare una simulazione numerica di un single-strap joint in alluminio e in CFRP sotto un carico di trazione assiale. L’effetto di una modifica della distanza tra le lastre è stato studiato e i risultati confrontati.
Resumo:
A causa delle questioni economiche ed ambientali legate alla sostenibilità dei processi petrolchimici, recentemente l'industria chimica ha focalizzato il proprio interesse nello sviluppo di processi per la produzione di chemicals, che utilizzino materiali di partenza rinnovabili. L'etanolo, prodotto per via fermentativa, sembra essere uno dei bio-building block più promettenti e versatili e può essere utilizzato per numerose applicazioni. È noto da tempo che l’etanolo può reagire su catalizzatori costituiti da ossidi misti con caratteristiche acido-base a dare numerosi composti chimici tra cui acetaldeide, 1,3-butadiene, 1-butanolo e 2-butenale. Nonostante il lungo impiego dell’etanolo nell’industria chimica, il meccanismo di formazione di composti C4 a partire da etanolo è ancora però materia di dibattito. Il meccanismo generalmente accettato si basa sulle seguenti reazioni chiave: deidrogenazione di etanolo ad acetaldeide e condensazione aldolica di due molecole di acetaldeide. Tuttavia in letteratura sono riportate anche altre proposte alternative. In questo lavoro è stato studiato il processo di trasformazione di etanolo su catalizzatori a base di MgO e sistemi misti Mg/SiO, attraverso esperimenti di reattività condotti in un micro-impianto da laboratorio, al fine di fare chiarezza sul meccanismo di formazione di composti C4 a partire da etanolo. In particolare è stato condotto uno studio meccanicistico utilizzando MgO come catalizzatore modello, materiale che possiede esclusivamente proprietà basiche, ritenute essenziali per catalizzare la condensazione di molecole C2. Inoltre, è stata investigata l’influenza delle caratteristiche acido-base del catalizzatore sulla selettività del processo di conversione di etanolo, studiandone la reattività su materiali costituiti da ossidi misti Mg/Si/O, con diverso rapporto atomico tra i due cationi.
Resumo:
Sviluppo di un modello di ottimizzazione dei tempi di evacuazione da aerei da trasporto mediante disposizione intelligente dei passeggeri effettuata con un algoritmo basato sulla Ant Colony Optimization.
Resumo:
Attualmente il panorama informatico è dominato dai dispositivi mobile: smartphone e tablet pc dominano incontrastati la scena del mercato elettronico. Questo comporta un radicale ripensamento e cambiamento del software, le web app e le mobile application richiedono infatti una sempre maggiore reattività dell’interfaccia utente, la persistente connessione a Internet e l’interazione con una moltitudine di dispositivi esterni. Il progettista di software deve oggi far fronte a tutta una serie di problematiche, l’aumentata complessità dei sistemi e i sempre più ristretti tempi di sviluppo e consegna richiedono compromessi tra la semplicità delle tecniche di progettazione e l’efficienza del prodotto ottenuto. Le architetture ad eventi in primis, unitamente al paradigma di programmazione asincrona, si pongono come soluzione ottimale a queste esigenze. L’obbiettivo principale di questa tesi è quello di offrire una panoramica generale sullo stato dell’arte delle architetture ad eventi focalizzandosi sul ruolo che esse assumono nel contesto delle applicazioni moderne, intendendo principalmente con questo termine le web application e le mobile application. Partendo dal concetto di programmazione sincrona e parallela si giunge a descrivere un terzo modello, il modello asincrono, di fondamentale importanza per i sistemi event-driven. Utilizzando come principale linguaggio di riferimento JavaScript si affrontano le problematiche legate alla stesura del codice per la gestione degli eventi, l’asincronicità intrinseca degli eventi e l’utilizzo di funzioni di callback portano a produrre codice di difficile lettura e manutenzione. Si analizzano quindi in dettaglio i pattern fondamentali e le tecniche attualmente utilizzate per l’ottimizzazione della gestione del codice e delle problematiche esposte fornendo numerosi esempi esplicativi.
Resumo:
L’obiettivo della tesi è dimostrare come da un’idea progettuale si arriva alla realizzazione di un prodotto finito passando attraverso la sua modelizzazione. In questo caso l’oggetto dell’attività voleva essere quello di risolvere la problematica degli accessi nelle Ztl. Per risolvere questa problematica è sufficiente comunicare l’accesso al comando dei vigili urbani, per questo i canali di comunicazione scelti dall’azienda sono multipli, in particolare nella tesi verrà mostrato in che modo si arriva al prodotto finale attraverso l’attività di modellizzazione, usando il canale APP versione QR-Code.
Resumo:
La sezione d'urto di produzione per coppie tt-barra viene misurata utilizzando dati raccolti dall'esperimento CMS in collisioni protone-protone ad LHC, con energia nel sistema del centro di massa radice di s = 8 TeV. Il campione raccolto corrisponde ad una luminosità integrata di 19.5 fb^-1. La misura viene effettuata su eventi che contano un numero di jet pari o superiore a 6, almeno due dei quali identificati come prodotto dell'adronizzazione di quark bottom. Il valore di sezione d'urto ottenuto è (260 pm 10 (stat)) pb, in accordo con le previsioni teoriche del Modello Standard.
Resumo:
La tesi si propone come obiettivo di dimostrare nel quadro di un’indagine comparatistica l’importanza della tematica del finanziamento della politica, del rapporto tra denaro e politica, nelle democrazie contemporanee. In questo senso ci si propone di sviluppare i nessi esistenti nell’ambito del tema del finanziamento fra disciplina dei partiti, disciplina delle campagne elettorali e, più in generale, disciplina del sistema elettorale in senso stretto e della forma di governo; di descrivere il complesso quadro giuridico in materia di diritto della finanza politica, oggetto di frequenti aggiornamenti e in continua evoluzione, in alcuni casi anche in via giurisprudenziale, quale risulta emergere dallo studio di ciascun ordinamento considerato; e di definire in conclusione i precisi contorni dei due distinti modelli di «finanziamento della politica» ricostruiti dalla ricerca politologica come modello statalista o pubblico, da una parte, e modello liberale o volontario, dall’altra, pur nelle specificità di ogni contesto istituzionale
Resumo:
Comprensione della città di Bogotá attraverso lo studio del Piano Maestro di Le Corbusier. Trasposizione del sistema di città lineare al caso concreto della città e nuovo modello di settore come metodo di intervento. Piano urbano per la riqualificazione dell’area industriale di Fontibón e approfondimento architettonico e strutturale del grande edificio cruciforme in prossimità della calle 13. Sviluppo di un nuovo isolato residenziale che sia in grado di aumentare la densità abitativa e favorire la socialità.
Resumo:
In questa tesi viene presentata una breve trattazione matematica dell' equazione del mezzo poroso. Questa è uno dei più semplici esempi di PDE parabolica non lineare e degenere, che appare nella descrizione di molti fenomeni naturali, legati alla diffusione, filtrazione e propagazione del calore. I risultati sono confrontati con quelli ben noti del modello parabolico classico. Una particolare attenzione è rivolta alla proprietà matematica di propagazione finita che contrasta con il paradosso della velocità infinita, tipico del modello parabolico lineare.
Resumo:
Il presente lavoro si colloca in un ampio percorso che ha visto diversi studi interessati nella problematica del traffico urbano, e quindi delle congestioni stradali, il cui impatto nella qualità della vita nelle grandi città è diventato sempre più rilevante con il processo di urbanizzazione. Dalle prime ricerche compiute, risalenti alla prima metà del 900, e aventi come oggetto di studio la singola strada, il ricorso alla modellizzazione matematica di recente si è sviluppato in particolar modo per quel che concerne la rete urbana. Le problematiche che si incontrano affrontando il contesto delle reti urbane si possono riassumere sinteticamente innanzitutto nella mutevolezza del flusso del traffico nell'arco della giornata. In secondo luogo nell'esistenza di punti critici variabili nel corso del tempo. Incidentalmente può accadere che si verifichino eventi eccezionali dovuti tanto all'ambiente naturale, quanto sociale. Ogni modello nella sua natura riduzionista consente di prendere in esame alcune problematiche specifiche e la scelta di operare in modo selettivo risponde alla complessità del fenomeno. Con queste indicazioni di metodo si è pensato di concentrarsi sullo studio degli effetti delle fluttuazioni endogene dei flussi di traffico in una stradale di tipo Manhattan. Per modellizzare il traffico utilizzeremo un sistema dinamico, nel quale la velocità ottimale si basa sulla relazione del Diagramma Fondamentale postulato da Greenshields (1935).
Resumo:
Con il termine IPC (precondizionamento ischemico) si indica un fenomeno per il quale, esponendo il cuore a brevi cicli di ischemie subletali prima di un danno ischemico prolungato, si conferisce una profonda resistenza all’infarto, una delle principali cause di invalidità e mortalità a livello mondiale. Studi recenti hanno suggerito che l’IPC sia in grado di migliorare la sopravvivenza, la mobilizzazione e l’integrazione di cellule staminali in aree ischemiche e che possa fornire una nuova strategia per potenziare l’efficacia della terapia cellulare cardiaca, un’area della ricerca in continuo sviluppo. L’IPC è difficilmente trasferibile nella pratica clinica ma, da anni, è ben documentato che gli oppioidi e i loro recettori hanno un ruolo cardioprotettivo e che attivano le vie di segnale coinvolte nell’IPC: sono quindi candidati ideali per una possibile terapia farmacologica alternativa all’IPC. Il trattamento di cardiomiociti con gli agonisti dei recettori oppioidi Dinorfina B, DADLE e Met-Encefalina potrebbe proteggere, quindi, le cellule dall’apoptosi causata da un ambiente ischemico ma potrebbe anche indurle a produrre fattori che richiamino elementi staminali. Per testare quest’ipotesi è stato messo a punto un modello di “microambiente ischemico” in vitro sui cardiomioblasti di ratto H9c2 ed è stato dimostrato che precondizionando le cellule in modo “continuativo” (ventiquattro ore di precondizionamento con oppioidi e successivamente ventiquattro ore di induzione del danno, continuando a somministrare i peptidi oppioidi) con Dinorfina B e DADLE si verifica una protezione diretta dall’apoptosi. Successivamente, saggi di migrazione e adesione hanno mostrato che DADLE agisce sulle H9c2 “ischemiche” spronandole a creare un microambiente capace di attirare cellule staminali mesenchimali umane (FMhMSC) e di potenziare le capacità adesive delle FMhMSC. I dati ottenuti suggeriscono, inoltre, che la capacità del microambiente ischemico trattato con DADLE di attirare le cellule staminali possa essere imputabile alla maggiore espressione di chemochine da parte delle H9c2.
Resumo:
I grafi sono molto utilizzati per la rappresentazione di dati, sopratutto in quelle aree dove l’informazione sull’interconnettività e la topologia dei dati è importante tanto quanto i dati stessi, se non addirittura di più. Ogni area di applicazione ha delle proprie necessità, sia in termini del modello che rappresenta i dati, sia in termini del linguaggio capace di fornire la necessaria espressività per poter fare interrogazione e trasformazione dei dati. È sempre più frequente che si richieda di analizzare dati provenienti da diversi sistemi, oppure che si richieda di analizzare caratteristiche dello stesso sistema osservandolo a granularità differenti, in tempi differenti oppure considerando relazioni differenti. Il nostro scopo è stato quindi quello di creare un modello, che riesca a rappresentare in maniera semplice ed efficace i dati, in tutte queste situazioni. Entrando più nei dettagli, il modello permette non solo di analizzare la singola rete, ma di analizzare più reti, relazionandole tra loro. Il nostro scopo si è anche esteso nel definire un’algebra, che, tramite ai suoi operatori, permette di compiere delle interrogazioni su questo modello. La definizione del modello e degli operatori sono stati maggiormente guidati dal caso di studio dei social network, non tralasciando comunque di rimanere generali per fare altri tipi di analisi. In seguito abbiamo approfondito lo studio degli operatori, individuando delle proprietà utili per fare delle ottimizzazioni, ragionando sui dettagli implementativi, e fornendo degli algoritmi di alto livello. Per rendere più concreta la definizione del modello e degli operatori, in modo da non lasciare spazio ad ambiguità, è stata fatta anche un’implementazione, e in questo elaborato ne forniremo la descrizione.
Resumo:
La regolazione dei sistemi di propulsione a razzo a propellente solido (Solid Rocket Motors) ha da sempre rappresentato una delle principali problematiche legate a questa tipologia di motori. L’assenza di un qualsiasi genere di controllo diretto del processo di combustione del grano solido, fa si che la previsione della balistica interna rappresenti da sempre il principale strumento utilizzato sia per definire in fase di progetto la configurazione ottimale del motore, sia per analizzare le eventuali anomalie riscontrate in ambito sperimentale. Variazioni locali nella struttura del propellente, difettosità interne o eterogeneità nelle condizioni di camera posso dare origine ad alterazioni del rateo locale di combustione del propellente e conseguentemente a profili di pressione e di spinta sperimentali differenti da quelli previsti per via teorica. Molti dei codici attualmente in uso offrono un approccio piuttosto semplificato al problema, facendo per lo più ricorso a fattori correttivi (fattori HUMP) semi-empirici, senza tuttavia andare a ricostruire in maniera più realistica le eterogeneità di prestazione del propellente. Questo lavoro di tesi vuole dunque proporre un nuovo approccio alla previsione numerica delle prestazioni dei sistemi a propellente solido, attraverso la realizzazione di un nuovo codice di simulazione, denominato ROBOOST (ROcket BOOst Simulation Tool). Richiamando concetti e techiche proprie della Computer Grafica, questo nuovo codice è in grado di ricostruire in processo di regressione superficiale del grano in maniera puntuale, attraverso l’utilizzo di una mesh triangolare mobile. Variazioni locali del rateo di combustione posso quindi essere facilmente riprodotte ed il calcolo della balistica interna avviene mediante l’accoppiamento di un modello 0D non-stazionario e di uno 1D quasi-stazionario. L’attività è stata svolta in collaborazione con l’azienda Avio Space Division e il nuovo codice è stato implementato con successo sul motore Zefiro 9.
Resumo:
Il presente lavoro è strutturato in quattro parti analizzando e comparando le pubblicazioni del settore scientifico italiano, anglofono e tedesco di riferimento. Nel primo capitolo della tesi viene proposta una riflessione sulle parole che ruotano attorno al tema dei DSA e della disabilità. Nel secondo capitolo vengono presentati, a partire dalla letteratura scientifica di riferimento, gli indicatori di rischio che segnalano possibili disturbi specifici di apprendimento e le caratteristiche di apprendimento dei DSA mettendo in luce potenzialità e talenti spesso intrinseci. Nel terzo capitolo viene vagliata la normativa di riferimento, in particolare la recente Legge 170/2010 e le relative Linee Guida. Nel quarto capitolo, partendo dal tema della diffusione delle tecnologie dell’informazione e della comunicazione (da ora in poi TIC) nel mondo della scuola, sono ampiamente trattati i principali strumenti compensativi (sintesi vocale, libri digitali, mappe concettuali, Lavagna Interattiva Multimediale) e le misure dispensative adottabili. Nel quinto capitolo viene analizzato in tutte le sue parti il Piano Didattico Personalizzato (da ora in poi PDP) e viene proposto un possibile modello di PDP pubblicato sul sito dell'Ufficio per l’Ambito Territoriale di Bologna. Nel sesto capitolo della tesi viene presentato il Progetto Regionale ProDSA. Il Progetto, rivolto a studenti, con diagnosi di DSA, delle scuole secondarie di primo grado e del primo biennio delle secondarie di secondo grado dell’Emilia-Romagna, ha visto, grazie a un finanziamento della Regione, la consegna in comodato d'uso gratuito di tecnologie compensative agli alunni che hanno aderito. La sezione empirica del presente lavoro indaga l’uso reale che è stato fatto degli strumenti proposti in comodato d’uso e le motivazioni legate alla scelta di non utilizzarli in classe. Nel settimo capitolo vengono proposti strumenti progettati per rispondere concretamente alle criticità emerse dall'analisi dei dati e per sensibilizzare il mondo della scuola sulle caratteristiche dei DSA.