973 resultados para studio implementazione modelli continui deflusso


Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’aumento dei costi in sanità, l’aumentata prevalenza delle patologie croniche, le disuguaglianze attuali, evidenziano la domanda crescente di una popolazione fragile che richiede una risposta globale ai bisogni della persona nel suo insieme, attraverso la costruzione di un sistema sanitario integrato che ne garantisca una presa in carico efficace. Riuscire a gestire le patologie croniche in modo appropriato è la sfida a cui sono chiamati i professionisti socio-sanitari; ma quali sono gli elementi per riuscirci? Le evidenze scientifiche dimostrano che è fondamentale l’integrazione tra i professionisti e lo sviluppo dei Percorsi Diagnostici Terapeutici Assistenziali (PDTA). In quest’ottica, in Italia e in particolare in Emilia-Romagna e nell’Azienda USL di Bologna si sono succeduti, e ancora si stanno evolvendo, diversi modelli di organizzazione per migliorare la gestione appropriata delle patologie croniche e l’aderenza alle linee guida e/o ai PDTA. Il ruolo del medico di medicina generale (MMG) è ancora fondamentale e il suo contributo integrato a quello degli gli altri professionisti coinvolti sono imprescindibili per una buona gestione e presa in carico del paziente cronico. Per questo motivo, l’Azienda USL di Bologna ha sviluppato e implementato una politica strategica aziendale volta a disegnare i PDTA e incoraggiato la medicina generale a lavorare sempre di più in gruppo, rispetto al modello del singolo medico. Lo studio ha individuato nelle malattie cardiovascolari, che rimangono la causa principale di morte e morbilità, il suo focus prendendo in esame, in particolare,lo scompenso cardiaco e il post-IMA. L’obiettivo è verificare se e quanto il modello organizzativo, le caratteristiche del medico e del paziente influiscono sul buon management delle patologie croniche in esame valutando la buona adesione alla terapia farmacologica raccomandata dalle linee guida e/o PDTA dello scompenso cardiaco e post-IMA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo di questo studio è di valutare il significato prognostico dell'elettrocardiogramma standard in un'ampia casistica di pazienti affetti da cardiomiopatia ipertrofica. In questo studio multicentrico sono stati considerati 841 pazienti con cardiomiopatia ipertrofica (66% uomini, età media 48±17 anni) per un follow-up di 7.1±7.1 anni, per ognuno è stato analizzato il primo elettrocardiogramma disponibile. I risultati hanno dimostrato come fattori indipendentemente correlati a morte cardiaca improvvisa la sincope inspiegata (p 0.004), il sopraslivellamento del tratto ST e/o la presenza di onde T positive giganti (p 0.048), la durata del QRS >= 120 ms (p 0.017). Sono stati costruiti due modelli per predire il rischio di morte improvvisa: il primo basato sui fattori di rischio universalmente riconosciuti (spessore parietale >= 30 mm, tachicardie ventricolari non sostenute all'ECG Holter 24 ore, sincope e storia familiare di morte improvvisa) e il secondo con l'aggiunta delle variabili sopraslivellamento del tratto ST/onde T positive giganti e durata del QRS >= 120 ms. Entrambi i modelli stratificano i pazienti in base al numero dei fattori di rischio, ma il secondo modello risulta avere un valore predittivo maggiore (chi-square da 12 a 22, p 0.002). In conclusione nella cardiomiopatia ipertrofica l'elettrocardiogramma standard risulta avere un valore prognostico e migliora l'attuale modello di stratificazione per il rischio di morte improvvisa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi tratta di come Noble giunse alla formulazione del modello matematico del cuore, a partire da quello degli impulsi nervosi ideato da Hodgkin e Huxley e di come in seguito arrivò a perfezionarlo grazie ad una sempre maggiore adesione alla biologia dei sistemi integrati, al punto che esso venne poi utilizzato per creare il primo "Cuore Virtuale". Si pone inoltre una particolare attenzione al modo in cui il pensiero di Noble cambiò nel corso dei suoi studi, così da permettergli la formulazione di spiegazioni corrette, relative ai fenomeni osservati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Descrizione, debug ed implementazione di un sistema di analisi della combustione Real-Time.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi abbiamo presentato i risultati sperimentali di nanoindentazione su pentacene in transistor organici a film sottile (OTFT) sottoposti ad irraggiamento ionico. Nella prima parte si ripercorre lo sviluppo della tecnica di indentazione strumentata, con una focalizzazione particolare sui modelli matematici proposti per l'interpretazione dei dati forza-spostamento ricavati da queste misure. In particolare, viene diffusamente esposta l'implementazione della tecnica di analisi proposta da Oliver e Pharr, che è utilizzata in questa tesi. Il secondo capitolo espone le caratteristiche generali (strutturali ed elettriche) degli OTFT. Un paragrafo è dedicato al pentacene, che rappresenta lo strato attivo dei transistor organici su cui sono state effettuate le misure in laboratorio. L'ultima parte del capitolo consiste in una panoramica dell'interazione tra radiazioni e polimeri. Vengono quindi presentati i risultati sperimentali: si confrontano le proprietà di durezza e modulo di Young per campioni caratterizzati da differenti specie ioniche, dosi ed energie di irraggiamento (unitamente a campioni reference, per permettere un confronto con il pentacene sottoposto a bombardamento).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Si mostrano i passi seguiti nello sviluppo di un modello matematico e simulativo che mira a ricostruire il campo di flusso veicolare della rete stradale della regione Emilia Romagna. Si descrivono le fonti di dati utilizzate per la ricostruzione: dispositivi GPS a bassa capillarità e spire induttive su strada; si discute delle caratteristiche dei dati e dei problemi intrinseci e contingenti da cui sono affetti, nonché delle metodologie adottate nel tentativo di risolvere questi problemi. Si illustra l’idea centrale alla base delle ricostruzioni, e si descrive un criterio di validazione del modello. Si mostrano i risultati dei vari algoritmi ideati, ognuno affiancato dal parametro di validità, evidenziando quale metodo produca risultati migliori. Si conclude discutendo delle potenzialità del modello in termini di applicabilità in altre regioni o zone geografiche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo lavoro nasce dall’intento di dare un’indicazione sul legame esistente tra la temperatura e la concentrazione di ozono. La correlazione, rintracciata sui dati osservati, è stata poi utilizzata allo scopo di elaborare proiezioni di evoluzioni future. Lo studio si è concentrato su un’area piuttosto ristretta della provincia di Parma, selezionata per la buona disponibilità di dati, sia di temperatura che di ozono, ma anche per la sua rappresentatività, dimostrata, delle caratteristiche dell’Emilia Romagna. Sulla base della scelta della stazione di misura di ozono sono state individuate tre località nelle vicinanze per avere dati di temperatura sia osservati sia provenienti da downscaling statistico. Proprio per quest’ultimo dataset sono stati elaborati scenari di temperatura per il periodo 2021-2050, rispetto al trentennio climatologico di riferimento 1961-1990, applicando il metodo di regionalizzazione statistica a cinque modelli globali. Le anomalie stagionali sono poi state date in ingresso a un generatore climatico in grado di produrre serie sintetiche giornaliere per il punto in esame. Un modello appositamente creato, ispirato al metodo di campionamento casuale stratificato, ha sfruttato sia queste informazioni sul futuro andamento della temperatura, sia la relazione trovata su dati osservati, per la costruzione di un set di concentrazioni di ozono previste per lo stesso trentennio futuro. Confrontando dal punto di vista statistico queste distribuzioni con quelle ricostruite per i periodi 1961-1990 e 2001-2012 si è valutato l’andamento della concentrazione di ozono. La conclusione più evidente a cui si giunge è la conferma del fatto che la situazione attuale dell’inquinamento da ozono nell’area di studio è decisamente più critica rispetto a quella che il modello ha ricostruito per il trentennio passato. La distribuzione dei valori di concentrazione di ozono degli ultimi dodici anni è invece molto più simile ormai al set di proiezioni previste per il futuro. Quello che potrà succedere a livello dell’inquinamento da ozono nel prossimo trentennio climatologico in Emilia Romagna dipende da quale modello si rivelerà più veritiero riguardo alla proiezione futura di temperatura: è infatti possibile che tutto rimanga molto simile alla situazione attuale o che si verificherà un ulteriore aumento, aggravando una situazione già critica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La modulazione a durata d'impulso (PWM) è utilizzata soprattutto perchè permette di ottenere alta efficenza energetica. In ambito accademico è stato proposto un modulatore PWM che sfrutta la tecnica di noise shaping, Sigma Delta, per avere elevata fedeltà. Il lavoro di questa tesi è stato l'implementazione su FPGA del modulatore Sigma DeltaDigitale utilizzato: quarto ordine, con quantizzatore a 4 bit e SNR in banda di 60 dB. Il dimensionamento è stato fatto determinando l'effetto che la lunghezza delle parole dei segnali ha sul rumore prodotto dal sistema. Questo studio è stato svolto con analisi euristiche ed algoritmi di ricerca implementati in ambiente MATLAB. Lo studio fatto è di carattere generale ed estendibile a generiche architetture Sigma Delta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I crescenti volumi di traffico che interessano le pavimentazioni stradali causano sollecitazioni tensionali di notevole entità che provocano danni permanenti alla sovrastruttura. Tali danni ne riducono la vita utile e comportano elevati costi di manutenzione. Il conglomerato bituminoso è un materiale multifase composto da inerti, bitume e vuoti d'aria. Le proprietà fisiche e le prestazioni della miscela dipendono dalle caratteristiche dell'aggregato, del legante e dalla loro interazione. L’approccio tradizionalmente utilizzato per la modellazione numerica del conglomerato bituminoso si basa su uno studio macroscopico della sua risposta meccanica attraverso modelli costitutivi al continuo che, per loro natura, non considerano la mutua interazione tra le fasi eterogenee che lo compongono ed utilizzano schematizzazioni omogenee equivalenti. Nell’ottica di un’evoluzione di tali metodologie è necessario superare questa semplificazione, considerando il carattere discreto del sistema ed adottando un approccio di tipo microscopico, che consenta di rappresentare i reali processi fisico-meccanici dai quali dipende la risposta macroscopica d’insieme. Nel presente lavoro, dopo una rassegna generale dei principali metodi numerici tradizionalmente impiegati per lo studio del conglomerato bituminoso, viene approfondita la teoria degli Elementi Discreti Particellari (DEM-P), che schematizza il materiale granulare come un insieme di particelle indipendenti che interagiscono tra loro nei punti di reciproco contatto secondo appropriate leggi costitutive. Viene valutata l’influenza della forma e delle dimensioni dell’aggregato sulle caratteristiche macroscopiche (tensione deviatorica massima) e microscopiche (forze di contatto normali e tangenziali, numero di contatti, indice dei vuoti, porosità, addensamento, angolo di attrito interno) della miscela. Ciò è reso possibile dal confronto tra risultati numerici e sperimentali di test triassiali condotti su provini costituiti da tre diverse miscele formate da sfere ed elementi di forma generica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo lavoro di tesi tratta l'utilizzo di misure idrometriche satellitari in combinazione con le misure idrometriche tradizionali per la calibrazione dei modelli numerico-idraulici. Il presente elaborato riguarda la calibrazione di un complesso modello idraulico del Fiume Po implementato in HEC-RAS. Il caso di studio è un tratto del Fiume Po lungo circa 131 km, che va dalla sezione relativa alla stazione idrometrica di Borgoforte e termina all'incile del Po di Goro. Le Analisi numeriche svolte si suddividono in tre gruppi, il primo sfrutta l'impiego di soli dati idrometrici tradizionali, il secondo l'impiego di soli dati idrometrici satellitari e il terzo l'impiego di entrambe le tipologie di dati idrometrici.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La stesura di questo elaborato di tesi trova le basi sull’articolo di Stergiopulos et al. “Determinants of stroke volume and systolic and diastolic aortic pressure” pubblicato sulla rivista americana American Journal of Physiology-Heart and Circulatory Physiology nel 1996. Si cerca di investigare sull’importanza che ricoprono alcuni parametri che descrivono il muscolo cardiaco e l’albero arterioso e sulla loro rispettiva influenza sulla pressione sistolica, pressione diastolica e sul volume di sangue eiettato in un battito, ovvero la gittata sistolica. Si procede con la descrizione in dettaglio della funzionalità cardiaca mediante il modello ad elastanza tempo variabile e il modello windkessel a tre elementi simulando così la contrazione ventricolare e l’albero arterioso sistemico. In dettaglio per quanto riguarda la struttura dell’elaborato è bene specificare che l’analisi teorica affrontata nei primi due capitoli ha l’obiettivo primario di: 1) chiarire i principali e caratteristici meccanismi che si trovano alla base della funzionalità cardiaca e procedere quindi con i richiami relativi alla fisiologia del sistema cardio-circolatorio facendo particolare attenzione al concetto di ciclo cardiaco, ciclo pressione-volume e fattori che determinano la funzionalità cardiaca in dettaglio; 2)illustrare quelli che sono i principali modelli di riferimento presenti in letteratura che descrivono la contrazione del ventricolo sinistro in termini di analisi pressione-volume ventricolari istantanei. Dal terzo capitolo in avanti si prosegue verso quello che è il vivo della trattazione dell’articolo di riferimento, nel capitolo appena citato si fa luce sui dettagli che caratterizzano il modello matematico utilizzato per approssimare al meglio il sistema cuore-sistema arterioso e sull’applicazione della teoria dell’analisi dimensionale mediante l’utilizzo del Teorema di Buckingham al fine di ricavare i parametri di interesse. Nel quarto capitolo si riportano i risultati dello studio con annessa validazione del modello e la sua applicazione rispetto al caso umano. Il quinto capitolo è sede della discussione dei risultati ottenuti cercando di far luce sull’universalità e applicabilità delle formule empiriche ottenute e su eventuali limitazioni e implicazioni riscontrabili. Tale elaborato si chiude con alcune conclusioni in merito allo studio effettuato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo della tesi è dimostrare come da un’idea progettuale si arriva alla realizzazione di un prodotto finito passando attraverso la sua modelizzazione. In questo caso l’oggetto dell’attività voleva essere quello di risolvere la problematica degli accessi nelle Ztl. Per risolvere questa problematica è sufficiente comunicare l’accesso al comando dei vigili urbani, per questo i canali di comunicazione scelti dall’azienda sono multipli, in particolare nella tesi verrà mostrato in che modo si arriva al prodotto finale attraverso l’attività di modellizzazione, usando il canale APP versione QR-Code.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Applicazioni di realtà aumentata per il settore aerospaziale, in particolare la visualizzazione di vettori vento e di traiettorie di discesa.