637 resultados para Bioingegneria, Modelli matematici, Sistema cardiovascolare, Modello di Guyton, Contropulsazione esterna


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato illustra una serie di modelli termici, che si differenziano principalmente per la loro accuratezza e velocità di calcolo, per essere in grado di scegliere il modello più adatto da utilizzare in relazione all'applicazione prevista e alle esigenze richieste. Per una migliore comprensione del problema, vengono introdotti inizialmente alcuni concetti generali legati alle temperature in gioco nei componenti elettronici di potenza e alla trasmissione del calore, poi si passa alla determinazione della sorgente del calore (ovvero le perdite) in un modulo IGBT. Vengono quindi descritti alcuni modelli che siano in grado di rappresentare il sistema in esame dal punto di vista termico. Infine viene implementato in Simulink uno dei modelli proposti, mettendo così in pratica gran parte dei concetti esposti. Per il calcolo delle perdite, per i modelli e per la simulazione ci si è concentrati su un determinato componente elettronico di potenza per entrare nel cuore di un problema termico. È stato scelto l’IGBT perché è un dispositivo relativamente nuovo, in continuo miglioramento ed è sempre più utilizzato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio della memoria semantica attraverso modelli teorici (qualitativi o matematici) gioca un ruolo importante nelle neuroscienze cognitive. In questa tesi viene presentato un modello della memoria semantica e lessicale. Il principio alla base del modello è che la semantica di un oggetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione dell’oggetto nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate del cervello, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è indagare i meccanismi che portano alla formazione di categorie, analizzare il ruolo delle diverse proprietà nella costruzione di un concetto e le connessioni tra queste proprietà e la parola corrispondente al nome dell’oggetto. Durante l’addestramento per ogni oggetto sono presentate alcune proprietà in input, con una data frequenza: alcune sono condivise, cioè appartengono a più di un concetto e permettono la formazione di categorie, altre sono distintive, cioè sono tipiche di un concetto e consentono la rappresentazione dei membri di una categoria. Un ulteriore aspetto riguardante le proprietà è la distinzione fra proprietà salienti, che sono spontaneamente evocate, e proprietà marginali. E’ stata utilizzata una tassonomia composta da 11 parole che identificano 11 animali. La salienza è stabilita dalla frequenza con cui si verifica ciascuna proprietà. La distinzione tra proprietà condivise e distintive, e tra proprietà salienti e non salienti, è stata ottenuta mediante l’uso della regola di Hebb con una diversa soglia presinaptica e postsinaptica, producendo patterns di sinapsi asimmetriche all’interno della rete semantica (auto-associazione) e tra la rete semantica e lessicale (etero-associazione). La rete addestrata è in grado di risolvere compiti di riconoscimento e denominazione di oggetti, mantenendo una distinzione tra le categorie e i suoi membri, e fornendo un diverso ruolo per le proprietà salienti rispetto alle proprietà marginali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente lavoro di tesi è stato sviluppato e testato un sistema BCI EEG-based che sfrutta la modulazione dei ritmi sensorimotori tramite immaginazione motoria della mano destra e della mano sinistra. Per migliorare la separabilità dei due stati mentali, in questo lavoro di tesi si è sfruttato l'algoritmo CSP (Common Spatial Pattern), in combinazione ad un classificatore lineare SVM. I due stati mentali richiesti sono stati impiegati per controllare il movimento (rotazione) di un modello di arto superiore a 1 grado di libertà, simulato sullo schermo. Il cuore del lavoro di tesi è consistito nello sviluppo del software del sistema BCI (basato su piattaforma LabVIEW 2011), descritto nella tesi. L'intero sistema è stato poi anche testato su 4 soggetti, per 6 sessioni di addestramento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell'ottica di un futuro riprogetto, totale o parziale, del ventilatore della galleria del vento del progetto CICLoPE dell'Università di Bologna, è stato messo a punto, grazie a modelli matematici di letteratura, un algoritmo per la determinazione della geometria delle pale di un fan. La procedura si basa su ipotesi di incompressibilità e assenza di vortici di estremità ed è in grado di fornire la geometria del ventilatore una volta che sono state fissate: le condizioni richieste nella sezione di test, l'efficienza del tunnel e alcune proprietà del ventilatore stesso (ad esempio tipologia di profilo aerodinamico e numero di pale). L'algoritmo è in grado di lavorare solamente con la configurazione ventilatore seguito da profili raddrizzatori, ma è in previsione un'estensione che consentirà di studiare anche la configurazione a fan controrotanti (come quella del CICLoPE). Con questo software sono state progettate numerose soluzioni diverse per studiare il legame tra rendimento e geometria del ventilatore. Inoltre sono stati individuati i parametri che permettono di ottenere una pala con rastremazione e svergolatura trascurabili, con lo scopo di abbassare i costi del manufatto. In particolare è stato dimostrato come le configurazioni con diametro della nacelle grande (superiore al 65\% del diametro della sezione di potenza) siano particolarmente adatte a fornire rendimenti alti con la minima complicatezza della pala. Per quanto riguarda l'efficienza aerodinamica del profilo, i test comparativi indicano che questo parametro influisce relativamente poco sul rendimento del macchinario ma modifica profondamente la geometria della pala. Efficienze elevate tendono, secondo lo studio, a richiedere pale estremamente rastremate e poco svergolate; questo porta a preferire l'adozione di profili mediamente efficienti ma dall'ampio intervallo operativo in termini di angolo di attacco.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I cardiomiociti derivanti da cellule staminali pluripotenti indotte (hiPSC-CMs) costituiscono un nuovo approccio per lo studio delle proprietà delle cellule cardiache sia degli individui sani che di quelli affetti da malattie ereditarie e possono rappresentare inoltre una piattaforma in vitro per la scoperta di nuovi farmaci e terapie rigenerative. Il grande impatto delle hiPSC-CMs nell’ambito della ricerca si deve soprattutto alle loro proprietà elettrofisiologiche: queste cellule non solo esprimono fenotipi genici e proprietà delle correnti ioniche tipiche delle cellule cardiache, ma sono anche in grado di riprodurre fenomeni aritmici, come le EAD, a seguito della somministrazione di farmaci. Grazie anche alla grande potenza di calcolo oggi disponibile è possibile supportare la pratica in vitro con modelli in silico, abbattendo sia i costi che i tempi richiesti dagli esperimenti in laboratorio. Lo scopo di questo lavoro è quello di simulare il comportamento delle hiPSC-CMs di tipo ventricolare in risposta alla somministrazione di farmaci che interagiscono con la corrente di potassio IKr, principale responsabile della ripolarizzazione cardiaca. L’assunzione di certi farmaci può comportare infatti una riduzione della IKr, con conseguente prolungamento della fase di ripolarizzazione del potenziale d’azione cardiaco. Questo meccanismo è causa dell’insorgenza della sindrome del QT lungo di tipo 2, che in casi estremi può degenerare in aritmie gravi. Ciò suggerisce che queste cellule rappresentano un importante strumento per la valutazione del rischio pro-aritmico che può essere facilitata da simulazioni in silico effettuate utilizzando modelli computazionali basati su dati fisiologici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Modello su AMPL per ottimizzare la scelta del trasporto in base al tragitto, all'orario di partenza e all'intervallo di tempo considerato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo di questo lavoro è effettuare un'analisi del modello di programmazione proposto da Android. L'attenzione verrà posta, in particolare, su quali meccanismi vengano forniti per la gestione di eventi asincroni generati dal sistema, allo scopo di notificare cambiamenti del contesto in cui si sta operando: dal modo in cui vengono intercettati, a come risulta possibile modificare il comportamento dell'applicazione, in reazione alle nuove informazioni acquisite. Si valuteranno gli elementi di novità introdotti nelle API di Android, in relazione ai classici mezzi disponibili nella programmazione standard in Java, atti a risolvere una nuova categoria di problematiche dovute alla natura context-aware delle applicazioni. Sarà effettuata anche un'analisi più generale della qualità del modello proposto, in termini di estensibilità e modularità del codice; per fare ciò, si prenderà in esame l'applicazione SMS Backup+ come caso di studio e si proporranno delle possibili estensioni per verificarne la fattibilità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato ha avuto come obiettivo la modifica di un modello matematico di potenziale d’azione ventricolare umano per migliorare la relazione che lega la durata del potenziale d’azione all’incremento degli intervalli diastolici, al fine di riprodurre correttamente i risultati sperimentali noti in letteratura. Ruolo principe nell’analisi e nell’implementazione di tale modello è stato quello dello ione calcio, coinvolto in numerosi processi chimici all’interno della cellula cardiaca, e responsabile anche della sua contrazione. Tutte le modifiche effettuate sono state fatte preservando la dipendenza inversa tra la durata del potenziale d’azione e le variazioni di calcio extracellulare, che costituiva il punto di forza del modello considerato rispetto alla sua versione originale. Le modifiche effettuate hanno riguardato in parte la struttura del modello (compartimenti, volumi) e in parte il calcium handling, ovvero la gestione del Ca2+ all’interno della cellula, in termini di flussi e correnti. Il modello così ottenuto, denominato “newORk”, è stato validato rispetto a numerosi protocolli sperimentali (sia di voltage-clamp, sia di current-clamp) presenti in letteratura e i risultati di simulazione hanno dimostrato un comportamento coerente con i risultati in vitro. In particolare la risposta del modello al protocollo S1S2, che non era fisiologica nel modello precedente, viene adesso riprodotta correttamente dal nuovo modello, presentando un aumento dell’APD all’aumentare dell’intervallo diastolico considerato. Il modello qui descritto può quindi essere ritenuto un importante, per quanto specifico, miglioramento nella descrizione matematica della elettrofisiologia cardiaca umana e potrà essere utilizzato per esplorare contesti clinici in cui le concentrazioni di calcio nel sistema cardiocircolatorio si modificano, come per esempio la terapia dialitica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo dello studio è comprendere i fenomeni alla base della fiducia degli utenti verso l'enciclopedia online Wikipedia. Per farlo è necessario prima di tutto comprendere e modellizzare l'organizzazione della struttura dei processi socio-produttivi sottostanti alla produzione del contenuto di Wikipedia, procedendo quindi nel verificare empiricamente e descrivere le capacità di autocorrezione della stessa. Oltre a quelli utilizzati in questo studio, saranno anche descritti gli approcci e i risultati trattati in letteratura, riportando i principali studi che nel corso degli anni hanno affrontato questi argomenti, sebbene mantenendoli indipendenti. Per comprendere la struttura della community degli editor di Wikipedia, si è ipotizzata l'esistenza di un modello di tipo Core-Periphery. Per studiare il modello sono state eseguite delle analisi su dati derivanti da un campione di pagine della versione italiana di Wikipedia. I risultati ottenuti dall'analisi di queste informazioni rappresentano le basi utilizzate per la selezione delle pagine oggetto dell'iniezione degli errori, costituendo un metodo per stimare le diverse probabilità di autocorrezione per ciascuna pagina. Per quanto riguarda le capacità di resilienza di Wikipedia, i risultati sono ricavati utilizzando un approccio empirico. Questo consiste nell'inserimento di errori all'interno del campione di pagine sotto specifici vincoli metodologici per poi valutare in quanto tempo e con quali modalità questi errori vengono corretti. E' stata effettuata un'analisi specifica per la scelta delle tipologie di errore e delle variabili da considerare nell'inserimento di questi. Questa analisi ha portato alla definizione di 2 esperimenti tra loro distinti, i cui risultati portano ad interessanti conclusioni sia visti separatamente che combinati tra loro. Sulla base dei risultati di questi esperimenti è stato possibile discutere sulle capacità di autocorrezione del sistema, elemento chiave nello studio delle dinamiche della fiducia verso Wikipedia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato propone un’analisi dettagliata della configurazione del discorso pubblicitario, inteso come il risultato di una duplice operazione: quella di produzione del messaggio, a opera del pubblicitario, utente di precise strategie discorsive, e quella di interpretazione, da parte del destinatario che completa il significato dell’enunciato attribuendogli le proprie peculiari connotazioni. Il corpus utilizzato consiste in una raccolta di spot pubblicitari prodotti dall’azienda Barilla per i telespettatori francofoni, ed è stato reperito presso l’Archivio Storico di Barilla nella sede di Parma. L’illustrazione e la descrizione di alcune pubblicità scelte come modelli forniscono la base per l’approfondimento di alcune problematiche linguistiche e traduttologiche; in particolare, viene posto l’accento sulla nozione di ethos discorsivo, collocabile nell'ambito dell’analisi del discorso, e su quella di stereotipo linguistico, considerato come veicolo culturale e strumento dotato di straordinaria forza assertiva e pertanto prediletto dalla comunicazione pubblicitaria. Tale forma di linguaggio merita di essere analizzata e studiata nella sua ricca complessità, dal momento che è da considerarsi come il più efficace e moderno mezzo di diffusione, incorporazione e assimilazione di valori e comportamenti culturalmente orientati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi affronta il problema di Finanza Matematica dell'asset allocation strategica che consiste nel processo di ripartizione ottimale delle risorse tra diverse attività finanziarie presenti su un mercato. Sulla base della teoria di Harry Markowitz, attraverso passaggi matematici rigorosi si costruisce un portafoglio che risponde a dei requisiti di efficienza in termini di rapporto rischio-rendimento. Vengono inoltre forniti esempi di applicazione elaborati attraverso il software Mathematica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce all'interno di uno studio dal titolo: "Strategia di posizionamento multi-step come approccio pragmatico per ridurre il rischio di encefalopatia epatica post-TIPS (shunt trans-giugulare porto-sistemico intraepatico) in pazienti cirrotici con ascite refrattaria". Il progetto di tesi si è concentrato sull'analisi dei segnali ottenuti tramite DCE MRI, con lo scopo di implementare in ambiente MatLab due modelli differenti (Dual input - Mono compartment e Dual input - Dual compartment) che descrivono la cinetica del tracciante all'interno del sistema vascolare epatico e valutare l'efficacia dei parametri di perfusione associati nella descrizione delle variazioni in termini di microcircolazione introdotte dall'inserimento del TIPS. Inizialmente si sono voluti valutare, tramite simulazione, gli effetti in termini di amplificazione del rumore e stima dei parametri perfusionali dell'approssimazione lineare nella conversione da intensità di segnale MR a concentrazione di mezzo di contrasto. Successivamente, sempre attraverso simulazioni, per entrambi i modelli considerati è stato scelto uno schema di model-fitting e quindi testata l'affidabilità in termini di accuratezza e precisione delle stime dei parametri ottenute in funzione del livello di rumore associato alle curve di intensità di segnale. Parallelamente all'implementazione dei modelli per la stima di parametri di perfusione, sono stati realizzati dei phantom con l'obiettivo di simulare il parenchima epatico prima e dopo l'arrivo del mezzo di contrasto e poter testare la sequenza utilizzata durante l'acquisizione dei dati su paziente. Infine sono stati considerati gli esami di DCE MRI effettuati su un campione di nove pazienti pre e post-TIPS, utilizzando per l'analisi dei segnali entrambi i modelli implementati in fase di simulazione e successivamente valutando le variazioni nel valori associati ai parametri di perfusione introdotte dall'inserimento del TIPS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato tratta le transizioni di fase nel modello di Ising, usato per descrivere i sistemi magnetici. Tramite l'argomento di Landau viene introdotto il problema della dimensionalità per l'esistenza di una fase ferromagnetica. Con il sistema di un gas forzato su reticolo viene presentato il carattere universale dei fenomeni critici per mezzo degli esponenti critici. Viene poi risolto in modo esatto il modello unidimensionale, che non prevede una fase ferromagnetica. Per sistemi a dimensionali maggiore viene introdotto il metodo dell'approssimazione di campo medio. Viene infine determinato il valore della temperatura critica per reticoli planari quadrati e di questi viene mostrata la soluzione esatta di Lars Onsager.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La quantità di dati che vengono generati e immagazzinati sta aumentando sempre più grazie alle nuove tecnologie e al numero di utenti sempre maggiore. Questi dati, elaborati correttamente, permettono quindi di ottenere delle informazioni di valore strategico che aiutano nell’effettuare decisioni aziendali a qualsiasi livello, dalla produzione fino al marketing. Sono nati soprattutto negli ultimi anni numerosi framework proprietari e open source che permettono l'elaborazione di questi dati sfruttando un cluster. In particolare tra i più utilizzati e attivi in questo momento a livello open source troviamo Hadoop e Spark. Obiettivo di questa tesi è realizzare un modello di Spark per realizzare una funzione di costo che sia non solo implementabile all’interno dell’ottimizzatore di Spark SQL, ma anche per poter effettuare delle simulazioni di esecuzione di query su tale sistema. Si è quindi studiato nel dettaglio con ducumentazione e test il comportamento del sistema per realizzare un modello. I dati ottenuti sono infine stati confrontati con dati sperimentali ottenuti tramite l'utilizzo di un cluster. Con la presenza di tale modello non solo risulta possibile comprendere in maniera più approfondita il reale comportamento di Spark ma permette anche di programmare applicazioni più efficienti e progettare con maggiore precisione sistemi per la gestione dei dataset che sfruttino tali framework.