914 resultados para Bioingegneria, Modelli matematici, Sistema cardiovascolare, Modello di Guyton, Contropulsazione esterna


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La fisica del sapore è uno dei settori di ricerca più promettenti per realizzare misure di altissima precisione del Modello Standard e per osservare indirettamente, attraverso i decadimenti mediati dalle interazioni deboli nuove particelle. L'esperimento LHCb \`e stato progettato per realizzare misure di altissima precisione in questo settore. Grazie all'alta luminosità integrata disponibile (3 fb \ap{-1}) ed alla elevata sezione d’urto di produzione dei quark charm, LHCb \`e in grado di realizzare misure di una precisione mai raggiunta fino ad ora da altri esperimenti. In questo lavoro di tesi \`e stata realizzata una misura preliminare della simmetria di violazione di CP, realizzata mediante i decadimenti dei mesoni neutri $D^0$ negli stati finali $K^+K^-$ e $\pi^+\pi^-$. Per realizzare la misura sono stati selezionati i decadimenti $D^{*\pm} \to D^0(K^+K^-)\pi^\pm_s$ e $D^{*\pm} \to D^0(\pi^+\pi^-)\pi^\pm_s$ utilizzando i dati raccolti da LHCb durante il RUN-1 (2010-2012) ed \`e stato sviluppato un modello di adattamento ai dati in grado di misurare la differenza di asimmetria di CP integrate nel tempo nei decadimenti $D^0 \rightarrow K^+K^-$ e $D^0 \rightarrow \pi^+\pi^-$, $\Delta A_{CP}$. Il modello \`e stato sviluppato in modo da descrivere le distribuzioni di massa invariante del $D^0$ e del $D^{*\pm}$ sia per la componente di segnale sia per quelle di fondo ed \`e stato adattato ai dati, per sottrarne i fondi e misurare le asimmetrie $A_{RAW}(K^+K^-)$ e $A_{RAW}(\pi^+\pi^-)$, corrispondenti alla differenza tra il numero di eventi di segnale $D^{*+}$ e $D^{*-}$, diviso la loro somma. La differenza di queste asimmetrie corrisponde a $\Delta A_{CP}$, la cui misura, non ufficiale, \`e stata determinata essere $\Delta A_{CP}= (-0.12\pm 0.08)\% $. Questo risultato rappresenta la miglior misura al mondo mai realizzata da un singolo esperimento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo di questo elaborato è quello di realizzare un sistema di acquisizione real-time e low cost, in grado di stimare la posizione di una sorgente sonora. Per acquisizione real-time si intende un sistema in grado di seguire gli spostamenti della sorgente audio nell'ambiente, limitando il più possibile i tempi di latenza fra un'acquisizione e l'altra. A tal fine si sfrutteranno due coppie di microfoni, che concorrereranno in maniera sequenziale alla stima dell'angolo di arrivo del suono (e quindi della retta su cui giace il punto di provenienza del suono). Combinando i dati raccolti dai quattro microfoni sarà dunque possibile risalire alla posizione di provenienza della sorgente sonora. Il software (implementato in MATLAB) verrà ampiamente discusso nei seguenti capitoli, il suo scopo sarà quello di gestire l'acquisizione dati, garantire il funzionamento real-time e fornire una stima di posizione della sorgente sonora, mostrando il relativo errore commesso durante la misura, nel caso in cui si conosca a priori la posizione della sorgente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo del lavoro esposto nella seguente relazione di tesi ha riguardato lo studio e la simulazione di esperimenti di radar bistatico per missioni di esplorazione planeteria. In particolare, il lavoro si è concentrato sull’uso ed il miglioramento di un simulatore software già realizzato da un consorzio di aziende ed enti di ricerca nell’ambito di uno studio dell’Agenzia Spaziale Europea (European Space Agency – ESA) finanziato nel 2008, e svolto fra il 2009 e 2010. L’azienda spagnola GMV ha coordinato lo studio, al quale presero parte anche gruppi di ricerca dell’Università di Roma “Sapienza” e dell’Università di Bologna. Il lavoro svolto si è incentrato sulla determinazione della causa di alcune inconsistenze negli output relativi alla parte del simulatore, progettato in ambiente MATLAB, finalizzato alla stima delle caratteristiche della superficie di Titano, in particolare la costante dielettrica e la rugosità media della superficie, mediante un esperimento con radar bistatico in modalità downlink eseguito dalla sonda Cassini-Huygens in orbita intorno al Titano stesso. Esperimenti con radar bistatico per lo studio di corpi celesti sono presenti nella storia dell’esplorazione spaziale fin dagli anni ’60, anche se ogni volta le apparecchiature utilizzate e le fasi di missione, durante le quali questi esperimenti erano effettuati, non sono state mai appositamente progettate per lo scopo. Da qui la necessità di progettare un simulatore per studiare varie possibili modalità di esperimenti con radar bistatico in diversi tipi di missione. In una prima fase di approccio al simulatore, il lavoro si è incentrato sullo studio della documentazione in allegato al codice così da avere un’idea generale della sua struttura e funzionamento. È seguita poi una fase di studio dettagliato, determinando lo scopo di ogni linea di codice utilizzata, nonché la verifica in letteratura delle formule e dei modelli utilizzati per la determinazione di diversi parametri. In una seconda fase il lavoro ha previsto l’intervento diretto sul codice con una serie di indagini volte a determinarne la coerenza e l’attendibilità dei risultati. Ogni indagine ha previsto una diminuzione delle ipotesi semplificative imposte al modello utilizzato in modo tale da identificare con maggiore sicurezza la parte del codice responsabile dell’inesattezza degli output del simulatore. I risultati ottenuti hanno permesso la correzione di alcune parti del codice e la determinazione della principale fonte di errore sugli output, circoscrivendo l’oggetto di studio per future indagini mirate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene presentato il modello di Keller-Segel per la chemiotassi, un sistema di tipo parabolico-ellittico che appare nella descrizione di molti fenomeni in ambito biologico e medico. Viene mostrata l'esistenza globale della soluzione debole del modello, per dati iniziali sufficientemente piccoli in dimensione N>2. La scelta di dati iniziali abbastanza grandi invece può causare il blow-up della soluzione e viene mostrato sotto quali condizioni questo si verifica. Infine il modello della chemiotassi è stato applicato per descrivere una fase della malattia di Alzheimer ed è stata effettuata un'analisi di stabilità del sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Strategie conoscitive per la valorizzazione di un percorso. Partendo dall'analisi storica, del territorio e del paesaggio, si mettono a sistema quattro edifici di culto lungo la Via Romea Nonantolana, osservando le tecniche costruttive impiegate nella loro realizzazione, ed i fattori ambientali al contorno con una schedatura. Si analizza lo stato di conservazione si propone uno schema di attività ispettive e manutentive, e,prendendo come esempio uno dei quattro edifici, le cause delle patologie sullo stesso e le ipotesi di intervento. Si propone infine un'idea di percorso per poter rendere più fruibili queste fabbriche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato affronta la definizione, il calcolo e l’espressione del rischio chimico in un ambiente di lavoro avendo, come oggetto di studio, un’azienda produttrice di fibre tessili e pelli sintetiche a partire da resine di Polivinilcloruro (PVC). Viene esposta la mappatura schematica degli ambienti di lavoro e la classificazione dei rischi presenti in "irrilevanti per la salute" o "non irrilevanti per la salute", come previsto dal modello di valutazione del rischio “Movarisc”. Sono descritte le successive indagini ambientali volte a verificare le concentrazioni di inquinanti nelle zone più critiche ed, infine, gli interventi migliorativi sia sulla linea di produzione che nelle procedure di lavoro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Homeorhetic Assemblies indaga le potenzialità tettoniche ed architettoniche derivanti dallo studio dei sistemi biologici decentralizzati, dei loro comportamenti e delle relazioni dinamiche con la colonia in termini di processi adattativi e costruttivi continui nel tempo. La ragione di questo interesse è radicata nei principi dell’ecologia applicata al design ed alle tecnologie di fabbricazione contemporanee, che vanno al di là della mera imitazione formale: ci si è quindi chiesto come raggiungere una spazialità complessa ed articolata, omogeneità di prestazioni ed una struttura continua caratterizzata da molti elementi aventi le stesse caratteristiche di forma e materiale. L’ecologia è lo studio di un insieme di economie, ovvero rapporti di scambio, tra un organismo ed il suo ambiente e l’efficenza dei pattern distributivi che derivano da queste relazioni sono fondamentali al fine del successo evolutivo del sistema stesso. I sistemi su cui ci si è concentrati sono caratterizzati dalla capacità di creare strutture a buon mercato (con l’uso di istruzioni semplici ed un unico materiale) e ad elevato grado di complessità ed efficienza, armonizzando l’aspetto formale con l’organizzazione materica e fisiologica. Il modello di comportamento considerato riguarda le dinamiche alla base della creazione degli alveari naturali creati dalle api millifere. Queste caratteristiche sono state codificate nella programmazione di un sistema multi agente composto da agenti autonomi in grado di interagire in un ambiente eterogeneo e capaci di depositare selettivamente elementi in una struttura composta da springs e particles, periodicamente stabilizzata ed ottimizzata. In un tale sistema, a priori sono note solo le relazioni locali per i singoli agenti ed il comportamento strutturale generale, mentre gli oggetti e gli eventi emergono in maniera non predeterminata come risultato di queste interazioni nello spazio e nel tempo. I risultati appaiono estremamente complessi ed eterogenei nella loro organizzazione spaziale, pur emergendo un set di elementi identificabili nella loro specifica singolarità (come ad esempio superfici, colonne, capriate etc...) ma che generano strutture continue, e creano grande differenziazione di densità e di disposizione dei singoli elementi all’interno della struttura. La ridondanza strutturale ottenuta è una scelta deliberata e permessa dall’automatizzazione della fase di costruzione attraverso la programmazione di robot, tramite i quali si intende realizzare un prototipo fisico delle strutture ottenute.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo di questa tesi è lo studio del legame tra la volatilità implicita e la volatilità attuale del titolo sottostante. In particolare, si cercherà di capire quanto conosciamo della volatilità del titolo sottostante se si osserva sul mercato un numero sufficiente di opzioni Call e Put Europee che dipendono da questo sottostante. Tale relazione è oggetto d'interesse pratico per gli attori dei mercati delle opzioni: si tratta di due grandezze fondamentali usate per prezzare i derivati finanziari. L'approccio usato verte alla dinamica dei processi e permetterà di mettere in luce nuove caratteristiche della volatilità implicita, nonché trovare una sua approssimazione. La dinamica del suddetto parametro è cruciale nelle operazioni di copertura e gestione del rischio per i portafogli di opzioni. Avendo a disposizione un modello per la dinamica della volatilità implicita, è possibile calcolare in maniera consistente il vega risk. La dinamica è altrettanto importante per la copertura delle opzioni esotiche, quali le opzioni barrier. Per riuscire a raggiungere il fine predisposto, si considera un modello di mercato libero da arbitraggi, il processo spot continuo e alcune assunzioni di non degenerazione. Ciononostante, si cerca di fare meno assunzioni possibili circa la dinamica del suddetto processo, in modo da trattare un modello di mercato generale, in particolare non completo. Attraverso questo approccio si potrà constatare che dai prezzi delle Call si riescono a ricavare interessanti informazioni riguardanti lo spot. Infatti, a partire da alcune condizioni di regolarità, si riesce a ricavare la dinamica della volatilità spot, osservando la dinamica della volatilità implicita.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi è stata incentrata sul gioco «Indovina chi?» per l’identificazione da parte del robot Nao di un personaggio tramite la sua descrizione. In particolare la descrizione avviene tramite domande e risposte L’obiettivo della tesi è la progettazione di un sistema in grado di capire ed elaborare dei dati comunicati usando un sottoinsieme del linguaggio naturale, estrapolarne le informazioni chiave e ottenere un riscontro con informazioni date in precedenza. Si è quindi programmato il robot Nao in modo che sia in grado di giocare una partita di «Indovina chi?» contro un umano comunicando tramite il linguaggio naturale. Sono state implementate regole di estrazione e categorizzazione per la comprensione del testo utilizzando Cogito, una tecnologia brevettata dall'azienda Expert System. In questo modo il robot è in grado di capire le risposte e rispondere alle domande formulate dall'umano mediante il linguaggio naturale. Per il riconoscimento vocale è stata utilizzata l'API di Google e PyAudio per l'utilizzo del microfono. Il programma è stato implementato in Python e i dati dei personaggi sono memorizzati in un database che viene interrogato e modificato dal robot. L'algoritmo del gioco si basa su calcoli probabilistici di vittoria del robot e sulla scelta delle domande da proporre in base alle risposte precedentemente ricevute dall'umano. Le regole semantiche realizzate danno la possibilità al giocatore di formulare frasi utilizzando il linguaggio naturale, inoltre il robot è in grado di distinguere le informazioni che riguardano il personaggio da indovinare senza farsi ingannare. La percentuale di vittoria del robot ottenuta giocando 20 partite è stata del 50%. Il data base è stato sviluppato in modo da poter realizzare un identikit completo di una persona, oltre a quello dei personaggi del gioco. È quindi possibile ampliare il progetto per altri scopi, oltre a quello del gioco, nel campo dell'identificazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi è presentato un metodo per lo studio della compartimentalizzazione dell’acqua in cellule biologiche, mediante lo studio dell’autodiffusione delle molecole d’acqua tramite uno strumento NMR single-sided. Le misure sono state eseguite nel laboratorio NMR all’interno del DIFA di Bologna. Sono stati misurati i coefficienti di autodiffusione di tre campioni in condizione bulk, ottenendo risultati consistenti con la letteratura. È stato poi analizzato un sistema cellulare modello, Saccharomyces cerevisiae, allo stato solido, ottimizzando le procedure per l’ottenimento di mappe di correlazione 2D, aventi come assi il coefficiente di autodiffusione D e il tempo di rilassamento trasversale T2. In questo sistema l’acqua è confinata e l’autodiffusione è ristretta dalle pareti cellulari, si parla quindi di coefficiente di autodiffusione apparente, Dapp. Mediante le mappe sono state individuate due famiglie di nuclei 1H. Il campione è stato poi analizzato in diluizione in acqua distillata, confermando la separazione del segnale in due distinte famiglie. L’utilizzo di un composto chelato, il CuEDTA, ha permesso di affermare che la famiglia con il Dapp maggiore corrisponde all’acqua esterna alle cellule. L’analisi dei dati ottenuti sulle due famiglie al variare del tempo lasciato alle molecole d’acqua per la diffusione hanno portato alla stima del raggio dei due compartimenti: r=2.3±0.2µm per l’acqua extracellulare, r=0.9±0.1µm per quella intracellulare, che è probabilmente acqua scambiata tra gli organelli e il citoplasma. L’incertezza associata a tali stime tiene conto soltanto dell’errore nel calcolo dei parametri liberi del fit dei dati, è pertanto una sottostima, dovuta alle approssimazioni connesse all’utilizzo di equazioni valide per un sistema poroso costituito da pori sferici connessi non permeabili. Gli ordini di grandezza dei raggi calcolati sono invece consistenti con quelli osservabili dalle immagini ottenute con il microscopio ottico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo del progetto Bird-A è di mettere a disposizione uno strumento basato su ontologie per progettare un'interfaccia web collaborativa di creazione, visualizzazione, modifica e cancellazione di dati RDF e di fornirne una prima implementazione funzionante. La visione che sta muovendo la comunità del web semantico negli ultimi anni è quella di creare un Web basato su dati strutturati tra loro collegati, più che su documenti. Questo modello di architettura prende il nome di Linked Data ed è basata sulla possibilità di considerare cose, concetti, persone come risorse identificabili tramite URI e di poter fornire informazioni e descrivere collegamenti tra queste risorse attraverso l'uso di formati standard come RDF. Ciò che ha però frenato la diffusione di questi dati strutturati ed interconnessi sono stati gli alti requisiti di competenze tecniche necessarie sia alla loro creazione che alla loro fruizione. Il progetto Bird-A si prefigge di semplificare la creazione e la fruizione di dati RDF, favorendone la condivisione e la diffusione anche fra persone non dotate di conoscenze tecniche specifiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

High Performance Computing e una tecnologia usata dai cluster computazionali per creare sistemi di elaborazione che sono in grado di fornire servizi molto piu potenti rispetto ai computer tradizionali. Di conseguenza la tecnologia HPC e diventata un fattore determinante nella competizione industriale e nella ricerca. I sistemi HPC continuano a crescere in termini di nodi e core. Le previsioni indicano che il numero dei nodi arrivera a un milione a breve. Questo tipo di architettura presenta anche dei costi molto alti in termini del consumo delle risorse, che diventano insostenibili per il mercato industriale. Un scheduler centralizzato non e in grado di gestire un numero di risorse cosi alto, mantenendo un tempo di risposta ragionevole. In questa tesi viene presentato un modello di scheduling distribuito che si basa sulla programmazione a vincoli e che modella il problema dello scheduling grazie a una serie di vincoli temporali e vincoli sulle risorse che devono essere soddisfatti. Lo scheduler cerca di ottimizzare le performance delle risorse e tende ad avvicinarsi a un profilo di consumo desiderato, considerato ottimale. Vengono analizzati vari modelli diversi e ognuno di questi viene testato in vari ambienti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Real living cell is a complex system governed by many process which are not yet fully understood: the process of cell differentiation is one of these. In this thesis work we make use of a cell differentiation model to develop gene regulatory networks (Boolean networks) with desired differentiation dynamics. To accomplish this task we have introduced techniques of automatic design and we have performed experiments using various differentiation trees. The results obtained have shown that the developed algorithms, except the Random algorithm, are able to generate Boolean networks with interesting differentiation dynamics. Moreover, we have presented some possible future applications and developments of the cell differentiation model in robotics and in medical research. Understanding the mechanisms involved in biological cells can gives us the possibility to explain some not yet understood dangerous disease, i.e the cancer. Le cellula è un sistema complesso governato da molti processi ancora non pienamente compresi: il differenziamento cellulare è uno di questi. In questa tesi utilizziamo un modello di differenziamento cellulare per sviluppare reti di regolazione genica (reti Booleane) con dinamiche di differenziamento desiderate. Per svolgere questo compito abbiamo introdotto tecniche di progettazione automatica e abbiamo eseguito esperimenti utilizzando vari alberi di differenziamento. I risultati ottenuti hanno mostrato che gli algoritmi sviluppati, eccetto l'algoritmo Random, sono in grado di poter generare reti Booleane con dinamiche di differenziamento interessanti. Inoltre, abbiamo presentato alcune possibili applicazioni e sviluppi futuri del modello di differenziamento in robotica e nella ricerca medica. Capire i meccanismi alla base del funzionamento cellulare può fornirci la possibilità di spiegare patologie ancora oggi non comprese, come il cancro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’avanzamento tecnologico degli ultimi anni ha portato ad un aumento sostanziale dei dati generati giornalmente. L’analisi di queste ingenti quantità di dati si è rivelata essere troppo complessa per i sistemi tradizionali ed è stato pertanto necessario sviluppare nuovi approcci basati sul calcolo distribuito. I nuovi strumenti sviluppati in seguito a queste nuove necessità sono framework di calcolo parallelo basati sul paradigma del MapReduce, un modello di programmazione sviluppato da Google, e sistemi di gestione di basi di dati fluidi, in grado di trattare rapidamente grandi quantità di dati non strutturati. Lo scopo alla base di entrambi è quello di costruire sistemi scalabili orizzontalmente e utilizzabili su hardware di largo consumo. L’utilizzo di questi nuovi strumenti può comunque portare alla creazione di sistemi poco ottimizzati e di difficile gestione. Nathan Marz propone un’architettura a livelli che utilizza i nuovi strumenti in maniera congiunta per creare sistemi semplici e robusti: questa prende il nome di Lambda-Architecture. In questa tesi viene introdotto brevemente il concetto di Big Data e delle nuove problematiche ad esso associate, si procede poi ad illustrare i principi su cui si basano i nuovi strumenti di calcolo distribuito sviluppati per affrontarle. Viene poi definita l’Architettura Lambda di Nathan Marz, ponendo particolare attenzione su uno dei livelli che la compone, chiamato Batch Layer. I principi della Lambda Architecture sono infine applicati nella costruzione di un Batch Layer, utilizzato per l’analisi e la gestione di dati climatici con fini statistici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene analizzato un problema di ottimizzazione proposto da alcuni esercizi commerciali che hanno la necessita` di selezionare e disporre i propri ar- ticoli in negozio. Il problema nasce dall’esigenza di massimizzare il profitto com- plessivo atteso dei prodotti in esposizione, trovando per ognuno una locazione sugli scaffali. I prodotti sono suddivisi in dipartimenti, dai quali solo un ele- mento deve essere selezionato ed esposto. In oltre si prevede la possibilita` di esprimere vincoli sulla locazione e compatibilita` dei prodotti. Il problema risul- tante `e una generalizzazione dei gia` noti Multiple-Choice Knapsack Problem e Multiple Knapsack Problem. Dopo una ricerca esaustiva in letteratura si `e ev- into che questo problema non `e ancora stato studiato. Si `e quindi provveduto a formalizzare il problema mediante un modello di programmazione lineare intera. Si propone un algoritmo esatto per la risoluzione del problema basato su column generation e branch and price. Sono stati formulati quattro modelli differenti per la risoluzione del pricing problem su cui si basa il column generation, per individuare quale sia il piu` efficiente. Tre dei quattro modelli proposti hanno performance comparabili, mentre l’ultimo si `e rivelato piu` inefficiente. Dai risul- tati ottenuti si evince che il metodo risolutivo proposto `e adatto a istanze di dimensione medio-bassa.