899 resultados para cuore modello matematico biologia dei sistemi
Resumo:
Questa tesi si inserisce nell’ambito di studio dei modelli stocastici applicati alle sequenze di DNA. I random walk e le catene di Markov sono tra i processi aleatori che hanno trovato maggiore diffusione in ambito applicativo grazie alla loro capacità di cogliere le caratteristiche salienti di molti sistemi complessi, pur mantenendo semplice la descrizione di questi. Nello specifico, la trattazione si concentra sull’applicazione di questi nel contesto dell’analisi statistica delle sequenze genomiche. Il DNA può essere rappresentato in prima approssimazione da una sequenza di nucleotidi che risulta ben riprodotta dal modello a catena di Markov; ciò rappresenta il punto di partenza per andare a studiare le proprietà statistiche delle catene di DNA. Si approfondisce questo discorso andando ad analizzare uno studio che si ripropone di caratterizzare le sequenze di DNA tramite le distribuzioni delle distanze inter-dinucleotidiche. Se ne commentano i risultati, al fine di mostrare le potenzialità di questi modelli nel fare emergere caratteristiche rilevanti in altri ambiti, in questo caso quello biologico.
Resumo:
In questo lavoro di tesi si studia un processo sperimentale necessario alla realizza- zione di un esperimento di Fisica Atomica. L’attivit`a svolta consiste nell’ottimizzazione dei paramentri di un algoritmo di con- trollo PI (proporzionale-integrale) atto a stabilizzare la temperatura di un Diodo Laser entro 1mK. Nella branca dell’Ottica Non Lineare (dove la polarizzazione del mezzo ha una rispo- sta non lineare al campo elettrico) si possono presentare casi in cui la birifrangenza del mezzo ha una forte dipendenza dalla temperatura. Questa pu o ` essere control- lata per il raggiungimento delle condizioni di phase matching. Le fluttuazioni di temperatura possono minare tramite la dilatazione termica la precisione di una ca- vit`a Fabry-Perot, utilizzata per controllare e misurare la lunghezza d’onda della luce, dato che nominalmente ∆ν/ν = − ∆L/L. Negli esperimenti di Laser Cooling infi- ne si lavora spesso con transizioni la cui larghezza naturale Γ ∼ 1MHz , mentre la frequenza di un laser pu o ́ dipendere dalla temperatura con coefficienti tipicamente dell’ordine del GHz/K. Questa stabilizzazione risulta dunque fondamentale per una vasta classe di esperi- menti nei quali le derive termiche possono influenzare drammaticamente il processo di misura. La tesi, in particolare, si apre con un capitolo nel quale si tratta brevemente il con- testo matematico di riferimento per i sistemi di controllo a retroazione. Tra questi e ` di particolare interesse la regolazione proporzionale-integrale. Il secondo capitolo si concentra sulla caratterizzazione del sistema in oggetto al fine di trovare la sua funzione di trasferimento ad anello aperto. Nel terzo capitolo infine, si utilizzano gli strumenti matematici descritti precedente- mente per ottimizzare i parametri del regolatore e si discutono i risultati ottenuti e le misure finali.
Resumo:
Questa tesi introduce le basi della teoria della computazione quantistica, partendo da un approccio teorico-matematico al concetto di qubit per arrivare alla schematizzazione di alcuni circuiti per algoritmi quantistici, analizzando la differenza tra le porte logiche classiche e la loro versione quantistica. Segue poi una lista descrittiva di possibili applicazioni dei computer quantistici, divise per categorie, e i loro vantaggi rispetto ai computer classici. Tra le applicazioni rientrano la crittografia quantistica, gli algoritmi di fattorizzazione e del logaritmo discreto di Shor, il teletrasporto di informazione quantistica e molte altre. La parte più corposa della tesi riguarda le possibili implementazioni, ovvero come realizzare praticamente un computer quantistico rendendo entità fisiche i qubit. Di queste implementazioni vengono analizzati i vari aspetti necessari alla computazione quantistica, ovvero la creazione di stati iniziali, la misura di stati finali e le trasformazioni unitarie che rappresentano le porte logiche quantistiche. Infine vengono elencate le varie problematiche del modello preso in considerazione. Infine vengono citati alcuni esperimenti e modelli recenti che potrebbero vedere una realizzazione su scala industriale nei prossimi anni.
Resumo:
Le basi neurali della memoria semantica e lessicale sono oggetto di indagine da anni nelle neuroscienze cognitive. In tale ambito, un ruolo crescente è svolto dall’uso di modelli matematici basati su reti di neuroni. Scopo del presente lavoro è di utilizzare e migliorare un modello sviluppato in anni recenti, per spiegare come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Il principio alla base del modello è che la semantica di un concetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione del concetto stesso nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è stato quello di indagare i meccanismi che portano alla formazione di categorie. Una importante modifica effettuata è consistita nell’utilizzare un meccanismo di apprendimento Hebbiano a soglia variabile, in grado di adattarsi automaticamente alla statistica delle proprietà date in input. Ciò ha portato ad un miglioramento significativo dei risultati. In particolare, è stato possibile evitare che un proprietà comune a molti (ma non a tutti) i membri di una categoria (come la proprietà “vola” per la categoria “uccelli”) sia erroneamente attribuita all’intera categoria. Nel lavoro viene presentato lo stesso modello con quattro differenti tassonomie, relative ad animali e a oggetti artificiali. La rete, una volta addestrata con una delle 4 tassonomie, è in grado di risolvere compiti di riconoscimento e denominazione di concetti, mantenendo una distinzione tra le categorie e i suoi membri, e attribuendo un diverso ruolo alle proprietà salienti rispetto alle proprietà marginali. Le tassonomie presentano un numero di concetti e features crescente, per avvicinarsi al reale funzionamento della memoria semantica, in cui ai diversi concetti è associato un numero diverso di caratteristiche.
Resumo:
Il problema dell'acidificazione degli oceani, conseguente ai cambiamenti climatici, è un processo ancora poco conosciuto. Per comprendere questo fenomeno, possono essere utilizzati degli ambienti naturalmente acidificati, considerati laboratori a cielo aperto. Lo scopo di questo lavoro di tesi è stato quello di utilizzare le fumarole presenti nell'isola di Ischia, per approfondire le dinamiche dei processi di acidificazione e per analizzare l'eventuale interazione tra pH e condizioni meteorologiche. I dati utilizzati, forniti dalla Stazione Zoologica “Anton Dohrn” di Napoli, erano serie di pH e di vento rilevate in continuo, in due aree, nord e sud rispetto all'isolotto del Castello Aragonese, e in tre stazioni lungo un gradiente di acidificazione. Tutto il lavoro è stato svolto a step, dove il risultato di un'analisi suggeriva il tipo e il metodo analitico da utilizzare nelle analisi successive. Inizialmente i dati delle due serie sono stati analizzati singolarmente per ottenere i parametri più salienti delle due serie. In seguito i dati sono stati correlati fra loro per stimare l'influenza del vento sul pH. Globalmente è stato possibile evidenziare come il fenomeno dell'acidificazione sia correlato con il vento, ma la risposta sembra essere sito-specifica, essendo risultato dipendente da altri fattori interagenti a scala locale, come la geomorfologia del territorio, le correnti marine e la batimetria del fondale. È però emersa anche la difficoltà nel trovare chiare correlazioni fra le due serie indagate, perché molto complesse, a causa sia della numerosa quantità di zeri nella serie del vento, sia da una forte variabilità naturale del pH, nelle varie stazioni esaminate. In generale, con questo lavoro si è dimostrato come utilizzare tecniche di analisi delle serie storiche, e come poter utilizzare metodi di regressione, autocorrelazione, cross-correlation e smoothing che possono integrare i modelli che prendono in considerazione variabili esogene rispetto alla variabile di interesse.
Resumo:
Il presente lavoro di tesi, nell’ambito della simulazione balistica di razzi a propellente solido, è volto alla creazione di un’interfaccia che permetta il caricamento delle geometrie dei motori desiderati, in formato SPP, nel codice di simulazione balistica ROBOOST come richiesto da Avio Spa. In particolare saranno descritte le procedure attraverso le quali tale interfaccia è stata realizzata e verranno analizzati i passaggi mediante i quali è possibile ottenere una mesh 3D del motore a propellente solido partendo dalla sua geometria in formato SPP. Si analizzerà inoltre il processo di chiusura di una mesh estratta da una qualsiasi iterazione della simulazione al fine di potervi effettuare delle simulazioni CFD sempre su richiesta della sopracitata azienda. Infine verranno mostrati e discussi i risultati ottenuti per meglio visualizzare il lavoro svolto.
Resumo:
La presente tesi si propone di analizzare i pacemaker e i defibrillatori cardiaci impiantabili, soprattutto dal punto di vista tecnico ma anche dal punto di vista medico per darne una descrizione il più possibile completa e dettagliata, al fine di comprenderne il funzionamento e come questi dispositivi aiutino a correggere i principali disturbi cardiaci.
Resumo:
Questo progetto di tesi è lo sviluppo di un sistema distribuito di acquisizione e visualizzazione interattiva di dati. Tale sistema è utilizzato al CERN (Organizzazione Europea per la Ricerca Nucleare) al fine di raccogliere i dati relativi al funzionamento dell'LHC (Large Hadron Collider, infrastruttura ove avvengono la maggior parte degli esperimenti condotti al CERN) e renderli disponibili al pubblico in tempo reale tramite una dashboard web user-friendly. L'infrastruttura sviluppata è basata su di un prototipo progettato ed implementato al CERN nel 2013. Questo prototipo è nato perché, dato che negli ultimi anni il CERN è diventato sempre più popolare presso il grande pubblico, si è sentita la necessità di rendere disponibili in tempo reale, ad un numero sempre maggiore di utenti esterni allo staff tecnico-scientifico, i dati relativi agli esperimenti effettuati e all'andamento dell'LHC. Le problematiche da affrontare per realizzare ciò riguardano sia i produttori dei dati, ovvero i dispositivi dell'LHC, sia i consumatori degli stessi, ovvero i client che vogliono accedere ai dati. Da un lato, i dispositivi di cui vogliamo esporre i dati sono sistemi critici che non devono essere sovraccaricati di richieste, che risiedono in una rete protetta ad accesso limitato ed utilizzano protocolli di comunicazione e formati dati eterogenei. Dall'altro lato, è necessario che l'accesso ai dati da parte degli utenti possa avvenire tramite un'interfaccia web (o dashboard web) ricca, interattiva, ma contemporaneamente semplice e leggera, fruibile anche da dispositivi mobili. Il sistema da noi sviluppato apporta miglioramenti significativi rispetto alle soluzioni precedentemente proposte per affrontare i problemi suddetti. In particolare presenta un'interfaccia utente costituita da diversi widget configurabili, riuitilizzabili che permettono di esportare i dati sia presentati graficamente sia in formato "machine readable". Un'alta novità introdotta è l'architettura dell'infrastruttura da noi sviluppata. Essa, dato che è basata su Hazelcast, è un'infrastruttura distribuita modulare e scalabile orizzontalmente. È infatti possibile inserire o rimuovere agenti per interfacciarsi con i dispositivi dell'LHC e web server per interfacciarsi con gli utenti in modo del tutto trasparente al sistema. Oltre a queste nuove funzionalità e possbilità, il nostro sistema, come si può leggere nella trattazione, fornisce molteplici spunti per interessanti sviluppi futuri.
Resumo:
Questa tesi affronta uno dei principali argomenti trattati dalla finanza matematica: la determinazione del prezzo dei derivati finanziari. Esistono diversi metodi per trattare questo tema, ma in particolare vengono illustrati i metodi che usano la trasformata di Fourier. Questi ultimi infatti ci permettono di sostituire il calcolo dell'attesa condizionata scontata, con il calcolo dell'integrale della trasformata di Fourier, in quanto la funzione caratteristica, cioè la trasformata di Fourier della funzione densità, è più trattabile rispetto alla funzione densità stessa. Vengono in primo luogo analizzate alcune importanti formule di valutazione e successivamente implementate, attraverso il software Mathematica. I modelli di riferimento utilizzati per l'implementazione sono il modello di Black-Scholes e il modello di Merton.
Resumo:
In questo progetto di tesi saranno applicate tecniche appartenenti al campo della bioingegneria, indirizzate al riconoscimento delle attività motorie e all’analisi del movimento umano. E' stato definito un protocollo di ricerca necessario per il raggiungimento degli obiettivi finali. Si è quindi implementata un’App Android per l’acquisizione e il salvataggio dei dati provenienti dai principali sensori di Smartwatch e Smartphone, utilizzati secondo le modalità indicate nel protocollo. Successivamente i dati immagazzinati nei dispositivi vengono trasferiti al Pc per effettuarne l’elaborazione off-line, in ambiente Matlab. Per facilitare la seguente procedura di sincronizzazione dei dati intra e inter-device, tutti i sensori sono stati salvati, dall’App Android, secondo uno schema logico definito. Si è perciò verificata la possibilità del riconoscimento del contesto e dell’attività nell’uso quotidiano dei dispositivi. Inoltre si è sviluppato un algoritmo per la corretta identificazione del numero dei passi, indipendentemente dall’orientamento del singolo dispositivo. Infatti è importante saper rilevare in maniera corretta il numero di passi effettuati, soprattutto nei pazienti che, a causa di diverse patologie, non riescono ad effettuare una camminata fluida, regolare. Si è visto come il contapassi integrato nei sistemi commerciali per il fitness più diffusi (Smartwatch), pecca soprattutto in questa valutazione, mentre l’algoritmo, appositamente sviluppato, è in grado di garantire un’analisi accettabile a prescindere dal tipo di attività svolta, soprattutto per i dispositivi posizionati in L5. Infine è stato implementato un algoritmo, che sfrutta il filtro di Kalman e un modello biomeccanico appositamente sviluppato, per estrapolare l’evoluzione dell’angolo Tronco-Coscia. Avere a disposizione tale informazione e perciò conoscere la biomeccanica e la cinematica del corpo umano, rende possibile l’applicazione di questa procedura in svariati campi in ambito clinico e non.
Resumo:
La diatomea presa in esame in questo studio è Phaeodactylum tricornutum, diatomea marina con simmetria pennata. L’interesse commerciale verso Phaeodactylum tricornutum nasce dal suo alto contenuto di acidi grassi polinsaturi (PUFA), tra cui troviamo alcuni omega 3, come l’acido eicosapentaenoico (EPA) e l’acido docosaesaenoico (DHA) e dalla quantità del polisaccaride di riserva prodotto, il β-1,3 glucano crisolaminarina. E’stata studiata la capacità dei β-1,3 glucani, in particolare della laminarina, di inibire l’attacco cellulare da parte di alcuni batteri dannosi per la salute umana. Anche i pigmenti accessori di questa diatomea in particolare il β-carotene (appartenente ai caroteni) e la fucoxantina (appartenente alle xantofille) possono essere impiegati nella nutraceutica. Negli studi svolti precedentemente sull’effetto di fattori ambientali sulla composizione di questa specie, è stata presa in considerazione solo la produzione di lipidi e non è mai stato seguito contemporaneamente l’andamento di lipidi e polisaccaridi: questo progetto di tesi prevede la valutazione della possibilità di ottenere colture di P. tricornutum ad alto contenuto sia polisaccaridico sia lipidico per applicazioni industriali. Tutto il lavoro di tesi si è svolto presso l’azienda Micoperi Blue Growth (MBG), nello stabilimento di Ortona (CH) in due fasi: nella prima fase l’esperimento è stato condotto in batch su piccola scala e la crescita e la composizione di P. tricornutum sono state seguite in due diversi terreni di coltura: uno ricco in azoto, denominato N, per mezzo del quale si è voluta incrementare la crescita e la biomassa ed uno a ridotto contenuto di azoto, denominato N/3, per indurre la produzione di lipidi e polisaccaridi. Ne è stata seguita la crescita per mezzo di misure di assorbanza, peso secco, pH, conta cellulare, determinazione dei macronutrienti ed è stata analizzata la composizione biochimica con determinazione dei composti polisaccaridici totali, determinazione qualitativa dei polisaccaridi, determinazione della clorofilla a, valutazione quantitativa e qualitativa dei lipidi. E' stato notato che la condizione con un contenuto polisaccaridico e lipidico maggiore è quella con un ridotto contenuto di azoto. Con la seconda fase si è voluto verificare la riproducibilità su larga scala di quanto notato nel primo esperimento in sistemi chiusi industriali. E’stata avviata una monocoltura di Phaeodactylum tricornutum in fotobioreattore (PBR) da 70L in semicontinuo e ne è stata monitorata la crescita misurando assorbanza, peso secco, pH, quantità di macronutrienti nel terreno; la composizione biochimica è stata valutata determinando i polisaccaridi totali e la loro composizione qualitativa, le proteine totali, i lipidi totali e la composizione qualitativa. In conclusione con questo lavoro si è visto il terreno migliore per la produzione di polisaccaridi e lipidi e le tempistiche di produzione in Phaeodactylum tricornutum, e in aggiunta, abbiamo dimostrato che sia contenuti che tempistiche sono riproducubili in un sistema industriale chiuso per produrre biomassa ad alto valore commerciale.
Resumo:
Nel presente lavoro sono state analizzate le distribuzioni quantitative dei Foraminiferi planctonici e bentonici presenti in una carota e in un box core prelevati nel Mare di Ross in Antartide durante la campagna KOPRI ANTA03 nel Febbraio 2013 nell’ambito del progetto di ricerca congiunto Corea- Italia finanziato dal Progetto Nazionale di Ricerca in Antartide (PNRA). Scopo del lavoro è stato quello di comprendere l’evoluzione ambientale dell’area in base alla distribuzione quantitativa e qualitativa delle associazioni a Foraminiferi nel tardo Quaternario. In base alla distribuzione quantitativa dei Foraminiferi identificati, la sequenza sedimentaria della carota C2 è stata suddivisa in tre intervalli corrispondenti a tre principali fasi paleoceanografiche/paleoclimatiche. La prima fase, più antica di 18 ka, caratterizzata dall’assenza o rarità di forme documenta un ambiente con presenza di copertura glaciale. La seconda, depositatasi tra 18 ka e ~8 ka è caratterizzata da una maggiore variabilità intraspecifica e riflette un miglioramento delle condizioni climatiche. La terza, corrisponde ad un periodo compreso tra ~8 ka e ~2 ka. La presenza di forme agglutinanti e l’assenza di Foraminiferi a guscio calcareo suggeriscono la presenza di condizioni di dissoluzione carbonatica sul fondale in un ambiente marino libero da copertura glaciale. La documentazione di numerosi individui allo stadio giovanile di Neogloboquadrina pachyderma durante l’intervallo B ha reso possibile avanzare ipotesi riguardo la strategia di sopravvivenza di questa specie in ambiente estremo quale il ghiaccio antartico. La somiglianza morfologica tra individui giovanili di Neogloboquadrina pachyderma riscontrata durante il nostro studio nei sedimenti a livello fossile nella carota con individui giovanili della stessa specie provenienti da campioni di ghiaccio marino antartico documentati in bibliografia, ha permesso di supportare la tesi dello sviluppo di tali forme nei pori del “microghiaccio”.
Resumo:
L’azoto è uno dei prodotti principali dell’industria chimica, utilizzato principalmente per assicurare un sicuro stoccaggio di composti infiammabili. Generatori con sistemi PSA sono spesso più economici della tradizionale distillazione criogenica. I processi PSA utilizzano una colonna a letto fisso, riempita con materiale adsorbente, che adsorbe selettivamente un componente da una miscela gassosa. L’ossigeno diffonde molto più velocemente dell'azoto nei pori di setacci molecolari carboniosi. Oltre ad un ottimo materiale adsorbente, anche il design è fondamentale per la performance di un processo PSA. La fase di adsorbimento è seguita da una fase di desorbimento. Il materiale adsorbente può essere quindi riutilizzato nel ciclo seguente. L’assenza di un simulatore di processo ha reso necessario l’uso di dati sperimentali per sviluppare nuovi processi. Un tale approccio è molto costoso e lungo. Una modellazione e simulazione matematica, che consideri tutti i fenomeni di trasporto, è richiesta per una migliore comprensione dell'adsorbente sia per l'ottimizzazione del processo. La dinamica della colonna richiede la soluzione di insiemi di PDE distribuite nel tempo e nello spazio. Questo lavoro è stato svolto presso l'Università di Scienze Applicate - Münster, Germania. Argomento di questa tesi è la modellazione e simulazione di un impianto PSA per la produzione di azoto con il simulatore di processo Aspen Adsorption con l’obiettivo di permettere in futuro ottimizzazioni di processo affidabili, attendibili ed economiche basate su computazioni numeriche. E' discussa l’ottimizzazione di parametri, dati cinetici, termodinamici e di equilibrio. Il modello è affidabile, rigoroso e risponde adeguatamente a diverse condizioni al contorno. Tuttavia non è ancora pienamente soddisfacente poiché manca una rappresentazione adeguata della cinetica ovvero dei fenomeni di trasporto di materia. La messa a punto del software permetterà in futuro di indagare velocemente nuove possibilità di operazione.
Resumo:
Il progetto parte da un’indagine preliminare relativa alla città di Bogotà, capitale della Colombia che, a causa della rapida urbanizzazione a cui è andata incontro nel corso degli anni, presenta un tessuto urbano frammentario e disorganizzato. In seguito all'aumento spropositato della popolazione, la storia della Colombia documenta un sempre più crescente bisogno di abitazioni ed è proprio da questa situazione che si sviluppa il presente elaborato. Occorre ricucire il tessuto urbano esistente ridefinendo un nuovo sistema di aree residenziali, servizi primari, pubblici, sanitari e aree per la collettività che siano in grado di regolare i futuri insediamenti urbani. La localidad Usme si colloca a Sud di Bogotà, si tratta di una delle localidades più povere e prive di servizi, il cui suolo urbano è interamente ricoperto di abitazioni di piccole dimensioni insalubri e insicure. In questa zona periferica rurale, accanto alle tipiche viviendas informales, si stanno sviluppando le nuove costruzioni collettive edificate ad opera di “MetroVivienda” . Questa società realizza dei massicci blocchi edilizi sfruttando al massimo lo spazio a disposizione senza rispettare le preesistenze o gli spazi aperti, deturpando il contesto in cui si inseriscono e l’assetto originale della città. Il punto di partenza per la comprensione della realtà urbana di Usme è rappresentato dallo studio del rigido schema a griglia dell' assetto urbano, tipico delle fondazioni coloniali della Capitale, che sarà la base generatrice del progetto di ricucitura del tessuto. Lo scopo di questo lavoro è lo sviluppo di un progetto che si adatti al contesto, valorizzando il paesaggio e la naturalità del luogo, per mezzo della riqualificazione del tessuto esistente e che sia in grado di integrare il vecchio con il nuovo.
Resumo:
La presente tesi tratta dello sviluppo e progettazione di sistemi di automazione applicati a Macchine Industriali. Il documento è strutturato come segue: - Capitolo 1: Nel primo capitolo viene illustrata la parte embrionale del progetto, ovvero vengono descritte le prime fasi di natura tecnica nelle quali tramite interazioni con il Cliente vengono acquisite le specifiche,i dati e le informazioni su cui basare il Progetto; - Capitolo 2: Nel secondo capitolo viene mostrato come procedere, una volta recepite le informazioni di carattere generale del progetto desiderato, con lo studio e ricerca della soluzione ingegneristica più idonea in accordo con le Normative vigenti; - Capitolo 3: Nel terzo capitolo viene chiarito lo sviluppo vero e proprio del progetto e la ricerca dei componenti e degli apparati da prevedere; - Capitolo 4: Nel quarto capitolo viene illustrata una delle parti più delicate e importanti del progetto, la direzione lavori, insieme allo svolgimento dei test finali e alla redazione della documentazione finale da consegnare al Cliente; - Conclusioni. Dove ogni capitolo è diviso in due parti, la prima è introduttiva, dove vengono forniti gli strumenti teorici per la trattazione del problema, mentre la seconda è sperimentale e fa riferimento a un progetto da me sviluppato riguardante un Revamping di un sistema di riempimento sacchi.