899 resultados para cuore modello matematico biologia dei sistemi
Resumo:
In questo elaborato verranno presentati le finalità, gli sviluppi e le prospettive future di una tipologia di coltura cellulare, ovvero dei microphysiological systems - MPS (o organs-on-chips), nuovi microdispositivi atti a riprodorre il più fedelmente possibile le condizioni fisiologiche adatte per la crescita e il mantenimento di strutture cellulari complesse. Verranno quindi inizialmente descritte le specifiche di base di questi dispositivi, sottolineandone l'innovatività dal punto di vista tecnologico e funzionale. Grazie agli MPS è infatti stato possibile intraprendere studi per una migliore comprensione del comportamento in condizioni dinamiche di una vasta gamma di tessuti, e la risposta di questi a stimoli chimici e fisici, rappresentativi di condizioni fisiologiche o patologiche, aprendo così le porte a nuovi standard per la sperimentazione clinica. Verrà quindi proposto un caso di studio, che riguarda l'applicazione di quanto sopra all'ambito cardiocircolatorio, prendendo in esame un modello di heart-on-a-chip, descrivendolo in tutte le fasi della sua realizzazione e infine discutendo uno studio riguardante la risposta delle cellule del muscolo cardiaco a un trattamento farmacologico.
Resumo:
Analisi e applicazione dei processi di data mining al flusso informativo di sistemi real-time. Implementazione e analisi di un algoritmo autoadattivo per la ricerca di frequent patterns su macchine automatiche.
Resumo:
La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.
Resumo:
Le tecniche di imaging al seno per la rilevazione di tumori stanno interessando un notevole numero di gruppi di ricerca in campo biomedico soprattutto negli ultimi anni. In particolare si cercano metodologie innovative in quanto le attuali tecniche già sviluppate e utilizzate in campo clinico, mammografia a raggi X e risonanza magnetica (MRI), presentano alcuni limiti. Questa tesi si focalizzerà in particolare su una di queste tecniche emergenti: l’imaging a microonde (MWI). Questo metodo infatti, limita notevolmente i costi, evita disagi per la paziente come la compressione del seno, penetra in modo ottimale nei tessuti e non li ionizza. La MWI si basa sulle diverse proprietà dielettriche, permittività e conduttività, dei vari tessuti che costituiscono la mammella, in particolare tra tessuto sano e maligno. Lo scopo di questa tesi è quello di analizzare tali proprietà dielettriche, le diversità che i vari tessuti presentano e come tutto ciò venga sfruttato per ottenere l’imaging della mammella. In particolare questo lavoro si propone di riportare e analizzare i principali studi sui tessuti biologici della mammella compiuti nel corso degli anni riguardo queste proprietà dielettriche e i rispettivi risultati ottenuti. Si tratteranno inoltre i mezzi di accoppiamento: soluzioni in cui è immerso l’assetto antenne-oggetto che minimizzano la riflessione del segnale sulla pelle e assicurano una migliore qualità di immagine.
Resumo:
Negli ultimi anni è aumentato l’interesse dell’industria verso lo sviluppo di tecnologie alternative ai trattamenti tradizionali degli alimenti. Tra le varie tecnologie non termiche troviamo il gas plasma. Il plasma è un gas ionizzato neutro, composto da diverse particelle. I principali agenti responsabili dell’azione battericida sembrano essere le specie reattive dell’ossigeno e dell’azoto, causando danni alle cellule microbiche. Recentemente si sta studiando l’“acqua plasmata attivata”. L’obiettivo generale di questa tesi è stato quello di verificare se trattamenti al plasma di soluzioni saline (NaCl 0.9%) possano “attivarle” dotandole di attività battericida nei confronti di un ceppo di Listeria monocytogenes (ceppo 56 Ly) e di stabilire se il materiale con cui sono costruiti gli elettrodi di un generatore di plasma del tipo DBD, possa influenzare l’efficacia delle soluzioni trattate. Si sono pertanto effettuati trattamenti al plasma di soluzioni saline utilizzando elettrodi di differenti materiali: vetro, ottone, acciaio, argento; le soluzioni così ottenute sono state analizzate in termini chimici, e se ne è valutata l’azione decontaminante nei confronti di Listeria monocytogenes 56 Ly nello stesso sistema modello e, in via preliminare, in sistema reale rappresentato da carote julienne deliberatamente contaminate con L. monocytogenes. Dai risultati ottenuti si è visto che la sensibilità di L. monocytogenes 56Ly alle soluzioni acquose trattate al plasma è influenzato sia dal tipo di materiale dell’elettrodo, sia dal tempo di esposizione. L’acciaio si è rivelato il materiale più efficace. Per quanto concerne il sistema reale, il lavaggio con acqua plasmata per 60 minuti ha determinato un livello di inattivazione di circa 1 ciclo logaritmico analogamente a quanto ottenuto con la soluzione di ipoclorito. In conclusione, i risultati ottenuti hanno evidenziato una minore efficacia dei trattamenti al plasma quando applicati ai sistemi reali, ma comunque il gas plasma ha delle buone potenzialità per la decontaminazione prodotti ortofrutticoli.
Resumo:
L'elaborato tratta le transizioni di fase nel modello di Ising, usato per descrivere i sistemi magnetici. Tramite l'argomento di Landau viene introdotto il problema della dimensionalità per l'esistenza di una fase ferromagnetica. Con il sistema di un gas forzato su reticolo viene presentato il carattere universale dei fenomeni critici per mezzo degli esponenti critici. Viene poi risolto in modo esatto il modello unidimensionale, che non prevede una fase ferromagnetica. Per sistemi a dimensionali maggiore viene introdotto il metodo dell'approssimazione di campo medio. Viene infine determinato il valore della temperatura critica per reticoli planari quadrati e di questi viene mostrata la soluzione esatta di Lars Onsager.
Resumo:
La tesi tratta l’analisi preliminare dell’Organization Environmental Footprint (OEF) dell’ente gestore dell’aeroporto Falcone - Borsellino di Palermo (GES.A.P.). Viene inoltre sviluppato un nuovo metodo per la classificazione degli aspetti ambientali utilizzabile all’interno del Sistema di Gestione Ambientale (SGA) attualmente utilizzato dall’ente GES.A.P. Dopo un'introduzione sulle ragioni che hanno portato allo sviluppo di questi strumenti, vengono approfondite le fasi necessarie per la loro applicazione, specificate nella guida metodologica sull’OEF e nella norma ISO 14001. I dati raccolti per il calcolo dell’OEF sono stati inseriti in un modello dell’organizzazione creato con il software GaBi7 al fine di stimare gli impatti ambientali dell’organizzazione negli anni analizzati. In questo lavoro viene effettuata un’analisi del metodo EMRG (Environmental Management Research Group) utilizzato per l’individuazione e la classificazione degli aspetti ambientali nell’ambito del SGA (certificato ISO 14001:2004) di GESAP e delle innovazioni introdotte nella versione 2015 della norma ISO 14001. Viene suggerito un metodo alternativo basato sull’integrazione dei risultati di un'analisi Life Cicle Assessment (LCA), svolta tramite l’OEF, con la metodologia EMRG, attualmente impiegata, al fine di avviare il processo di transizione del SGA verso l’aggiornamento-consegna richiesto dalla ISO14001:2015. Dall’applicazione del metodo viene ricavata una nuova gerarchia degli aspetti ambientali di GESAP utilizzabile per l’implementazione del suo SGA.
Resumo:
L’aumento della frequenza di accadimento e dell’intensità di eventi di tempesta rappresenta una seria minaccia per gli ambienti costieri, in particolare per quelli dominati da spiagge sabbiose. Nel seguente lavoro di tesi si è voluto approfittare di un evento di flooding che ha interessato la spiaggia di Cesenatico (Febbraio 2015), provocando un lieve arretramento della linea di riva, per valutare la risposta del comparto macrobentonico a uno shift da zona intertidale a quella di primo subtidale. I dati relativi al periodo post-disturbo (after), mostrano variazioni sia dal punto di vista dell’ambiente fisico che delle comunità bentoniche ad esso associate; per quanto riguarda i campioni del 2015, si è osservata una diminuzione della media granulometrica e un aumento della materia organica rispetto al 2011 (before). Si evidenziano differenze anche tra le comunità bentoniche before e after l’evento, con valori di abbondanza, numero di taxa e diversità maggiori in after, nonché dell’intera struttura di comunità in cui si osservano variazioni di dominanza di particolari specie e l’insediamento di specie non presenti prima dell’evento. In before c’è una dominanza di S. squamata, un polichete fossatorio tipico dell’intertidale. In after è risultato che molte più specie concorrono nel determinare i pattern osservati, ed emerge una netta dominanza di L. mediterraneum e dei tanaidacei del genere Apseudes. I valori delle variabili ambientali e biotiche sono stati utilizzati per costruire un modello previsionale FNB (fuzzy naive Bayes) che è stato utilizzato con i dati abiotici relativi all’after per prevedere i pattern di comunità. Dalle simulazioni si osserva che i pattern spaziali del macrobenthos seguono l’evoluzione dell’intero sistema, confermando uno shift da intertidale a primo subtidale e può essere usato come base per comprendere gli effetti di un flooding costiero su sistemi vulnerabili qual è la spiaggia di Cesenatico.
Resumo:
Questo studio è mirato ad analizzare ed ottimizzare il consumo dei reagenti solidi impiegati da uno stabilimento di termovalorizzazione di rifiuti solidi urbani e speciali (Silea S.p.A, presso Valmadrera (LC)), per abbattere le correnti acide trattate nelle due linee fumi multistadio. Dopo aver scelto quale delle due linee prendere come riferimento, per poi riportare i risultati ottenuti anche sull’altra con opportune correzioni, il lavoro è stato condotto in diverse fasi, e affiancato da un costante confronto diretto con gli ingegneri e i tecnici dello stabilimento. Una volta preso atto delle normali condizioni di funzionamento dell’impianto, si è proceduto all’esecuzione di test, mirati a quantificare l’efficienza di rimozione dell’acido cloridrico, da parte del bicarbonato di sodio e dell’innovativo sorbente dolomitico, brevettato sotto il nome: Depurcal® MG. I test sono stati suddivisi in giornate differenti in base al tipo di reattivo da analizzare (e quindi lo stadio) e programmati in modo che permettessero di correlare la conversione dell’HCl alla portata di reagente solido introdotto. Una volta raccolti i dati, essi sono stati elaborati e filtrati in base a criteri oggettivi, per poi essere analizzati con senso critico, fornendo un quadro completo sulla reale potenzialità dell’impianto. Attraverso l’utilizzo di un opportuno modello è stato possibile caratterizzarlo e individuare la migliore condizione economico-operativa per ognuno dei possibili scenari individuati.
Resumo:
I depositi di liquidi infiammabili sono stabilimenti industriali in cui avvengono spesso incendi di grandi dimensioni a causa degli ingenti quantitativi di sostanze infiammabili detenute. Gli incendi tipici dei liquidi infiammabili sono gli incendi di pozza in caso di rilascio del liquido al suolo e gli incendi di serbatoio in caso di ignizione del liquido all’interno del serbatoio stesso. Tali incendi hanno la potenzialità di danneggiare le apparecchiature limitrofe, determinandone il cedimento e dunque l’incremento delle dimensioni dell’incendio e dell’area di danno; tale fenomeno è detto effetto domino. Per la modellazione degli incendi sono disponibili diversi strumenti, divisibili essenzialmente in due categorie: modelli semplici, ovvero basati su correlazioni semi-empiriche e modelli avanzati, costituiti dai codici CFD. L’obiettivo principale del presente lavoro di tesi è il confronto tra le diverse tipologie di strumenti disponibili per la modellazione degli incendi di liquidi infiammabili. In particolare sono stati confrontati tra loro il codice FDS (Fire Dynamics Simulator), il metodo del TNO ed il modello per gli incendi di pozza incorporato nel software ALOHA. Il codice FDS è un modello avanzato, mentre il metodo del TNO ed il modello implementato nel software ALOHA sono modelli semplici appartenenti alla famiglia dei Solid Flame Models. La prima parte del presente lavoro di tesi è dedicata all’analisi delle caratteristiche e delle problematiche di sicurezza dei depositi di liquidi infiammabili, con specifico riferimento all’analisi storica. Nella seconda parte invece i tre metodi sopra citati sono applicati ad un parco serbatoi di liquidi infiammabili ed è effettuato il confronto dei risultati, anche ai fini di una valutazione preliminare dell’effetto domino. La tesi è articolata in 6 capitoli. Dopo il Capitolo 1, avente carattere introduttivo, nel Capitolo 2 vengono richiamati i principali concetti riguardanti gli incendi e vengono analizzate le caratteristiche e le problematiche di sicurezza dei depositi di liquidi infiammabili. Il Capitolo 3 è dedicato alla discussione delle caratteristiche degli incendi di pozza, alla presentazione delle tipologie di strumenti a disposizione per la loro modellazione ed alla descrizione di dettaglio dei modelli utilizzati nel presente lavoro di tesi. Il Capitolo 4 contiene la presentazione del caso di studio. Nel Capitolo 5, che costituisce il cuore del lavoro, i modelli descritti sono applicati al caso di studio, con un’approfondita discussione dei risultati e una valutazione preliminare dell’effetto domino. Nel Capitolo 6 infine sono riportate alcune considerazioni conclusive.
Resumo:
Questo elaborato presenta una procedura di rilievo eseguito con la scansione Laser e la Fotogrammetria per lo studio della facciata della Chiesa di Santa Lucia in Bologna e le successive elaborazioni dei dati tramite software di correlazione automatica Open Source e commerciali Low Cost basati sui principi della Structure from Motion. Nel particolare, il rilievo laser è stato eseguito da 5 posizioni diverse e tramite l’utilizzo di 7 target, mentre il rilievo fotogrammetrico è stato di tipo speditivo poiché le prese sono state eseguite solo da terra ed è stato impiegato un tempo di lavoro minimo (una decina di minuti). I punti di appoggio per la georeferenziazione dei dati fotogrammetrici sono stati estratti dal datum fornito dal laser e dal set di fotogrammi a disposizione è stato ottenuta una nuvola di punti densa tramite programmi Open Source e con software commerciali. Si sono quindi potuti operare confronti tra i risultati ottenuti con la fotogrammetria e tra il dato che si aveva di riferimento, cioè il modello tridimensionale ottenuto grazie al rilievo laser. In questo modo si è potuto verificare l’accuratezza dei risultati ottenuti con la fotogrammetria ed è stato possibile determinare quale calcolo teorico approssimativo dell’errore poteva essere funzionante per questo caso di studio e casi simili. Inoltre viene mostrato come produrre un foto raddrizzamento tramite l’utilizzo di una sola foto utilizzando un programma freeware. Successivamente è stata vettorializzata la facciata della chiesa ed è stata valutata l’accuratezza di tale prodotto, sempre confrontandola con il dato di riferimento, ed infine è stato determinato quale calcolo teorico dell’errore poteva essere utilizzato in questo caso. Infine, avendo notato la diffusione nel commercio odierno della stampa di oggetti 3D, è stato proposto un procedimento per passare da una nuvola di punti tridimensionale ad un modello 3D stampato.
Resumo:
Negli ultimi cinque anni lo sviluppo di applicazioni mobile ha visto un grandissimo incremento dovuto pricipalmente all’esplosione della diffusione di smartphone; questo fenomeno ha reso disponibile agli analisti una enorme quantità di dati sulle abitudini degli utenti. L’approccio centralizzato nella distribuzione delle applicazioni da parte dei grandi provider quali Apple, Google e Microsoft ha permesso a migliaia di sviluppatori di tutto il mondo di raggiungere con i loro prodotti gli utenti finali e diffondere l’utilizzo di applicativi installabili; le app infatti sono diventate in poco tempo fondamentali nella vita di tutti i giorni e in alcuni casi hanno sostituito funzioni primarie del telefono cellulare. Obiettivo principale di questo studio sarà inferire pattern comportamentali dall’analisi di una grossa mole di dati riguardanti l’utilizzo dello smartphone e delle app installabili da parte di un gruppo di utenti. Ipotizzando di avere a disposizione tutte le azioni che un determinato bacino di utenza effettua nella selezione delle applicazioni di loro interesse quando accedono al marketplace (luogo digitale da cui è possibile scaricare nuove applicazioni ed installarle) è possibile stimare, ovviamente con un certo margine di errore, dati sensibili dell’utente quali: Sesso, Età, Interessi e così via analizzandoli in relazione ad un modello costruito su dati di un campione di utenti ben noto. Costruiremo così un modello utilizzando dati di utenti ben noti di cui conosciamo i dettagli sensibili e poi, tramite avanzate tecniche di regressione e classificazione saremo in grado di definire se esiste o meno una correlazione tra le azioni effettuate su uno Smartphone e il profilo dell’utente. La seconda parte della tesi sarà incentrata sull'analisi di sistemi di raccomandazioni attualmente operativi e ci concentreremo sullo studio di possibili sviluppi sviluppi futuri di questi sistemi partendo dai risultati sperimentali ottenuti.
Resumo:
L’obiettivo della tesi è definire un modello che permetta di realizzare applicazioni che integrino diverse tecnologie come la realtà aumentata, pervasive computing e Internet of Things. In particolare si analizza la nozione di "augmentation" che indica un’estensione e un arricchimento delle funzionalità e delle informazioni che possono essere percepite dai sensi umani e che può essere ritrovata, in modo diverso, nelle tecnologie trattate. A tal proposito, si introduce l’idea di augmented world, il cui scopo è quello di realizzare un livello aumentato collegato ad un livello fisico, attraverso il quale permettere l’interazione tra elementi virtuali ed elementi fisici. In seguito, tramite un'analisi tassonomica si vogliono individuare le caratteristiche ed i requisiti fondanti degli ambiti applicativi trattati per poter definire un modello che possa essere utilizzato come riferimento per le diverse tipologie di applicazioni. Infine il modello proposto è stato applicato a diversi casi di studio che spaziano tra i principali contesti applicativi in cui vengono utilizzate le tecnologie illustrate. La modellazione è fatta prescindendo da alcuni aspetti relativi alla comunicazione o alla sincronizzazione tra livello reale e livello aumentato, in quanto l’obiettivo è esporre una prima validazione del modello che permetta di riscontrarne l’adeguatezza ed eventuali limiti per una futura raffinazione.
Resumo:
La presente tesi descrive la messa a punto del modello geotecnico del sottosuolo di una zona dell’Emilia-Romagna che comprende i Comuni di Cesenatico, Gatteo, San Mauro Pascoli, Savignano sul Rubicone e Bellaria-Igea Marina. Il modello si basa principalmente sull'interpretazione delle misure da prove penetrometriche statiche con piezocono e dei sondaggi, unitamente ad un più limitato numero di prove di laboratorio. Nella prima parte della tesi si descrive la geologia dell'area e si illustra il database sperimentale disponibile. Nella seconda parte sono invece analizzate nel dettaglio le prove ai fini della individuazione delle unità stratigrafiche presenti e della successiva caratterizzazione meccanica delle stesse. Il modello è stato costruito in diverse fasi. Nella prima fase sono state elaborate le singole prove penetrometriche: utilizzando approcci interpretativi noti, per lo più di tipo empirico, si è proceduto a classificare i terreni attraversati, sono state preliminarmente individuate alcune le unità stratigrafiche presenti e ad esse sono stati assegnati valori rappresentativi dei parametri meccanici di interesse. Successivamente si è proceduto ad una sintesi delle informazioni e dei risultati conseguiti per le singole verticali di analisi, facendo riferimento ad un certo numero di sezioni longitudinali e trasversali ritenute più significative. In questo modo è stato possibile costruire un modello geotecnico alla scala territoriale, con l'obiettivo non solo di fornire uno strumento utile in una fase preliminare della progettazione geotecnica, ma anche di indirizzare il progettista nell’ottimizzazione delle prove da programmare e nella scelta delle procedure interpretative più idonee per la stima dei parametri meccanici.
Resumo:
Negli ultimi anni la biologia ha fatto ricorso in misura sempre maggiore all’informatica per affrontare analisi complesse che prevedono l’utilizzo di grandi quantità di dati. Fra le scienze biologiche che prevedono l’elaborazione di una mole di dati notevole c’è la genomica, una branca della biologia molecolare che si occupa dello studio di struttura, contenuto, funzione ed evoluzione del genoma degli organismi viventi. I sistemi di data warehouse sono una tecnologia informatica che ben si adatta a supportare determinati tipi di analisi in ambito genomico perché consentono di effettuare analisi esplorative e dinamiche, analisi che si rivelano utili quando si vogliono ricavare informazioni di sintesi a partire da una grande quantità di dati e quando si vogliono esplorare prospettive e livelli di dettaglio diversi. Il lavoro di tesi si colloca all’interno di un progetto più ampio riguardante la progettazione di un data warehouse in ambito genomico. Le analisi effettuate hanno portato alla scoperta di dipendenze funzionali e di conseguenza alla definizione di una gerarchia nei dati. Attraverso l’inserimento di tale gerarchia in un modello multidimensionale relativo ai dati genomici sarà possibile ampliare il raggio delle analisi da poter eseguire sul data warehouse introducendo un contenuto informativo ulteriore riguardante le caratteristiche dei pazienti. I passi effettuati in questo lavoro di tesi sono stati prima di tutto il caricamento e filtraggio dei dati. Il fulcro del lavoro di tesi è stata l’implementazione di un algoritmo per la scoperta di dipendenze funzionali con lo scopo di ricavare dai dati una gerarchia. Nell’ultima fase del lavoro di tesi si è inserita la gerarchia ricavata all’interno di un modello multidimensionale preesistente. L’intero lavoro di tesi è stato svolto attraverso l’utilizzo di Apache Spark e Apache Hadoop.