512 resultados para 004.072 Elaborazione dei dati, Scienza degli elaboratori, Informatica - Attività di ricerca
Resumo:
Questo elaborato dscrive tutti i passagli del workflow che caratterizzano un sistema dipartimentale di oculistica.
Resumo:
Paracentrotus lividus è un echinoderma bentonico marino appartenente alla classe Echinoidea, comune in tutto il Mar Mediterraneo e lungo le coste atlantiche dalla Scozia al Marocco. Questa specie è estremamente importante dal punto di vista ecologico in quanto specie chiave nella strutturazione della comunità bentonica macroalgale. Inoltre in tempi recenti il mercato delle sue gonadi ha subito una forte espansione rendendolo una specie di interesse economico in numerosi paesi europei. Il crescente prelievo sta gradualmente portando al depauperamento della risorsa, per questo motivo il riccio di mare è oggetto di numerosi studi e programmi a fini conservazionistici. Una maggiore conoscenza del ciclo riproduttivo della specie potrebbe risultare utile per una migliore gestione della risorsa. Pertanto, questo studio si propone di indagare sulla biologia di P. lividus in due aree distinte della Sardegna: Su Pallosu, nella Penisola del Sinis Sardegna centro-occidentale, e nell’Area Marina Protetta di Tavolara – Punta Coda Cavallo, Sardegna nordorientale, al fine di far luce sulle dinamiche del ciclo riproduttivo. Le informazioni bibliografiche a riguardo evidenziano l’influenza dei fattori ambientali quali fotoperiodo, idrodinamismo, temperatura e tipologia di pascolo sull’andamento del ciclo biologico e il momento di spawning. Diversi autori hanno osservato in Mar Mediterraneo sia un unico ciclo riproduttivo che due eventi riproduttivi annuali a conferma dell’ampia variabilità dell’andamento gonadico. Nel presente lavoro al fine di mettere in relazione le caratteristiche dell’habitat con il ciclo riproduttivo delle popolazioni in oggetto è stato analizzato l’andamento dell’Indice Gonadosomatico (IGS) su individui di diverse taglie/età, come rapporto fra il peso delle gonadi e il peso dell’individuo; inoltre a conferma dello stadio di maturazione è stata effettuata l’analisi istologica delle gonadi su campioni fissati e inclusi in paraffina, sezionati a 7μm e colorati con ematossilina-eosina prima di essere osservati al microscopio ottico. Mediante analisi d’immagine di foto subacquee utilizzando il programma Seascape è stata caratterizzata la componente macroalgale bentonica e la componente abiotica degli habitat (sabbia e roccia non vegetata) con particolare attenzione al calcolo della percentuale di ricoprimento delle specie vegetali. Inoltre i siti sono stati caratterizzati rispetto all’esposizione dei venti dominanti con elaborazione dei dati del periodo di campionamento per direzione, frequenza e intensità.
Resumo:
In questo elaborato viene studiato un nuovo strumento satellitare chiamato MIPAS2k: uno spettrometro a trasformata di Fourier, in grado di misurare gli spettri di emissione dei gas atmosferici attraverso la tecnica di misure al lembo. Lo scopo di MIPAS2k è quello di determinare la distribuzione spaziale di quantità atmosferiche tra cui il VMR delle specie chimiche: ozono, acqua, acido nitrico e protossido di azoto. La necessità di idearne un successore è nata dopo la perdita di contatto con lo strumento MIPAS da cui MIPAS2k, pur preservandone alcune caratteristiche, presenta differenze fondamentali quali: i parametri osservazionali, il tipo di detector utilizzato per eseguire le scansioni al lembo e la logica attraverso cui vengono ricavate le distribuzioni dei parametri atmosferici. L’algoritmo attraverso cui viene effettuata l’inversione dei dati di MIPAS2k, chiamato FULL2D, usa la stessa logica di base di quello utilizzato per MIPAS chiamato Geo-Fit. La differenza fondamentale tra i due metodi risiede nel modo in cui i parametri sono rappresentati. Il Geo-Fit ricostruisce il campo atmosferico delle quantità da determinare tramite profili verticali mentre il FULL2D rappresenta i valori del campo atmosferico all’interno degli elementi della discretizzazione bidimensionale dell’atmosfera. Non avendo a disposizione misure del nuovo strumento si è dovuto valutarne le performance attraverso l’analisi su osservati simulati creati ricorrendo al modello diretto del trasferimento radiativo e utilizzando un’atmosfera di riferimento ad alta risoluzione. Le distribuzioni bidimensionali delle quantità atmosferiche di interesse sono state quindi ricavate usando il modello di inversione dei dati FULL2D applicato agli osservati simulati di MIPAS2k. I valori dei parametri ricavati sono stati confrontati con i valori dell’atmosfera di riferimento e analizzati utilizzando mappe e quantificatori. Con i risultati di queste analisi e' stato possibile determinare la risoluzione spaziale e la precisione dei prodotti di MIPAS2k per due diverse risoluzioni spettrali.
Resumo:
Bone is continually being removed and replaced through the actions of basic multicellular units (BMU). This constant upkeep is necessary to remove microdamage formed naturally due to fatigue and thus maintain the integrity of the bone. The repair process in bone is targeted, meaning that a BMU travels directly to the site of damage and repairs it. It is still unclear how targeted remodelling is stimulated and directed but it is highly likely that osteocytes play a role. A number of theories have been advanced to explain the microcrack osteocyte interaction but no complete mechanism has been demonstrated. Osteocytes are connected to each other by dendritic processes. The “scissors model" proposed that the rupture of these processes where they cross microcracks signals the degree of damage and the urgency of the necessary repair. In its original form it was proposed that under applied compressive loading, microcrack faces will be pressed together and undergo relative shear movement. If this movement is greater than the width of an osteocyte process, then the process will be cut in a “scissors like" motion, releasing RANKL, a cytokine known to be essential in the formation of osteoclasts from pre-osteoclasts. The main aim of this thesis was to investigate this theoretical model with a specific focus on microscopy and finite element modelling. Previous studies had proved that cyclic stress was necessary for osteocyte process rupture to occur. This was a divergence from the original “scissors model" which had proposed that the cutting of cell material occurred in one single action. The present thesis is the first study to show fatigue failure in cellular processes spanning naturally occurring cracks and it's the first study to estimate the cyclic strain range and relate it to the number of cycles to failure, for any type of cell. Rupture due to shear movement was ruled out as microcrack closing never occurred, as a result of plastic deformation of the bone. Fatigue failure was found to occur due to cyclic tensile stress in the locality of the damage. The strain range necessary for osteocyte process rupture was quantified. It was found that the lower the process strain range the greater the number of cycles to cell process failure. FEM modelling allowed to predict stress in the vicinity of an osteocyte process and to analyse its interaction with the bone surrounding it: simulations revealed evident creep effects in bone during cyclic loading. This thesis confirms and dismisses aspects of the “scissors model". The observations support the model as a viable mechanism of microcrack detection by the osteocyte network, albeit in a slightly modified form where cyclic loading is necessary and the method of rupture is fatigue failure due to cyclic tensile motion. An in depth study was performed focusing on microscopy analysis of naturally occurring cracks in bone and FEM simulation analysis of an osteocyte process spanning a microcrack in bone under cyclic load.
Resumo:
La tesi analizza i principi di gestione sostenibile della risorsa meteorica attraverso la progettazione di una pavimentazione drenante, di un Rain Garden ed un impianto di raccolta e riutilizzo dell’acqua piovana, con lo scopo di costituire un sistema integrato con il verde pensile già esistente. Nella prima fase di stesura della tesi si è dato importanza allo studio ed all'elaborazione dei dati di runoff provenienti dal sistema di monitoraggio dei tetti verdi installati sul laboratorio LAGIRN. In seguito si è dato risalto alla gestione sostenibile della risorsa idrica, dimensionando un sistema di riutilizzo dell’acqua piovana al fine di irrigare il verde pensile e le altre zone verdi posizionate in prossimità del laboratorio. Si è dedotto che l’efficienza nel riutilizzo dell’acqua piovana dipende essenzialmente dal rapporto tra la disponibilità di superficie di raccolta e conseguente domanda del riuso da soddisfare, che potrebbe portare ad un dimensionamento errato del serbatoio di accumulo con il risultato di influenzare il costo complessivo del sistema. Sono state progettate due tipologie di BMP finalizzate alla riduzione dell’impermeabilizzazione del suolo per migliorare quantitativamente e qualitativamente la permeabilità. Il Rain Garden risulta un metodo molto economico per riqualificare il tessuto urbano tenendo conto anche dei cambiamenti climatici in continua evoluzione. Le BMP appaiono quindi una soluzione economica e facilmente attuabile sia dai singoli cittadini che da enti comunali al fine di migliorare le qualità delle acque, diminuire il rischio idraulico e smaltire all'interno dei corpi idrici acque di buona qualità.
Resumo:
La previsione dei temporali rappresenta una delle operazioni più impegnative e complesse per chi svolge il mestiere di meteorologo, soprattutto se effettuata con molte ore di anticipo rispetto all'evento; ciò è riconducibile alla molteplicità di parametri da cui questi fenomeni dipendono ed all'incertezza che si riscontra nella simulazione degli indici di instabilità. In questo elaborato viene presentata ed approfondita una tecnica di elaborazione dei dati provenienti da radiosondaggi previsti, con lo scopo di migliorare la previsione dei temporali relativa al giorno successivo. Nel 1987 Colquhoun elaborò un albero decisionale per la previsione di temporali in Australia, basato sul superamento di soglie degli indici di instabilità. Qui di seguito, si propone di testare la validità dello stesso schema decisionale alla previsione di temporali in Pianura Padana ed in particolare in Emilia Romagna, procedendo ad un confronto tra gli eventi previsti ed i fenomeni osservati; la previsione si basa sull'output dell'albero decisionale utilizzando gli indici di instabilità previsti dai LAM COSMO-I7 e COSMO-I2 nel periodo +24/+48 ore, mentre l'osservazione dei temporali viene ricavata tramite consultazione quotidiana di METAR,SYNOP,SYREP, e mappe di fulminazioni relative al quadriennio 2010-2013. L'indice assunto per valutare l'affidabilità delle previsioni fornite è il Threat Score che presenta due limiti fondamentali: la dipendenza dal numero di eventi e l'incapacità di differenziare i falsi allarmi dai mancati allarmi. Ciò nonostante, questo indice rappresenta il miglior modo per ricavare una informazione complessiva e definire se la previsione fornita corrisponde ad una buona previsione. Lo stesso test viene effettuato sull'albero decisionale in uso presso la sala operativa di ARPA-SIM e dal confronto con l'albero di Colquhoun si deducono i limiti legati alla modellistica numerica che fornisce i dati in input. Infine il test sui parametri termodinamici previsti dai modelli COSMO-I2 e COSMO-I7 dimostra gli errori commessi sulla previsione a +24 e +36 ore dalle simulazioni. Questo lavoro si pone all'interno di un progetto più ampio di verifica della modellistica numerica sviluppata dal consorzio COSMO, al quale l'Italia aderisce attraverso la collaborazione di ARPA Emilia Romagna, ARPA Piemonte ed Aeronautica Militare. In particolare sono sottoposte a test le performances dei due modelli LAM sviluppati completamente in Italia ed utilizzati anche dal Dipartimento della protezione civile nazionale.
Resumo:
Il presente lavoro di tesi tende a un duplice scopo: il primo è quello di fornire una accurata analisi tecnica, applicativa e culturale riguardante il vasto mondo dei big data e il secondo quello di trovare connessioni con l’analisi strategica verificando se e in quale modo i big data possano risultare una risorsa distintiva in campo aziendale. Nello specifico il primo capitolo presenta i big data nelle sue caratteristiche più importanti cercando di approfondire gli aspetti tecnici del fenomeno, le fonti di produzione dei dati, le metodologie principali di analisi e l’impatto sulla società. Il secondo capitolo descrive svariate applicazioni dei big data in campo aziendale concentrandosi sul rapporto tra questi e l’analisi strategica, non trascurando temi come il vantaggio competitivo e la business intelligence. Infine il terzo capitolo analizza la condizione attuale, il punto di vista italiano ed eventuali sviluppi futuri del fenomeno.
Resumo:
La fibrillazione atriale è l'aritmia maggiormente riscontrata nella pratica clinica. Nonostante l'ablazione transcatetere presenti risultati migliori rispetto alla terapia farmacologica, non è ancora chiaro se sia utile l'aggiunta di ulteriori lesioni in atrio, oltre a quelle delle vene polmonari, in maniera tale da aumentare la percentuale di successo della procedura. Infatti, poiché i meccanismi che portano all'insorgere dell'aritmia e in particolare che la sostengono ancora oggi non sono ben chiari, si sono sviluppate diverse teorie, tra cui quella dei Rotori, che consistono in pattern di stabile rotazione e diffusione intorno al loro punto di origine (pivot) e che si pensa possano essere i responsabili del sostentamento della fibrillazione atriale. Questo elaborato ha l'obiettivo di realizzare un sistema di analisi dei dati elettroanatomici con lo scopo di studiare l'attività elettrica dell'atrio, rivolgendo particolare attenzione all'individuazione di rotori.
Resumo:
La tesi si occupa dell’integrazione di misure NMR e microscopiche per la descrizione quantitativa degli effetti di stress esterni su colture cellulari. Una maggiore comprensione dei dati ricavati tramite NMR potrebbe consentire di interpretare la vitalità e funzionalità cellulare attraverso la localizzazione spaziale degli idrogeni. L'ipotesi di partenza è che la compartimentazione degli idrogeni (associati a molecole di acqua) nel citoplasma possa fornire una stima del numero di cellule vitali (e quindi in grado di mantenere l'acqua al proprio interno mediante processi attivi). I risultati NMR, prodotti dal gruppo di ricerca del Dipartimento di Fisica e Astronomia dell’Università di Bologna della Prof.ssa Fantazzini, sono stati comparati con le informazioni acquisite dal candidato tramite metodologie di conteggio cellulare (sia vive che morte) presenti in un campione sottoposto a forte e prolungato stress (assenza di terreno di coltura e di bilanciamento del sistema tampone tramite CO2 per 400 ore). Cellule da una linea di glioblastoma multiforme (T98G) mantenute in condizioni di coltura standard sono state preparate secondo lo stesso protocollo per entrambe le tecniche di indagine, e monitorate per intervalli di tempo paragonabili. Le immagini delle cellule ottenute al microscopio ottico in modalità “contrasto di fase” sono state acquisite e utilizzate per l’analisi. Una volta definito un metodo di conteggio sperimentale, è stato possibile dedurre il comportamento delle concentrazioni di cellule sopravvissute in funzione del tempo di campionamento. Da una serie ripetuta di esperimenti è stato caratterizzato un andamento nel tempo di tipo esponenziale decrescente per il numero di cellule vive, permettendo la stima della costante di decadimento in buon accordo tra i vari esperimenti. Un analogo modello esponenziale è stato utilizzato per la descrizione dell'aumento del numero di cellule morte. In questo caso, la difficoltà nell'individuare cellule morte integre (per la frammentazione delle membrane cellulari dopo la morte) ha contribuito a determinare una sistematica sottostima nei conteggi. Il confronto dei risultati NMR e microscopici indica che la diminuzione del numero di cellule vive corrisponde ad una analoga diminuzione degli H1 compartimentalizzati fino ad un tempo specifico di circa 50-60 ore in tutti gli esperimenti. Oltre questo tempo, i dati di NMR mostrano invece un incremento di H1 compartimentalizzati, quando invece il numero di cellule vive continua a diminuire in modo monotono. Per interpretare i risultati ottenuti, è stato quindi ipotizzato che, a partire da cellule morte frammentate, strutture micellari e liposomiali formate dai lipidi di membrana in soluzione possano intrappolare gli H1 liberi, aumentando il segnale di risposta della componente compartimentalizzata come evidenziato in NMR.
Resumo:
Nel presente elaborato vengono presentati, a seguito di una breve prefazione, sei capitoli. Nella Prefazione viene descritto l’ambito in cui è stato effettuato lo studio, con un breve riferimento all’argomento trattato. Nel Capitolo 1, introduttivo, viene descritta l’azienda in cui si è svolto il tirocinio, Céline Production s.r.l., ed a cui si è collegata la stesura dell’elaborato, ed il gruppo LVMH a cui l’azienda appartiene. Nel Capitolo 2 viene, in primo luogo, fornita una descrizione della letteratura esistente su Operations e Supply Chain Management, ed in seguito viene parafrasata al contesto in cui è stato svolto il tirocinio. Nella parte conclusiva del capitolo viene descritto l’obiettivo del lavoro. Nel Capitolo 3, primo capitolo centrale dell’elaborato, viene descritto in maniera approfondita il problema alla base del lavoro di tirocinio e vengono elencate le cause individuate. Nel Capitolo 4 vengono proposte e descritte delle azioni di miglioramento per le cause individuate mentre nel Capitolo 5 vengono confrontati i risultati ottenuti. Nel Capitolo 6, infine, vengono descritte le conclusioni e gli sviluppi futuri.
Resumo:
[Abstract]. Questo lavoro è finalizzato al confronto delle rivelazioni di canditati eventi di neutrino cosmico da parte di due esperimenti ANTARES ed ICECUBE. I due apparati, entrambi basati sulla rivelazione di radiazione Cherenkov generata da prodotti di interazione CC dei neutrini, si differenziano per la geometria del detector e per il mezzo in cui viene prodotta la radiazione, e hanno quindi sensibilità e risoluzione diverse. L'analisi dei dati è basata sulla rappresentazione delle direzioni di arrivo degli eventi su mappa celeste nei due sistemi di coordinate galattico ed equatoriale. La sovrapposizione della distribuzioni degli eventi ha permesso di evidenziare le zone di visibilità sulla mappa celeste caratteristiche di ciascun esperimento. Una successiva analisi statistica ha analizzato la frequenza delle occorenze di eventi del dataset di ANTARES in intorni di raggio crescente di eventi di ICECUBE, per valutare eventuali eventi identificabili nei due dataset. Questa analisi ha evidenziato la necessità di una selezione preventiva degli eventi del dataset di ANTARES, in base a criteri non solo topologici, in modo da permettere una eventuale identificazione di eventi coincidenti.
Resumo:
Lo studio di tesi che segue analizza un problema di controllo ottimo che ho sviluppato con la collaborazione dell'Ing. Stefano Varisco e della Dott.ssa Francesca Mincigrucci, presso la Ferrari Spa di Maranello. Si è trattato quindi di analizzare i dati di un controllo H-infinito; per eseguire ciò ho utilizzato i programmi di simulazione numerica Matlab e Simulink. Nel primo capitolo è presente la teoria dei sistemi di equazioni differenziali in forma di stato e ho analizzato le loro proprietà. Nel secondo capitolo, invece, ho introdotto la teoria del controllo automatico e in particolare il controllo ottimo. Nel terzo capitolo ho analizzato nello specifico il controllo che ho utilizzato per affrontare il problema richiesto che è il controllo H-infinito. Infine, nel quarto e ultimo capitolo ho specificato il modello che ho utilizzato e ho riportato l'implementazione numerica dell'algoritmo di controllo, e l'analisi dei dati di tale controllo.
Resumo:
Lo scopo di questo elaborato è di analizzare e progettare un sistema in grado di supportare la definizione dei dati nel formato utilizzato per definire in modo formale la semantica dei dati, ma soprattutto nella complessa e innovativa attività di link discovery. Una attività molto potente che, tramite gli strumenti e le regole del Web Semantico (chiamato anche Web of Data), permette data una base di conoscenza sorgente ed altre basi di conoscenza esterne e distribuite nel Web, di interconnettere i dati della base di conoscenza sorgente a quelli esterni sulla base di complessi algoritmi di interlinking. Questi algoritmi fanno si che i concetti espressi sulla base di dati sorgente ed esterne vengano interconnessi esprimendo la semantica del collegamento ed in base a dei complessi criteri di confronto definiti nel suddetto algoritmo. Tramite questa attività si è in grado quindi di aumentare notevolmente la conoscenza della base di conoscenza sorgente, se poi tutte le basi di conoscenza presenti nel Web of Data seguissero questo procedimento, la conoscenza definita aumenterebbe fino a livelli che sono limitati solo dalla immensa vastità del Web, dando una potenza di elaborazione dei dati senza eguali. Per mezzo di questo sistema si ha l’ambizioso obiettivo di fornire uno strumento che permetta di aumentare sensibilmente la presenza dei Linked Open Data principalmente sul territorio nazionale ma anche su quello internazionale, a supporto di enti pubblici e privati che tramite questo sistema hanno la possibilità di aprire nuovi scenari di business e di utilizzo dei dati, dando una potenza al dato che attualmente è solo immaginabile.