935 resultados para Grafi,Basi di dati a grafo,interrogazioni,GraphVista,Graphite,SPARQL


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi è stato studiato lo spettro di massa invariante del sistema J/psi pi+ pi-, m(J/psi pi+ pi-), in collisioni protone-protone a LHC, con energia nel centro di massa sqrt(s)) pari a 8 TeV, alla ricerca di nuovi stati adronici. Lo studio è stato effettuato su un campione di dati raccolti da CMS in tutto il 2012, corrispondente ad una luminosità integrata di 18.6 fb-1. Lo spettro di massa invariante m(J/psi pi+ pi-), è stato ricostruito selezionando gli eventi J/psi->mu+ mu- associati a due tracce cariche di segno opposto, assunte essere pioni, provenienti da uno stesso vertice di interazione. Nonostante l'alta statistica a disposizione e l'ampia regione di massa invariante tra 3.6 e 6.0 GeV/c^2 osservata, sono state individuate solo risonanze già note: la risonanza psi(2S) del charmonio, lo stato X(3872) ed una struttura più complessa nella regione attorno a 5 GeV/c^2, che è caratteristica della massa dei mesoni contenenti il quark beauty (mesoni B). Al fine di identificare la natura di tale struttura, è stato necessario ottenere un campione di eventi arricchito in adroni B. È stata effettuata una selezione basata sull'elevata lunghezza di decadimento, che riflette la caratteristica degli adroni B di avere una vita media relativamente lunga (ordine dei picosecondi) rispetto ad altri adroni. Dal campione così ripulito, è stato possibile distinguere tre sottostrutture nello spettro di massa invariante in esame: una a 5.36 GeV/c^2, identificata come i decadimenti B^0_s-> J/psi pi+ pi-, un'altra a 5.28 GeV/c^2 come i candidati B^0-> J/psi pi+ pi- e un'ultima allargata tra 5.1 e 5.2 GeV/c^2 data da effetti di riflessione degli scambi tra pioni e kaoni. Quest'ultima struttura è stata identificata come totalmente costituita di una combinazione di eventi B^0-> J/psi K+ pi- e B^0_s-> J/psi K+ K-.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'analisi di un'immagine con strumenti automatici si è sviluppata in quella che oggi viene chiamata "computer vision", la materia di studio proveniente dal mondo informatico che si occupa, letteralmente, di "vedere oltre", di estrarre da una figura una serie di aspetti strutturali, sotto forma di dati numerici. Tra le tante aree di ricerca che ne derivano, una in particolare è dedicata alla comprensione di un dettaglio estremamente interessante, che si presta ad applicazioni di molteplici tipologie: la profondità. L'idea di poter recuperare ciò che, apparentemente, si era perso fermando una scena ed imprimendone l'istante in un piano a due dimensioni poteva sembrare, fino a non troppi anni fa, qualcosa di impossibile. Grazie alla cosiddetta "visione stereo", invece, oggi possiamo godere della "terza dimensione" in diversi ambiti, legati ad attività professionali piuttosto che di svago. Inoltre, si presta ad utilizzi ancora più interessanti quando gli strumenti possono vantare caratteristiche tecniche accessibili, come dimensioni ridotte e facilità d'uso. Proprio quest'ultimo aspetto ha catturato l'attenzione di un gruppo di lavoro, dal quale è nata l'idea di sviluppare una soluzione, chiamata "SuperStereo", capace di permettere la stereo vision usando uno strumento estremamente diffuso nel mercato tecnologico globale: uno smartphone e, più in generale, qualsiasi dispositivo mobile appartenente a questa categoria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa Tesi di laurea, si è affrontato il problema della mobilità veicolare in caso di nebbie. Si è quindi sviluppato un prototipo con architettura Client-Server, che si è soffermato maggiormente sull’analisi dei dati per la creazione di un percorso alternativo. Si è preso in considerazione il sistema operativo mobile di Apple, iOS7 che rappresenta uno dei Sistemi Operativi mobili maggiormente presenti sul mercato oggigiorno e che possiede un buon bacino di utenze. La parte Server è stata sviluppata secondo l’architettura REST; è presente un Server HTTP che riceve richieste e risponde in modo adeguato ai Client tramite lo scambio bidirezionale di dati in formato JSON. Nella parte Server è inclusa la base di dati: un componente molto importante poiché implementa al suo interno, parte della logica di Sistema tramite stored procedure. La parte Client è un’applicazione per dispositivi iPad e iPhone chiamata Fog Escaping; essa è stata sviluppata secondo il pattern MVC (Model- View-Controller). Fog Escaping implementa un algoritmo Greedy di ricerca del percorso alternativo, che può essere utilizzato per diverse tipologie di applicazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La disintegrazione dei nuclei atomici si traduce in una emissione di vari tipi di radiazioni e particelle tra cui neutroni e raggi gamma. La rivelazione dei neutroni comporta l’utilizzo di rivelatori a scintillazione e tecniche di analisi per poter identificare e ottenere informazioni sull’energia dei neutroni. Il processo di scintillazione per la rivelazione dei neutroni consiste nell’interazione con i nuclei del materiale e successiva emissione luminosa dovuta a ionizzazione degli atomi del rivelatore. La luce e in seguito convertita in impulsi elettrici, i quali possono essere analizzati con opportune tecniche. L’emissione di neutroni `e accompagnata da emissione di raggi gamma e quindi `e necessario identificare i neutroni. Rivelatori basati su scintillatori organici vengono spesso impiegati nella spettrometria neutronica ad energie superiori di 0.5 MeV ed in una vasta gamma di applicazioni come la medicina, l’industria e la radioprotezione. La rilevazione dei neutroni `e molto importante nello studio delle reazioni nucleari di bassa energia e nello studio della materia nucleare lontano dalla valle di stabilita. In questo lavoro abbiamo studiato tre algoritmi: Zero Crossing, Charge Comparison e Pulse Gradient Analysis. Questi algoritmi sono stati in seguito applicati all’analisi di un insieme di dati provenienti dalla reazione nucleare 7Li(p,n)7Be. E stato utilizzato uno scintillatore organico liquido BC501. Si `e effettuato un confronto tra le varie tecniche utilizzate per determinare il grado di discriminazione ottenuto con ognuna di esse. I risultati ottenuti permettono di decidere in seguito quale algoritmo si presta ad essere utilizzato anche in altri esperimenti futuri. Il metodo Pulse Gradient Analysis `e risultato il piu` prometente, essendo anche possibile l’utilizzo on-line.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Quando la probabilità di misurare un particolare valore di una certa quantità varia inversamente come potenza di tale valore, il quantitativo è detto come seguente una power-law, conosciuta anche come legge di Zipf o distribuzione di Pareto. Obiettivo di questa tesi sarà principalmente quello di verificare se il campione esteso di imprese segue la power-law (e se sì, in che limiti). A tale fine si configureranno i dati in un formato di rete monomodale, della quale si studieranno alcune macro-proprietà di struttura a livllo complessivo e con riferimento alle componenti (i singoli subnet distinti) di maggior dimensione. Successivamente si compiranno alcuni approfondimenti sulla struttura fine di alcuni subnet, essenzialmente rivolti ad evidenziare la potenza di unapproccio network-based, anche al fine di rivelare rilevanti proprietà nascoste del sistema economico soggiacente, sempre, ovviamente, nei limiti della modellizzazione adottata. In sintesi, ciò che questo lavoro intende ottenere è lo sviluppo di un approccio alternativo al trattamento dei big data a componente relazionale intrinseca (in questo caso le partecipazioni di capitale), verso la loro conversione in "big knowledge": da un insieme di dati cognitivamente inaccessibili, attraverso la strutturazione dell'informazione in modalità di rete, giungere ad una conoscenza sufficientemente chiara e giustificata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A causa delle complesse problematiche ambientali e in accordo con gli obiettivi della legislazione internazionale e comunitaria, le aziende sempre più frequentemente adottano sistemi di gestione per miglioramento continuo delle proprie prestazioni ambientali. La tesi si pone come obiettivo l’analisi dell’efficienza energetica di una grande azienda del settore alimentare: sono state valutate le prestazioni in relazione agli impianti di produzione di energia e i consumi di energia dei singoli reparti di lavorazione e impianti; per ogni reparto sono stati inoltre analizzati dati e indicatori di tipo generale e puntuale, sulla base delle indicazioni riportate nella norma CEI EN ISO 50001: 2011. I risultati mostrano che i reparti di produzione energetica operano in assetto di Cogenerazione ad Alto Rendimento e che negli ultimi due anni si è registrata una riduzione delle emissioni di CO2 rispetto ai MWh prodotti; dal 2008 al 2013 si è assistito ad un trend di aumento dei consumi di energia elettrica rispetto ai prodotti realizzati, a differenza dei consumi di energia termica. Infine sulla base delle priorità di intervento individuate, è stato creato un piano d’azione teso al miglioramento delle performance energetiche. Inoltre la tesi si pone l’obiettivo di creare e applicare un metodo per calcolare la significatività degli aspetti ambientali dell’azienda, al fine di valutare gli impatti associati, in modo da permetterne una classificazione e da individuare le priorità di intervento per il miglioramento delle performance ambientali, in accordo con la norma UNI EN ISO 14001: 2004. Il metodo è stato progettato sulla base di dati aziendali e in modo da garantire oggettività, modulabilità e ripetibilità nella maggiore misura possibile; tale metodo è stato applicato ad un reparto di lavorazione e ha permesso di classificare gli aspetti ambientali, individuando le priorità di intervento, quali consumi idrici ed energetici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progresso tecnologico nel campo della biologia molecolare, pone la comunità scientifica di fronte all’esigenza di dare un’interpretazione all’enormità di sequenze biologiche che a mano a mano vanno a costituire le banche dati, siano esse proteine o acidi nucleici. In questo contesto la bioinformatica gioca un ruolo di primaria importanza. Un nuovo livello di possibilità conoscitive è stato introdotto con le tecnologie di Next Generation Sequencing (NGS), per mezzo delle quali è possibile ottenere interi genomi o trascrittomi in poco tempo e con bassi costi. Tra le applicazioni del NGS più rilevanti ci sono senza dubbio quelle oncologiche che prevedono la caratterizzazione genomica di tessuti tumorali e lo sviluppo di nuovi approcci diagnostici e terapeutici per il trattamento del cancro. Con l’analisi NGS è possibile individuare il set completo di variazioni che esistono nel genoma tumorale come varianti a singolo nucleotide, riarrangiamenti cromosomici, inserzioni e delezioni. Va però sottolineato che le variazioni trovate nei geni vanno in ultima battuta osservate dal punto di vista degli effetti a livello delle proteine in quanto esse sono le responsabili più dirette dei fenotipi alterati riscontrabili nella cellula tumorale. L’expertise bioinformatica va quindi collocata sia a livello dell’analisi del dato prodotto per mezzo di NGS ma anche nelle fasi successive ove è necessario effettuare l’annotazione dei geni contenuti nel genoma sequenziato e delle relative strutture proteiche che da esso sono espresse, o, come nel caso dello studio mutazionale, la valutazione dell’effetto della variazione genomica. È in questo contesto che si colloca il lavoro presentato: da un lato lo sviluppo di metodologie computazionali per l’annotazione di sequenze proteiche e dall’altro la messa a punto di una pipeline di analisi di dati prodotti con tecnologie NGS in applicazioni oncologiche avente come scopo finale quello della individuazione e caratterizzazione delle mutazioni genetiche tumorali a livello proteico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisi e stima dell'errore ionosferico per gli utenti che dispongono sia di un ricevitore a singola che a doppia frequenza e confronto conclusivo fra i due tipi di dati ricavati. Le stime sono state implementate in ambiente Matlab.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto di dottorato IMITES (Interpretación de la Metáfora entre ITaliano y ESpañol) si pone come obiettivo quello di analizzare l’interpretazione simultanea del linguaggio figurato nelle combinazioni italiano-spagnolo e spagnolo-italiano. Prevede l’analisi di una serie di dati estratti da discorsi pronunciati in italiano e spagnolo in occasione di conferenze tenutesi presso la Commissione europea, e le loro versioni interpretate in spagnolo e italiano rispettivamente. Le espressioni figurate contenute nei discorsi originali sono state allineate e messe a confronto con le versioni fornite dagli interpreti, con il duplice obiettivo di a) capire quali causano maggiori problemi agli interpreti e b) analizzare le strategie di interpretazione applicate da professionisti quali quelli della Direzione Generale Interpretazione (DG SCIC) della Commissione europea nell’interpretare metafore. Il progetto prevede anche la somministrazione di un questionario agli interpreti delle cabine spagnola e italiana del DG SCIC, con l’obiettivo di sondare la loro percezione delle difficoltà che sottendono all’interpretazione del linguaggio figurato, le indicazioni metodologiche ricevute (se del caso) dai loro docenti a tale riguardo e le strategie applicate nella pratica professionale. Infine, l’ultima fase del progetto di ricerca prevede la sperimentazione di una proposta didattica attraverso uno studio caso-controllo svolto su studenti del secondo anno della Laurea Magistrale in Interpretazione delle Scuole Interpreti di Forlì e Trieste. Il gruppo-caso ha ricevuto una formazione specifica sull'interpretazione delle metafore, mentre gruppo-controllo è stato monitorato nella sua evoluzione. L’obiettivo di questa ultima fase di ricerca è quello di valutare, da una parte, l’ “insegnabilità” di strategia per affrontare il linguaggio figurato in interpretazione simultanea, e, dall’altra, l’efficacia dell’unità didattica proposta, sviluppata in base all’analisi svolta su IMITES.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La sonnolenza durante la guida è un problema di notevole entità e rappresenta la causa di numerosi incidenti stradali. Rilevare i segnali che precedono la sonnolenza è molto importante in quanto, é possibile mettere in guardia i conducenti dei mezzi adottando misure correttive e prevenendo gli incidenti. Attualmente non esiste una metodica efficace in grado di misurare la sonnolenza in maniera affidabile, e che risulti di facile applicazione. La si potrebbe riconoscere da mutazioni di tipo comportamentale del soggetto come: presenza di sbadigli, chiusura degli occhi o movimenti di caduta della testa. I soggetti in stato di sonnolenza presentano dei deficit nelle loro capacità cognitive e psicomotorie. Lo stesso vale per i conducenti i quali, quando sono mentalmente affaticati non sono in grado di mantenere un elevato livello di attenzione. I tempi di reazione si allungano e la capacità decisionale si riduce. Ciò è associato a cambiamenti delle attività delta, theta e alfa di un tracciato EEG. Tramite lo studio dei segnali EEG è possibile ricavare informazioni utili sullo stato di veglia e sull'insorgenza del sonno. Come strumento di classificazione per elaborare e interpretare tali segnali, in questo studio di tesi sono state utilizzate le support vector machines(SVM). Le SVM rappresentano un insieme di metodi di apprendimento che permettono la classicazione di determinati pattern. Necessitano di un set di dati di training per creare un modello che viene testato su un diverso insieme di dati per valutarne le prestazioni. L'obiettivo è quello di classicare in modo corretto i dati di input. Una caratteristica delle SVM è una buona capacità di generalizzare indipendentemente dalla dimensione dello spazio di input. Questo le rende particolarmente adatte per l'analisi di dati biomedici come le registrazioni EEG multicanale caratterizzate da una certa ridondanza intrinseca dei dati. Nonostante sia abbastanza semplice distinguere lo stato di veglia dallo stato di sonno, i criteri per valutarne la transizione non sono ancora stati standardizzati. Sicuramente l'attività elettro-oculografica (EOG) riesce a dare informazioni utili riguardo l'insorgenza del sonno, in quanto essa è caratterizzata dalla presenza di movimenti oculari lenti rotatori (Slow Eye Movements, SEM) tipici della transizione dalla veglia alla sonno. L'attività SEM inizia prima dello stadio 1 del sonno, continua lungo tutta la durata dello stesso stadio 1, declinando progressivamente nei primi minuti dello stadio 2 del sonno fino a completa cessazione. In questo studio, per analizzare l'insorgere della sonnolenza nei conducenti di mezzi, sono state utilizzate registrazioni provenienti da un solo canale EEG e da due canali EOG. Utilizzare un solo canale EEG impedisce una definizione affidabile dell'ipnogramma da parte dei clinici. Quindi l'obiettivo che ci si propone, in primo luogo, è quello di realizzare un classificatore del sonno abbastanza affidabile, a partire da un solo canale EEG, al fine di verificare come si dispongono i SEM a cavallo dell'addormentamento. Quello che ci si aspetta è che effettivamente l'insorgere della sonnolenza sia caratterizzata da una massiccia presenza di SEM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Progetto e analisi delle performance di un controllore realizzato con la metodologia fuzzy per una manovra di docking fra due dirigibili. Propedeutica a questo, è stata la campagna, presso la galleria del vento messa a disposizione dalla Clarkson University, di raccolta di dati sperimentali, che sono stati poi utilizzati per realizzare un simulatore con cui testare il controllore. Nel primo capitolo, si è presentato la tecnologia dei dirigibili, le varie tipologie ed una descrizione dei moderni concepts. Successivamente, sono state presentate le applicazioni nelle quali i moderni dirigibili possono essere impiegati. L’ultima parte tratta di due esempi di docking fra mezzi aerei: il rifornimento in volo e i “parasite aircrafts”. Il secondo capitolo, tratta della logica utilizzata dal controllore: la logica fuzzy. Le basi della teoria insiemistica classica sono state il punto di partenza per mostrare come, introducendo le funzioni di appartenenza, sia possibile commutare tra la teoria classica e fuzzy. La seconda parte del capitolo affronta le nozioni della teoria fuzzy, esponendo la metodologia con la quale è possibile inserire un controllore di questo tipo in un sistema “tradizionale”. Il terzo capitolo presenta il modello di volo dei dirigibili. Partendo dalla legge di Newton, introdotto il concetto di inerzia e massa aggiunte, si arriva alle equazioni del moto non lineari. L’ultima parte è stata dedicata alla linearizzazione delle equazioni e alla condizione di trim. Il quarto capitolo riguarda la campagna sperimentale di test in galleria del vento, con la realizzazione dei modelli in scala e la calibrazione della bilancia; successivamente, nel capitolo si commentano i dati sperimentali raccolti. Il quinto capitolo, mostra la metodologia con cui è possibile progettare un controllore fuzzy per il controllo della manovra di docking fra dirigibili. La seconda parte mostra le performance ottenute con questo tipo di sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'ecografia con mezzo di contrasto è una tecnica non invasiva che consente di visualizzare la micro e la macrocircolazione grazie all'utilizzo di microbolle gassose che si distribuiscono in tutto il sistema cardiovascolare. Le informazioni emodinamiche e perfusionali ricavabili dalle immagini eco con contrasto possono essere utilizzate per costruire un modello a grafo dell'albero vascolare epatico. L'analisi della connettività del grafo rappresenta una strategia molto promettente che potrebbe consentire di sostituire la misurazione del gradiente pressorio venoso del fegato, che richiede cateterismo, determinando un notevole miglioramento nella gestione dei pazienti cirrotici. La presente tesi si occupa della correzione dei movimenti del fegato, che deve essere realizzata prima di costruire il grafo per garantire un'accuratezza adeguata. Per correggere i movimenti è proposta una tecnica di Speckle tracking, testata sia in vitro su sequenze eco sintetiche, sia in vivo su sequenze reali fornite dal Policlinico Sant'Orsola.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La costituzione dell’Unione Europea nel 1993 pose la questione del dover aiutare le regioni svantaggiate in essa contenute, allo scopo di promuovere i principi di eguaglianza appena stipulati. Allo stesso tempo si dovette cercare uno strumento per facilitare la collaborazione fra le regioni appartenenti all’Unione stessa. Tale strumento sono i Fondi Strutturali Europei, un sistema di autofinanziamento utilizzato per promuovere progetti lavorativi, di cultura o di ricerca in tutta Europa. La distribuzione dei fondi avviene secondo delle regole specifiche e spesso i temi verso cui i fondi vengono rivolti sono scelti di comune accordo tra i Paesi membri. Le amministrazioni regionali hanno quindi la possibilità di usufruire di una notevole quantità di denaro, giustificando in modo appropriato la destinazione d’uso dei fondi e stilando dei piani che ne descrivano la loro suddivisione nei vari progetti. In seguito all’evoluzione tecnologica degli anni ’60 e ’70 nacquero nuovi strumenti a favore delle aziende: i DSS (Decision Support System), descritti come “sistemi informatici a supporto del processo decisionale”. L’uso di questa nuova tecnologia permise una facilitazione dei compiti decisionali, oltre ad un miglioramento delle prestazioni negli ambiti di applicazione. Da tali premesse nascono diversi progetti che puntano ad utilizzare strumenti di supporto alle decisioni nei campi più diversi: amministrativo, medico, politico, culturale. In particolare, l’area d’applicazione politica vive un grande fermento negli ultimi anni, grazie a strumenti in grado di aiutare la classe politica in decisioni su più livelli di scelta e su una grosse mole di dati. Un esempio fra gli altri è la redazione del Programma Operativo Regionale, il quale fa affidamento sui finanziamenti dei Fondi Strutturali Europei per potersi sostentare. Negli ultimi anni la Regione Emilia-Romagna ha puntato molto sull’uso di strumenti informatici e automatizzati come aiuto nella compilazione di progetti, piani operativi e preventivi di spesa, sviluppando delle collaborazioni con diversi Enti ed Università, tra le quali l’Università degli Studi di Bologna. L’ultimo progetto realizzato in collaborazione con la Regione, e qui esposto, riguarda la realizzazione di uno strumento di supporto alle decisioni politiche per la ripartizione dei Fondi Europei, in particolare quelli destinati al Programma Operativo Regionale (POR).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Poiché internet interconnette miliardi di terminali on-line per fornire informazioni sempre più sofisticate, le infrastrutture dovranno essere sufficientemente "intelligenti" per gestire in tempo reale un enorme flusso di dati. Esistono due possibili approcci per sviluppare la nuova architettura, conosciuti come clean-state (PURSUIT e NetInf) ed overlay (DONA e NDN): con il primo metodo è necessario riprogettare l'intero stack protocollare mentre il secondo consente di creare un'infrastruttura avvalendosi delle funzionalità di una rete IP.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno dei temi più discussi ed interessanti nel mondo dell’informatica al giorno d’oggi è sicuramente il Cloud Computing. Nuove organizzazioni che offrono servizi di questo tipo stanno nascendo ovunque e molte aziende oggi desiderano imparare ad utilizzarli, migrando i loro centri di dati e le loro applicazioni nel Cloud. Ciò sta avvenendo anche grazie alla spinta sempre più forte che stanno imprimendo le grandi compagnie nella comunità informatica: Google, Amazon, Microsoft, Apple e tante altre ancora parlano sempre più frequentemente di Cloud Computing e si stanno a loro volta ristrutturando profondamente per poter offrire servizi Cloud adeguandosi così a questo grande cambiamento che sta avvenendo nel settore dell’informatica. Tuttavia il grande movimento di energie, capitali, investimenti ed interesse che l’avvento del Cloud Computing sta causando non aiuta a comprendere in realtà che cosa esso sia, al punto tale che oggi non ne esiste ancora una definizione univoca e condivisa. La grande pressione inoltre che esso subisce da parte del mondo del mercato fa sì che molte delle sue più peculiari caratteristiche, dal punto di vista dell’ingegneria del software, vengano nascoste e soverchiate da altre sue proprietà, architetturalmente meno importanti, ma con un più grande impatto sul pubblico di potenziali clienti. Lo scopo che mi propongo con questa tesi è quello quindi di cercare di fare chiarezza in quello che è il mondo del Cloud computing, focalizzandomi particolarmente su quelli che sono i design pattern più utilizzati nello sviluppo di applicazioni di tipo cloud e presentando quelle che oggi rappresentano le principali tecnologie che vengono utilizzate sia in ambito professionale, che in ambito di ricerca, per realizzare le applicazioni cloud, concentrandomi in maniera particolare su Microsoft Orleans.