881 resultados para Estrazione informazioni, analisi dati non strutturati, Web semantico, data mining, text mining, big data, open data, classificazione di testi.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella presente tesi indaghiamo la potenzialità di LCM e Reverse Phase Protein microarray negli studi clinici. Si analizza la possibilità di creare una bio banca con line cellular primarie, al fine di conseguire drug test di sensibilità prima di decidere il trattamento da somministrare ai singoli pazienti. Sono stati ottenuti profili proteomici da biopsie pre e post terapia. I risultati dimostrano che questa piattaforma mostra il meccanismo di resistenza acquisito durante la terapia biologica. Questo ci ha portato ad analizzare una possibile stratificazione per pazienti con mCRC . I dati hanno rivelato distinti pathway di attivazione tra metastasi resecabile e non resecabili. I risultati mostrano inoltre due potenziali bersagli farmacologici. Ma la valutazione dell'intero tumore tramite singole biopsie sembra essere un problema a causa dell’eterogeneità intratumorale a livello genomico. Abbiamo indagato questo problema a livello dell'architettura del segnale in campioni di mCRC e ccRCC . I risultati indicano una somiglianza complessiva nei profili proteomici all'interno dello stesso tumore. Considerando che una singola biopsia è rappresentativa di un intera lesione , abbiamo studiato la possibilità di creare linee di cellule primarie, per valutare il profilo molecolare di ogni paziente. Fino ad oggi non c'era un protocollo per creare linee cellulari immortalizzate senza alcuna variazione genetica . abbiamo cosiderato, però, l'approccio innovativo delle CRCs. Ad oggi , non è ancora chiaro se tali cellule mimino il profilo dei tessuti oppure I passaggi in vitro modifichino i loro pathways . Sulla base di un modello di topo , i nostri dati mostrano un profilo di proteomica simile tra le linee di cellule e tessuti di topo LCM. In conclusione, i nostri dati dimostrano l'utilità della piattaforma LCM / RPPA nella sperimentazione clinica e la possibilità di creare una bio - banca di linee cellulari primarie, per migliorare la decisione del trattamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi esplora la riflessione bioetica latino-americana e la sua evoluzione, valutandone i legami, intenzionali e non, con le posizioni bioetiche più consolidate e tendenzialmente dominanti del panorama internazionale. La trattazione indaga lo sviluppo della bioetica nel sub-continente latinoamericano, ponendo in evidenza lo sviluppo delle teorie morali che definiscono l'orizzonte interpretativo del dibattito contemporaneo, come pure le peculiarità della produzione sudamericana in materia di bioetica e la casistica tipica di questi territori. Per una comprensione delle caratteristiche di un pensiero bioetico, tipico di un territorio in via di sviluppo, la tesi presenta la trattazione di due precisi case studies: A- Il progetto peruviano: Propuesta de incorporación del enfoque intercultural y de representantes indígenas en los comités de ética en países multiculturales; B- La biomedicina e gli xenotrapianti in Messico. L'analisi dei casi studio è funzionale alla messa in luce delle caratteristiche costitutive del pensiero latinoamericano e della casistica tipica del territorio. La bioetica Latinoamericana, infatti, sviluppatasi circa con vent'anni di ritardo rispetto ai luoghi di nascita di questa disciplina (Gran Bretagna e USA), rivendica l'esigenza di un dibattito e di una prassi bioetica autoctone, capaci quindi di riassumere in sé stesse concetti e principi declinabili all'interno delle esperienze e delle concrete esigenze che prendono forma nella realtà culturale e socio-economica. Per questo motivo si discosta dalle cosiddette teorie bioetiche classiche rivendicando una bioetica di contestazione che si vincola costitutivamente al linguaggio dei diritti umani. La tesi propone inoltre l'utilizzo dei dati emersi dai casi studio per sviluppare una riflessione sulle modalità e su alcuni esiti della globalizzazione della bioetica. L’analisi si avvale di strumenti e categorie proprie della sociologia, dell’economia e della politica al fine di mettere in evidenza le diverse componenti costitutive e le criticità della bioetica globalizzata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

EUMETSAT (www.eumetsat.int) e’ l’agenzia europea per operazioni su satelliti per monitorare clima, meteo e ambiente terrestre. Dal centro operativo situato a Darmstadt (Germania), si controllano satelliti meteorologici su orbite geostazionarie e polari che raccolgono dati per l’osservazione dell’atmosfera, degli oceani e della superficie terrestre per un servizio continuo di 24/7. Un sistema di monitoraggio centralizzato per programmi diversi all’interno dell’ambiente operazionale di EUMETSAT, e’ dato da GEMS (Generic Event Monitoring System). Il software garantisce il controllo di diverse piattaforme, cross-monitoring di diverse sezioni operative, ed ha le caratteristiche per potere essere esteso a future missioni. L’attuale versione della GEMS MMI (Multi Media Interface), v. 3.6, utilizza standard Java Server Pages (JSP) e fa uso pesante di codici Java; utilizza inoltre files ASCII per filtri e display dei dati. Conseguenza diretta e’ ad esempio, il fatto che le informazioni non sono automaticamente aggiornate, ma hanno bisogno di ricaricare la pagina. Ulteriori inputs per una nuova versione della GEMS MMI vengono da diversi comportamenti anomali riportati durante l’uso quotidiano del software. La tesi si concentra sulla definizione di nuovi requisiti per una nuova versione della GEMS MMI (v. 4.4) da parte della divisione ingegneristica e di manutenzione di operazioni di EUMETSAT. Per le attivita’ di supporto, i test sono stati condotti presso Solenix. Il nuovo software permettera’ una migliore applicazione web, con tempi di risposta piu’ rapidi, aggiornamento delle informazioni automatico, utilizzo totale del database di GEMS e le capacita’ di filtri, insieme ad applicazioni per telefoni cellulari per il supporto delle attivita’ di reperibilita’. La nuova versione di GEMS avra’ una nuova Graphical User Interface (GUI) che utilizza tecnologie moderne. Per un ambiente di operazioni come e’ quello di EUMETSAT, dove l’affidabilita’ delle tecnologie e la longevita’ dell’approccio scelto sono di vitale importanza, non tutti gli attuali strumenti a disposizione sono adatti e hanno bisogno di essere migliorati. Allo stesso tempo, un’ interfaccia moderna, in termini di visual design, interattivita’ e funzionalita’, e’ importante per la nuova GEMS MMI.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo di questo lavoro è quello di fornire una metodologia operativa, esposta sotto forma di modello organizzativo strutturato per casi, che le aziende possono utilizzare per definire le azioni immediate di risposta da intraprendere al verificarsi di un evento informatico di sicurezza, che potrebbe trasformarsi, come vedremo, in incidente informatico di sicurezza. La strutturazione di questo modello si basa principalmente su due standard prodotti dall'ISO/IEC ed appartenenti alla famiglia 27000, che delinea il sistema di gestione della sicurezza delle informazioni in azienda e che ha come scopo principale la protezione di riservatezza, integrità e disponibilità dei dati in azienda. Il contenuto di tali standard non può però prescindere dagli ordinamenti giuridici di ogni paese in cui vengono applicati, motivo per cui all'interno del lavoro sono stati integrati i riferimenti alle normative di rilevante interesse, soprattutto quelle collegate alla privacy e ai casi presi in esame all'interno del modello sviluppato. In prima battuta vengono quindi introdotti gli standard di riferimento, illustrati all'interno del Capitolo 1, proseguendo poi con la descrizione di concetti fondamentali per la strutturazione del modello organizzativo, come sicurezza informatica, incident response e informatica forense, che vengono esposti nel Capitolo 2. Nel Capitolo 3 vengono invece descritti gli aspetti normativi in merito alla privacy dei dati aziendali, dettagliando anche le motivazioni che portano alla creazione del modello organizzativo obiettivo di questo lavoro. Nel Capitolo 4 viene illustrato il modello organizzativo proposto, che presenta una struttra per casi e contiene una analisi dei casi più rilevanti dal punto di vista del business aziendale. Infine, nel Capitolo 5 vengono descritte le caratteristiche e le funzionalità di un software sviluppato sotto forma di Windows Service, nato in seguito a delle considerazioni basate sulle analisi di rischio svolte nel Capitolo 4.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'Open Data, letteralmente “dati aperti”, è la corrente di pensiero (e il relativo “movimento”) che cerca di rispondere all'esigenza di poter disporre di dati legalmente “aperti”, ovvero liberamente re-usabili da parte del fruitore, per qualsiasi scopo. L’obiettivo dell’Open Data può essere raggiunto per legge, come negli USA dove l’informazione generata dal settore pubblico federale è in pubblico dominio, oppure per scelta dei detentori dei diritti, tramite opportune licenze. Per motivare la necessità di avere dei dati in formato aperto, possiamo usare una comparazione del tipo: l'Open Data sta al Linked Data, come la rete Internet sta al Web. L'Open Data, quindi, è l’infrastruttura (o la “piattaforma”) di cui il Linked Data ha bisogno per poter creare la rete di inferenze tra i vari dati sparsi nel Web. Il Linked Data, in altre parole, è una tecnologia ormai abbastanza matura e con grandi potenzialità, ma ha bisogno di grandi masse di dati tra loro collegati, ossia “linkati”, per diventare concretamente utile. Questo, in parte, è già stato ottenuto ed è in corso di miglioramento, grazie a progetti come DBpedia o FreeBase. In parallelo ai contributi delle community online, un altro tassello importante – una sorta di “bulk upload” molto prezioso – potrebbe essere dato dalla disponibilità di grosse masse di dati pubblici, idealmente anche già linkati dalle istituzioni stesse o comunque messi a disposizione in modo strutturato – che aiutino a raggiungere una “massa” di Linked Data. A partire dal substrato, rappresentato dalla disponibilità di fatto dei dati e dalla loro piena riutilizzabilità (in modo legale), il Linked Data può offrire una potente rappresentazione degli stessi, in termini di relazioni (collegamenti): in questo senso, Linked Data ed Open Data convergono e raggiungono la loro piena realizzazione nell’approccio Linked Open Data. L’obiettivo di questa tesi è quello di approfondire ed esporre le basi sul funzionamento dei Linked Open Data e gli ambiti in cui vengono utilizzati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il seguente lavoro di tesi si è concentrato sull'analisi statistica dei dati prodotti dall'imaging di risonanza magnetica di pazienti affetti da tumori di alto grado, in particolare glioblastoma multiforme. Le tipologie di acquisizione d'immagine utilizzate sono state l'imaging pesato in T1 e il Diffusion-Weighted Imaging (DWI). Lo studio è stato suddiviso in due fasi: nella prima è stato considerato un campione di pazienti affetti da glioblastoma multiforme che, dopo il trattamento, avessero manifestato una ricaduta della malattia; per questi pazienti è stato quantificato in che modo la dose erogata durante la terapia si sia distribuita sul target del trattamento, in particolare nella porzione di tessuto in cui andrà a svilupparsi la recidiva. Nella seconda fase, è stato selezionato un campione più ristretto che disponesse, per entrambe le modalità di imaging, di un'acquisizione pre-terapia e di un numero sufficiente di esami di follow up; questo al fine di seguire retrospettivamente l'evoluzione della patologia e analizzare tramite metodi statistici provenienti anche dalla texture analysis, i dati estratti dalle regioni tumorali. Entrambe le operazioni sono state svolte tramite la realizzazione di software dedicati, scritti in linguaggio Matlab. Nel primo capitolo vengono fornite le informazioni di base relative ai tumori cerebrali, con un'attenzione particolare al glioblastoma multiforme e alle sue modalità di trattamento. Nel secondo capitolo viene fatta una panoramica della fisica dell'imaging di risonanza magnetica e delle tecniche di formazione delle immagini, con un'ampia sezione è dedicata all'approfondimento dell'imaging in diffusione. Nel terzo capitolo viene descritto il progetto, i campioni e gli strumenti statistici e di texture analysis utilizzati in questo studio. Il quarto capitolo è dedicato alla descrizione puntuale dei software realizzati durante questo lavoro e nel quinto vengono mostrati i risultati ottenuti dall'applicazione di questi ultimi ai campioni di pazienti esaminati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Estrazione e analisi di dati (like, commenti, share) relativi alle APT regionali per contesti di promozione turistica

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tramite il presente lavoro di tesi si intende effettuare un’analisi specifica su sedimenti provenienti dalla Pialassa Piomboni, una Zona Umida di Interesse Comunitario dal delicato equilibrio ed in continua evoluzione, che fin dalla sua nascita ha sempre assunto un ruolo di importanza sia ecologico-naturale che socio-economica, vista la posizione che la pone a metà tra il Canale Candiano, il Porto di Ravenna, la zona industriale e il mare Adriatico. Oltre ad arricchire il database di dati, l’obiettivo principale dello studio è ottenere una nuova informazione per la valutazione dello stato di qualità dei sedimenti con un’indagine ancora più specifica: si analizza la distribuzione che i metalli pesanti assumono in relazione alle diverse frazioni e caratteristiche del materiale presente tramite estrazioni sequenziali, effettuate secondo la procedura ufficiale per l’analisi di questi tipi di suoli, recentemente approvata e standardizzata a livello europeo dalla BCR (European Community Bureau of Reference) e migliorata da esperimenti interlaboratorio (Rauret et al., 1999). Attraverso attacchi con reagenti sempre più forti, si valuta a quale frazione del sedimento (scambiabile, riducibile o ossidabile) i metalli risultino maggiormente associati, valutandone mobilità e disponibilità in relazione a cambiamenti di condizioni fisiche e chimiche in cui si trova il materiale, come il variare di pH e degli equilibri ossido-riduttivi. E’ stato inoltre elaborato un inquadramento dal punto di vista geochimico, considerando i livelli di concentrazione di fondo degli elementi già naturalmente presenti in zona. Le concentrazioni totali sono infine stati confrontati con il Manuale ICRAM (2007), che fornisce linee guida per la valutazione della qualità dei sedimenti e la loro movimentazione, per poterne ipotizzare l’eventuale destino, scelta spesso problematica nella gestione di sedimenti in ambito portuale. In sintesi, questo lavoro si inserisce all’interno di un ampio progetto di gestione, approfondendo la letteratura scientifica presente sui criteri di analisi di qualità dei sedimenti e sulle problematiche di diffusione, trasporto e destino finale dei contaminanti nell’ambiente, verificando l’applicazione della procedura analitica di estrazione sequenziale, metodologicamente complessa e soggetta a migliorie e modifiche, riconsiderata in tempi recenti per la sua efficacia e per i vantaggi che comporta grazie all’acquisizione di dati ad alto contenuto di informazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro affronta il tema della condizione linguistica degli adolescenti di origine immigrata presenti in Italia, i quali si trovano a sperimentare il fenomeno del bilinguismo. Questi ragazzi, infatti, oltre all'italiano hanno la possibilità di apprendere la lingua del loro Paese di origine e di diventare degli individui bilingui. La prima parte dell'elaborato fornisce un'introduzione sul fenomeno migratorio che interessa da tempo l'Italia e sulle caratteristiche delle comunità straniere attualmente presenti, con particolare attenzione verso gli alunni di origine straniera sempre più numerosi nelle scuole italiane. Inoltre, viene illustrato nel dettaglio il fenomeno del bilinguismo analizzando le diverse definizioni e classificazioni esistenti in letteratura e presentando il bilinguismo che si instaura in seguito ai processi migratori. Oltre a indagare la condizione linguistica dei ragazzi di origine immigrata e l'uso delle lingue in diversi contesti, rientra tra le finalità della presente ricerca anche conoscere le opinioni degli alunni stranieri verso il bilinguismo e capire se ne hanno una visione positiva o negativa, inoltre, si vuole comprendere la loro posizione riguardo il mantenimento della lingua del proprio Paese di origine. Gli ultimi due capitoli costituiscono la parte operativa della ricerca e, infatti, viene prima presentato lo strumento della ricerca e poi l'analisi dei dati ottenuti. Per raggiungere gli obiettivi prefissati è stato creato un questionario ad hoc distribuito in quattro istituti superiori di secondo grado. In questo modo, è stato possibile ottenere un consistente numero di dati che sono stati successivamente analizzati ed elaborati a livello statistico e hanno permesso di delineare la condizione linguistica, le opinioni e gli atteggiamenti verso il bilinguismo dei ragazzi stranieri. In generale, questi ultimi si sono dimostrati favorevoli verso il bilinguismo, che viene considerato un elemento positivo da cui trarre benefici in diversi ambiti, dalla sfera personale al mondo del lavoro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’esperimento CMS a LHC ha raccolto ingenti moli di dati durante Run-1, e sta sfruttando il periodo di shutdown (LS1) per evolvere il proprio sistema di calcolo. Tra i possibili miglioramenti al sistema, emergono ampi margini di ottimizzazione nell’uso dello storage ai centri di calcolo di livello Tier-2, che rappresentano - in Worldwide LHC Computing Grid (WLCG)- il fulcro delle risorse dedicate all’analisi distribuita su Grid. In questa tesi viene affrontato uno studio della popolarità dei dati di CMS nell’analisi distribuita su Grid ai Tier-2. Obiettivo del lavoro è dotare il sistema di calcolo di CMS di un sistema per valutare sistematicamente l’ammontare di spazio disco scritto ma non acceduto ai centri Tier-2, contribuendo alla costruzione di un sistema evoluto di data management dinamico che sappia adattarsi elasticamente alle diversi condizioni operative - rimuovendo repliche dei dati non necessarie o aggiungendo repliche dei dati più “popolari” - e dunque, in ultima analisi, che possa aumentare l’“analysis throughput” complessivo. Il Capitolo 1 fornisce una panoramica dell’esperimento CMS a LHC. Il Capitolo 2 descrive il CMS Computing Model nelle sue generalità, focalizzando la sua attenzione principalmente sul data management e sulle infrastrutture ad esso connesse. Il Capitolo 3 descrive il CMS Popularity Service, fornendo una visione d’insieme sui servizi di data popularity già presenti in CMS prima dell’inizio di questo lavoro. Il Capitolo 4 descrive l’architettura del toolkit sviluppato per questa tesi, ponendo le basi per il Capitolo successivo. Il Capitolo 5 presenta e discute gli studi di data popularity condotti sui dati raccolti attraverso l’infrastruttura precedentemente sviluppata. L’appendice A raccoglie due esempi di codice creato per gestire il toolkit attra- verso cui si raccolgono ed elaborano i dati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni Internet ha cambiato le modalità di creazione e distribuzione delle informazioni turistiche. Un ruolo fondamentale viene ricoperto dalle piattaforme di social media, tecnologie che permettono ai consumatori di condividere le proprie esperienze ed opinioni. Diventa necessario, quindi, comprendere i cambiamenti in queste tecnologie e nel comportamento dei viaggiatori per poter applicare strategie di marketing di successo. In questo studio, utilizzando Opinion Finder, un software spesso impiegato nel campo dell'opinion mining, si esamineranno da un punto di vista qualitativo i post e commenti estratti da alcuni profili degli enti di promozione turistica nazionale in Europa, dividendo l'analisi per fattori che possono influenzare il sentimento degli utenti. Attraverso i risultati ottenuti, si può dimostrare che l'analisi delle opinioni e del sentimento si presenta come un ottimo strumento per evidenziare possibili fenomeni utili per la pianificazione di strategie di marketing per gli enti. Studi futuri potrebbero migliorare la valutazione di questi dati attraverso la creazione di un corpus di apprendimento per il software che contenga testi relativi al mondo del turismo e permettendo ad Opinion Finder di incrementare la validità della classificazione del sentimento, contestualizzando le espressioni in maniera corretta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'esperimento LHCb è stato progettato per eseguire misure di altissima precisione nel settore della fisica dei quark pesanti al Large Hadron Collidere del CERN. Sfruttando l'alta sezione d'urto di produzione di charm nelle interazioni protone-protone ad LHC e utilizzando la statistica raccolta durante il RUN-1, corrispondente ad una luminosità integrata di 3 fb{-1}, l'esperimento LHCb ha realizzato le misure più precise al mondo in questo settore. In particolare i decadimenti del mesone D0 in due corpi carichi senza leptoni nello stato finale hanno permesso di realizzare misure di violazione di CP} che raggiungono precisioni inferiori al 0.1 %. Da pochi mesi LHCb ha iniziato la seconda fase di presa dati, chiamata RUN-2, raccogliendo dati dalle interazioni protone-protone ad una energia nel centro di massa di sqrt{s}=13 TeV, superiore a quella del RUN-1. Le misure attuali di violazione di CP nel settore del charm, sono consistenti con l'ipotesi di non violazione. Il Modello Standard, pur con grandi incertezze teoriche, prevede una violazione di CP molto piccola, pertanto per verificare o meno l'esistenza di taleviolazione, sarà necessario sfruttare al massimo la statistica che verrà raccolta durante il RUN-2, ottimizzando gli algoritmi di selezione dei canali di interesse. In questa tesi verrà presentata uno studio preliminare che ha lo scopo di ottimizzare, mediante una tecnica di analisi multivariata, la selezione dei decadimenti D^*pm-> D0(K+K-)pi_s^pm e D^*pm}-> D0(pi+pi-)pi_s^pm} in previsione della prossima presa dati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo progetto di tesi è lo sviluppo di un sistema distribuito di acquisizione e visualizzazione interattiva di dati. Tale sistema è utilizzato al CERN (Organizzazione Europea per la Ricerca Nucleare) al fine di raccogliere i dati relativi al funzionamento dell'LHC (Large Hadron Collider, infrastruttura ove avvengono la maggior parte degli esperimenti condotti al CERN) e renderli disponibili al pubblico in tempo reale tramite una dashboard web user-friendly. L'infrastruttura sviluppata è basata su di un prototipo progettato ed implementato al CERN nel 2013. Questo prototipo è nato perché, dato che negli ultimi anni il CERN è diventato sempre più popolare presso il grande pubblico, si è sentita la necessità di rendere disponibili in tempo reale, ad un numero sempre maggiore di utenti esterni allo staff tecnico-scientifico, i dati relativi agli esperimenti effettuati e all'andamento dell'LHC. Le problematiche da affrontare per realizzare ciò riguardano sia i produttori dei dati, ovvero i dispositivi dell'LHC, sia i consumatori degli stessi, ovvero i client che vogliono accedere ai dati. Da un lato, i dispositivi di cui vogliamo esporre i dati sono sistemi critici che non devono essere sovraccaricati di richieste, che risiedono in una rete protetta ad accesso limitato ed utilizzano protocolli di comunicazione e formati dati eterogenei. Dall'altro lato, è necessario che l'accesso ai dati da parte degli utenti possa avvenire tramite un'interfaccia web (o dashboard web) ricca, interattiva, ma contemporaneamente semplice e leggera, fruibile anche da dispositivi mobili. Il sistema da noi sviluppato apporta miglioramenti significativi rispetto alle soluzioni precedentemente proposte per affrontare i problemi suddetti. In particolare presenta un'interfaccia utente costituita da diversi widget configurabili, riuitilizzabili che permettono di esportare i dati sia presentati graficamente sia in formato "machine readable". Un'alta novità introdotta è l'architettura dell'infrastruttura da noi sviluppata. Essa, dato che è basata su Hazelcast, è un'infrastruttura distribuita modulare e scalabile orizzontalmente. È infatti possibile inserire o rimuovere agenti per interfacciarsi con i dispositivi dell'LHC e web server per interfacciarsi con gli utenti in modo del tutto trasparente al sistema. Oltre a queste nuove funzionalità e possbilità, il nostro sistema, come si può leggere nella trattazione, fornisce molteplici spunti per interessanti sviluppi futuri.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I metalli pesanti sono presenti in natura come costituenti della crosta terrestre associati a diversi minerali. Attività antropiche possono determinare un arricchimento del loro contenuto in ambiente: nel caso della miniera di Libiola, da cui era estratto Cu fino agli anni ‘60, le fasi di estrazione e raffinazione del minerale hanno portato all’esposizione di una maggior quantità di materiale all’azione di weathering atmosferico e delle acque dei fiumi, accumulandosi in ambiente marino. Il presente studio ha l’obiettivo di caratterizzare i sedimenti del Golfo di Tigullio antistanti Sestri Levante per acquisire informazioni sulle caratteristiche e proprietà dell’ambiente, individuando e determinando l’effetto di quanto proviene del Torrente Gromolo e da altri corpi idrici affluenti. Per raggiungere questo obiettivo i campioni di sedimento, una volta prelevati, sono stati trattati in laboratorio tramite setacciatura, essiccamento e macinatura a cui sono seguite analisi in XRF, XRD e del contenuto di materia organica tramite calcolo della LOI. I dati raccolti sono stati poi studiati tramite elaborazioni statistiche (indici, matrice di correlazione, analisi fattoriale) e grafiche (QGIS). Dallo studio dei risultati ottenuti è stato possibile verificare una diversa ripartizione degli analiti in distinte fasi granulometriche del sedimento, l’effettivo contributo di quanto è drenato dai fiumi e la presenza di una corrente idrodinamica che influisce sulla distribuzione degli elementi stessi.