111 resultados para Indicateurs de la qualité


Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’utilizzo del Multibeam Echo sounder (MBES) in ambienti di transizione poco profondi, con condizioni ambientali complesse come la laguna di Venezia, è ancora in fase di studio e i dati biologici e sedimentologici inerenti ai canali della laguna di Venezia sono attualmente scarsi e datati in letteratura. Questo studio ha lo scopo di mappare gli habitat e gli oggetti antropici di un canale della laguna di Venezia in un intervallo di profondità tra 0.3 e 20 m (Canale San Felice) analizzando i dati batimetrici e di riflettività (backscatter) acquisiti da ISMAR-Venezia nell’ambito del progetto RITMARE. A tale scopo il fondale del canale San Felice (Venezia) è stato caratterizzato dal punto di vista geomorfologico, sedimentologico e biologico; descrivendo anche l’eventuale presenza di oggetti antropici. L’ecoscandaglio utilizzato è il Kongsberg EM2040 Dual-Compact Multibeam in grado di emettere 800 beam (400 per trasduttore) ad una frequenza massima di 400kHZ e ci ha consentito di ricavare ottimi risultati, nonostante le particolari caratteristiche degli ambienti lagunari. I dati acquisiti sono stati processati tramite il software CARIS Hydrographic information processing system (Hips) & Sips, attraverso cui è possibile applicare le correzioni di marea e velocità del suono e migliorare la qualità dei dati grezzi ricavati da MBES. I dati sono stati quindi convertiti in ESRI Grid, formato compatibile con il software ArcGIS 10.2.1 (2013) che abbiamo impiegato per le interpretazioni e per la produzione delle mappe. Tecniche di ground-truthing, basate su riprese video e prelievi di sedimento (benna Van Veen 7l), sono state utilizzate per validare il backscatter, dimostrandosi molto efficaci e soddisfacenti per poter descrivere i fondali dal punto di vista biologico e del substrato e quindi degli habitat del canale lagunare. Tutte le informazioni raccolte durante questo studio sono state organizzate all’interno di un geodatabase, realizzato per i dati relativi alla laguna di Venezia.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’aumento delle concentrazioni del diossido di carbonio in atmosfera dovuto alla combustione dei combustibili fossili è una fonte di grande preoccupazione a causa del suo impatto sul clima globale. La biomassa è l’unica fonte rinnovabile a poter essere convertita in combustibili e, tra i metodi di conversione, la pirolisi produce un liquido (bio-olio) che presenta potenzialità come combustibile. Le alghe sono una biomassa di interesse, ma il bio-olio che si ottiene è caratterizzato da composti contenenti ossigeno, zolfo e azoto che ne riducono la qualità. Tali elementi possono essere eliminati attraverso la scissione (cracking) con zeoliti con la produzione di idrocarburi. L’obiettivo dello studio è stato quello di valutare le caratteristiche del cracking catalitico di tre microalghe: Arthrospira platensis, Botryococcus braunii e Desmodesmus communis per la produzione di idrocarburi. Le biomasse sono state pirolizzate a 500 °C e i vapori prodotti termicamente sono stati fatti passare nella zeolite dove subiscono il cracking. Sono state utilizzate due zeolite a diversa acidità: un pellet H-ZSM5 (SiO2/Al2O3=38) e un monolite a base di HZSM5 (SiO2/Al2O3=80) e sepiolite. Dal cracking si ottengono sei frazioni pirolitiche: char, coke, fase acquosa, bio-olio, frazione volatile e gas non condensabili. Le frazioni sono state caratterizzate tramite analisi elementari e molecolari e dai dati ottenuti sono stati calcolati i bilanci di N, C e del potere calorifico. Per tutte le alghe si ottiene un bio-olio con un elevato contenuto di carbonio e fortemente deossigenato, ma le rese sono relativamente basse. I prodotti che contengono una maggior frazione del carbonio della biomassa iniziale sono il char ed il coke, seguiti dalla fase organica e dai gas. La distribuzione dell’azoto è simile ma con una maggiore frazione nella fase acquosa. Entrambi i catalizzatori agiscono migliorando la qualità del bio-olio tramite la riduzione dei composti azotati ed ossigenati e formando idrocarburi monoaromatici, tipici delle benzine, e poliaromatici. Il monolite, con zeolite meno acida, produce una maggior frazione di bio-olio caratterizzato, però, da una minor percentuale di composti aromatici. Si ritiene che l’aumento delle rese del bio-olio e la valorizzazione dei sottoprodotti (biochar, fase acquosa) siano indispensabili per la sostenibilità del processo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Secondo l'Agenzia Europea dell'Ambiente una delle principali minacce per le risorse di acqua dolce della zone costiere italiane è l’intrusione salina. L’obiettivo di questa tesi magistrale è la caratterizzazione idrogeologica di una frazione dell’acquifero freatico costiero situato in due differenti corpi dunosi. L’indagine proseguita per cinque mesi ha evidenziano differenze tra un’area sottoposta a forte pressione antropica (Marina Romea) e un’area che mostra un relativo sviluppo naturale del sistema spiaggia-duna (Porto Corsini). La tecnica di campionamento utilizzata è il sistema a minifiltri (multi level samplers), metodologia innovativa che garantisce tempistiche di monitoraggio rapide e una campionatura multi-livello puntuale e precisa. La campagna di monitoraggio ha coinvolto misure di freatimetria, conduttività elettrica e analisi chimiche delle acque che hanno portato ad una loro classificazione geo-chimica. Dai risultati si evidenzia che l’acquifero è molto salinizzato, gli strati d’acqua dolce sono isolati in lenti superficiali e i tipi di acque presenti sono dominati da ioni sodio e cloro. Tra i due siti il più vulnerabile risulta essere Marina Romea per molti fattori: l’erosione costiera che assottiglia la fascia dunale adibita alla ricarica di acqua dolce, un’estensione spaziale della duna minore rispetto a Porto Corsini, la presenza di infrastrutture turistiche che hanno frazionato la duna, la vicinanza al canale di drenaggio che causa la risalita delle acque profonde saline, la presenza di specie arboree idro-esigenti che attingono e quindi assottigliano le lenti d’acqua dolce. Si propone di migliorare la qualità dell’acqua sotterranea con una migliore gestione del canale di drenaggio, sostituendo alcuni esemplari di pinacee con specie arbustive tipiche degli ambienti dunosi ed infine imponendo misure per il risparmio idrico durante la stagione turistica.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Un manuale tecnico non veicola solo contenuti, ma definisce anche il rapporto tra emittente e destinatario all’interno di una relazione commerciale. Il testo deve quindi essere di buona qualità, altrimenti si potrebbero verificare danni economici e di immagine per l’emittente. Nonostante ciò, molte aziende dimostrano scarsa sensibilità al problema della qualità redazionale perché ottenerla significa affrontare investimenti di tempo e risorse. Con questa tesi propongo una modalità di revisione del manuale tecnico che tiene in considerazione esigenze di natura diversa: utilizzando gli strumenti CAT per la revisione è possibile, infatti, migliorare la qualità del manuale riducendo i tempi richiesti dal lavoro, e quindi contenerne i costi. Questa proposta, tuttavia, non è una soluzione definitiva perché la revisione migliora un singolo testo: affinché l’azienda comunichi in modo efficace non si può prescindere da un adeguato percorso di formazione dei redattori. In particolare, in un manuale tecnico la qualità corrisponde a un linguaggio chiaro, semplice e non ambiguo, ben lontano dunque dal burocratese che viene considerato da molti un buono stile e dall’antilingua contro cui già Calvino metteva in guardia. Le competenze non solo linguistiche del traduttore gli permettono di rivelarsi una figura determinante anche per la redazione e la revisione di testi monolingue. Così come tradurre non significa trasferire da una lingua all’altra le parole, ma i concetti, allo stesso modo rendere chiaro, semplice e univoco un manuale non vuol dire solo aumentarne la leggibilità, ma soprattutto mettere il destinatario nelle condizioni di capire i contenuti e di eseguire correttamente le istruzioni nel passaggio dal contesto linguistico a quello fattuale. Anche nella revisione, come nella traduzione, gli strumenti automatici non sostituiscono il professionista, ma gli permettono di finalizzare a uno scopo preciso le sue conoscenze sul funzionamento della lingua e della comunicazione.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’elaborato approfondisce il tema della traduzione in simboli. Questo particolare tipo di traduzione è pensato per chi è affetto da disabilità comunicative e presenta difficoltà nella comprensione e nell’espressione, sia a livello orale che scritto. Ad oggi, i libri tradotti in simboli sono per lo più rivolti a bambini e fanno parte degli strumenti della Comunicazione Aumentativa Alternativa, o CAA, un ambito di ricerca che ha lo scopo di individuare metodi di comunicazione “aumentativi”, ossia che accrescono le capacità comunicative di persone con disabilità. Questa comunicazione è definita, altresì, “alternativa” poiché individua modalità diverse dalla parola come, appunto, simboli, immagini e tecnologie dedicate. La CAA nasce per garantire uno dei diritti umani fondamentali, sanciti anche dall’ONU, cioè il diritto alla comunicazione. L’elaborato fornisce, innanzitutto, una panoramica generale sulla disabilità comunicativa, sulla Comunicazione Aumentativa Alternativa, e sugli strumenti utilizzati in questo contesto, soffermandosi in particolare sui sistemi simbolici. In seguito, descrive dettagliatamente i libri in simboli, spiegandone obiettivi e caratteristiche, e facendo riferimento ai concetti di linguaggio, lingua, oralità e scrittura e acquisizione del linguaggio. Infine, vengono analizzati i metodi attualmente esistenti per la traduzione in simboli di libri per bambini, e viene illustrato un esempio concreto. L’ultima parte dell’elaborato si sofferma sugli aspetti in comune tra la traduzione in simboli e la traduzione tra lingue naturali, e sui metodi di quest’ultima che possono essere utili per migliorare la qualità del testo in simboli. In particolare, si farà riferimento agli strumenti di traduzione assistita e di traduzione automatica attualmente esistenti per la traduzione in simboli e verranno dati suggerimenti pratici per renderli più efficaci, rifacendosi anche alla traduzione automatica e assistita tra lingue naturali, con particolare riferimento alle tecniche di pre-editing, post-editing e scrittura controllata.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La documentazione tecnica ha assunto un ruolo fondamentale per i produttori sia per rispondere agli obblighi di legge (v. Direttiva Macchine 2006/42/CE) sia come strumento di marketing. Dato l’alto grado di ripetitività dei manuali di istruzioni e le numerose lingue di destinazione, per la loro traduzione è indispensabile l’uso dei CAT tool. In questo contesto, la presente tesi si pone l’obiettivo di individuare una serie di elementi linguistici che possano fornire informazioni sulla qualità dei testi di partenza in italiano e su cui si possa intervenire per migliorarli, nell’ottica di ottimizzare l’uso dei CAT tool e ridurre il costo delle traduzioni. L’idea alla base del progetto è infatti che le caratteristiche dei testi originali influiscano in maniera fondamentale sulla qualità del risultato finale, così come sul costo del servizio di traduzione. I contenuti sono suddivisi in cinque capitoli. Nel primo capitolo si analizzano gli studi sulla leggibilità dei testi, sulla semplificazione del linguaggio e sui linguaggi specialistici. Nel secondo capitolo si presenta il funzionamento dei CAT tool e si approfondiscono gli aspetti rilevanti per l’ottimizzazione del loro uso nella traduzione dei manuali di istruzioni. Nel terzo capitolo si combinano le conoscenze acquisite nei primi due capitoli e si propone un metodo di revisione dei manuali da sottoporre a traduzione. Tale revisione ha lo scopo di agevolare i CAT tool nel riconoscimento della somiglianza tra le frasi e di permettere di conseguenza un lavoro di traduzione a costi inferiori, senza però perdere di vista la qualità finale del manuale e la sua leggibilità e chiarezza. Nel quarto capitolo si espone l’applicazione pratica del metodo e si analizzano e discutono i risultati ottenuti. Nel quinto capitolo si traggono le conclusioni finali sul metodo proposto e i relativi risultati. Si propongono inoltre argomenti di riflessione e discussione che suggeriscono nuovi scenari e prospettive.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Il percorso del riconoscimento legislativo del diritto all’equo processo affonda le sue radici nel 1215, anno di promulgazione della Magna Charta Libertatum, e culmina, in ambito europeo, nel 1950, con la firma della Convenzione europea per la salvaguardia dei Diritti dell’Uomo e delle Libertà fondamentali (CEDU). In questo documento viene sancito che un prerequisito essenziale per garantire a tutti gli individui il diritto al fair trial è il servizio di assistenza linguistica gratuita, le cui specificità vengono descritte nella direttiva 2010/64/EU.Nel Regno Unito, già nei primi anni ’90 furono introdotte le prime misure per garantire la qualità e la competenza degli interpreti e dei traduttori in ambito giuridico-giudiziario: nel 1994 fu istituito il National Register for Public Service Interpreters (NRPSI), il registro nazionale a cui erano iscritti tutti gli interpreti per i servizi pubblici che erano in possesso di determinate qualifiche. Per assicurare che solo gli interpreti del NRPSI fossero impiegati in ambito penale, nel 1997 fu introdotto il National Agreement, un accordo non vincolante che regolava l’uso dei servizi linguisti nel Criminal Justice System. La prima versione fu modificata nel 2002 e nel 2007. In seguito ad alcune revisioni per conto del Ministero della Giustizia, nel 2010 fu avviato il processo di esternalizzazione dei servizi linguistici, che si concluse nel 2011 con la stipula del National Framework Agreement tra il Ministero della Giustizia e l’azienda Applied Language Solutions (ALS), che poco prima dell’avvio fu acquisita da un’azienda più grande, CAPITA TI. La scarsa esperienza del Ministero in questo settore, unita alle promesse poco realistiche e alla mancanza di trasparenza di ALS furono le cause principali dei numerosi problemi all’avvio del nuovo contratto che si ripercossero notevolmente sul funzionamento del sistema di giustizia. Dopo l’avvio di un piano di emergenza e un monitoraggio del Ministero, la situazione ha iniziato a ristabilirsi, senza raggiungere però i livelli pre-riforma. A Novembre 2015 è stata indetta la nuova gara di appalto: le minacce di nuovi tagli ai tariffari degli interpreti da una parte, e la partecipazione del NRPSI alla gara d’appalto come candidato al ruolo di ente supervisore della qualità dei servizi linguistici dall’altra, ci pongono di fronte a due scenari futuri molto diversi. L’elaborato è strutturato in quattro capitoli: il primo tratterà del percorso storico che ha portato al riconoscimento del diritto al processo equo, e degli strumenti comunitari a garanzia dell’assistenza linguistica gratuita. Nel secondo capitolo parleremo della situazione inglese, quindi la nascita del NRPSI e del National Agreement e le varie revisioni. Nel terzo prenderemo in esame la riforma del 2011 del Ministero della Giustizia britannico, analizzando diversi documenti: il rapporto della Commissione giustizia della Camera dei comuni 2013, quello del National Audit Office 2012, il sondaggio Involvis 2013, il rapporto indipendente OPTIMITY-MATRIX 2014.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

"Non possiamo permettere l'utilizzo del [tessuto] urbano come strumento per la produzione di iniquità e trasferimenti, incapaci di vedere l'importanza e la difficoltà di creare uno spazio attivo che sia equo, ecologico ed economico" (Schafran, 2014). In un contesto di emergenza ambientale globale e considerando le problematiche degli insediamenti popolari sudamericani, la presente ricerca propone l’introduzione del concetto di sostenibilità urbana come fattore di miglioramento di un quartiere della periferia del Gran Santiago. Il caso studio è interessante in quanto la politica cilena si muove in direzione di maggiore consapevolezza per i temi ambientali, pur dovendo ancora risolvere problemi di segregazione e scarsa qualità nella “vivienda social”. La presente ricerca è quindi finalizzata ad individuare una matrice composta da linee guida di sostenibilità riferite alla scala di quartiere, come strategia per rispondere ai problemi socio-residenziali, oltre alle imperanti esigenze di maggiore sostenibilità ambientale. A tale scopo è necessario fare riferimento a sistemi di valutazione adeguati: analizzando quelli utilizzati in ambito nazionale e internazionale, si ricava una matrice di 106 linee guida, 16 criteri e 3 ambiti principali di interesse. È questo lo strumento utilizzato per la diagnosi del caso studio. In base alle criticità emerse e alle necessità dell’area emergono due strategie principali su cui si articola la proposta progettuale di riqualificazione del quartiere: implementare dotazioni di servizi e aree verdi e introdurre tecnologie e misure ecofriendy, col fine di generare identità e migliorare la qualità di vita nel quartiere.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Uno tra i principali problemi dei compositi è il fenomeno della delaminazione. In questo lavoro di tesi sono state prodotte membrane nanofibrose ottenute mediante elettrofilatura di poliarammidi, da impiegare come rinforzo per contrastare tale fenomeno. Sono state quindi preparate soluzioni di Nomex con differenti combinazioni di concentrazione e solvente da sottoporre ad elettrofilatura, e sono stati ricercati i parametri di processo ottimali. La qualità delle nanofibre è stata valutata attraverso analisi SEM e successivamente sono state determinate le proprietà termo-meccaniche delle membrane migliori. Le stesse sono state impiegate per la produzione di compositi in fibra di carbonio a matrice epossidica e l’effetto sulla delaminazione è stato valutato tramite test preliminari ILSS e DCB. Inoltre, è stato valutato al cono-calorimetro il comportamento alla fiamma del composito nano-rinforzato. Sono state anche tentate prove preliminari di elettrofilatura di soluzioni di Kevlar.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’effetto dell’informatica e dell’automazione sulle procedure medico sanitarie si sta manifestando in maniera sempre più ampia, portando notevoli vantaggi per la salute e il benessere di tutti i pazienti e al tempo stesso ponendo sfide sempre più complesse alle istituzioni sanitarie e ai produttori di dispositivi medico-sanitari. Al di là dei meriti del singolo prodotto o tecnologia, esiste un fattore strategico che dovrebbe essere sempre considerato nel momento di progettare un software o un dispositivo da utilizzare in ambito sanitario (da parte dei produttori) o nel momento di pianificare l’acquisto di sistemi medicali o diagnostici complessi (da parte delle istituzioni sanitarie): l’aspetto dell’Integrazione, ovvero la capacità del sistema di inserirsi in maniera semplice, efficace e poco costosa in un Workflow (flusso di lavoro) completamente integrato. Nel primo capitolo di questo elaborato finale è stato fatto un quadro generale sull’organizzazione del flusso di lavoro in radiologia e sono stati trattati i vari standard di comunicazione e scambio dati in ambito clinico, in primis DICOM, HL7 e IHE. L’oggetto del secondo capitolo è l’organizzazione e gli obbiettivi del Dipartimento di Radiologia attuati dal Gruppo Villa Maria (GVM) e il confronto di questi ultimi con il contenuto del documento: ‘Linee guida per l’assicurazione di qualita` in teleradiologia ‘che è stata redatta dal Istituto Superiore di Sanita` destinata ad apportare, non solo ai medici radiologi ed ai TSRM ma anche agli altri professionisti della sanità coinvolti, gli elementi di informazione e di metodo per l’organizzazione della teleradiologia nel rispetto delle esigenze della deontologia medica, della sicurezza del paziente, compreso il consenso, anche per quanto riguarda la radioprotezione, la privacy e la qualità. Nel terzo capitolo sono elencati gli strumenti con cui il Dipartimento di radiologia intende perseguire i suoi obbiettivi. Il quarto capitolo tratta la mia esperienza presso una clinica esterna al GVM, in particolare la clinica Santo Stefano, di Porto Potenza Picena, dove sono stati fatti dei test volti a valutare i tempi di caricamento di esami di TAC e RMN sul cloud di GVM.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Lo scopo di questo elaborato di tesi è stato quello di condurre uno studio preliminare volto ad indagare le principali caratteristiche qualitative delle carni bovine in funzione dell’origine e dell’età degli animali. Nel corso della sperimentazione sono stati analizzati 24 campioni di carne bovina ottenuti da animali di origine francese ed italiana di età compresa fra 15 e 23 mesi, acquistati presso la grande distribuzione o acquisiti direttamente dalle aziende produttrici. Da ciascun campione sono state ricavate delle porzioni di 6 mm di spessore impiegate, a loro volta, per la preparazione di sotto-campioni da sottoporre a determinazione di pH, colore, Expressible Moisture (EM %) e sforzo di taglio. Nell’ambito di ciascun parametro, l’insieme dei dati è stato analizzato mediante analisi statistica di tipo descrittivo. Successivamente, calcolata la matrice delle correlazioni fra i parametri oggetto di studio i dati sono stati elaborati mediante analisi multivariata con il metodo delle componenti principali (Principal Component Analysis, PCA) allo scopo di verificare se fosse possibile discriminare la qualità della carne in funzione dell’origine e dell’età degli animali. Quanto emerso evidenzia come non sia possibile discriminare la qualità dei campioni di carne bovina, sia acquistati al dettaglio presso la grande distribuzione che acquisiti direttamente dalle aziende produttrici, sulla base delle informazioni riportate in etichetta circa l’età e l’origine degli animali. Ciò può trovare spiegazione nella molteplicità di fattori intrinseci (specie, razza o tipo genetico, genere, età e peso degli animali alla macellazione) ed estrinseci (fasi pre- e post-macellazione) in grado di svolgere un ruolo rilevante nel determinare la qualità della carne. Pertanto, future ricerche dovranno essere intraprese per individuare quali parametri possano essere considerati più idonei a valorizzare la qualità tecnologica e sensoriale delle carni bovine.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

I dispositivi mobili, dagli smartphone ai tablet, sono entrati a far parte della nostra quotidianità. Controllando l’infrastruttura delle comunicazioni, rispetto a qualsiasi altro settore, si ha un maggiore accesso a informazioni relative alla geo-localizzazione degli utenti e alle loro interazioni. Questa grande mole di informazioni può aiutare a costruire città intelligenti e sostenibili, che significa modernizzare ed innovare le infrastrutture, migliorare la qualità della vita e soddisfare le esigenze di cittadini, imprese e istituzioni. Vodafone offre soluzioni concrete nel campo dell’info-mobilità consentendo la trasformazione delle nostre città in Smart City. Obiettivo della tesi e del progetto Proactive è cercare di sviluppare strumenti che, a partire da dati provenienti dalla rete mobile Vodafone, consentano di ricavare e di rappresentare su cartografia dati indicanti la presenza dei cittadini in determinati punti d’interesse, il profilo di traffico di determinati segmenti viari e le matrici origine/destinazione. Per fare questo verranno prima raccolti e filtrati i dati della città di Milano e della regione Lombardia provenienti dalla rete mobile Vodafone per poi, in un secondo momento, sviluppare degli algoritmi e delle procedure in PL/SQL che siano in grado di ricevere questo tipo di dato, di analizzarlo ed elaborarlo restituendo i risultati prestabiliti. Questi risultati saranno poi rappresentati su cartografia grazie a QGis e grazie ad una Dashboard aziendale interna di Vodafone. Lo sviluppo delle procedure e la rappresentazione cartografica dei risultati verranno eseguite in ambiente di Test e se i risultati soddisferanno i requisiti di progetto verrà effettuato il porting in ambiente di produzione. Grazie a questo tipo di soluzioni, che forniscono dati in modalità anonima e aggregata in ottemperanza alle normative di privacy, le aziende di trasporto pubblico, ad esempio, potranno essere in grado di gestire il traffico in modo più efficiente.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

I Big Data hanno forgiato nuove tecnologie che migliorano la qualità della vita utilizzando la combinazione di rappresentazioni eterogenee di dati in varie discipline. Occorre, quindi, un sistema realtime in grado di computare i dati in tempo reale. Tale sistema viene denominato speed layer, come si evince dal nome si è pensato a garantire che i nuovi dati siano restituiti dalle query funcions con la rapidità in cui essi arrivano. Il lavoro di tesi verte sulla realizzazione di un’architettura che si rifaccia allo Speed Layer della Lambda Architecture e che sia in grado di ricevere dati metereologici pubblicati su una coda MQTT, elaborarli in tempo reale e memorizzarli in un database per renderli disponibili ai Data Scientist. L’ambiente di programmazione utilizzato è JAVA, il progetto è stato installato sulla piattaforma Hortonworks che si basa sul framework Hadoop e sul sistema di computazione Storm, che permette di lavorare con flussi di dati illimitati, effettuando l’elaborazione in tempo reale. A differenza dei tradizionali approcci di stream-processing con reti di code e workers, Storm è fault-tolerance e scalabile. Gli sforzi dedicati al suo sviluppo da parte della Apache Software Foundation, il crescente utilizzo in ambito di produzione di importanti aziende, il supporto da parte delle compagnie di cloud hosting sono segnali che questa tecnologia prenderà sempre più piede come soluzione per la gestione di computazioni distribuite orientate agli eventi. Per poter memorizzare e analizzare queste moli di dati, che da sempre hanno costituito una problematica non superabile con i database tradizionali, è stato utilizzato un database non relazionale: HBase.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In questa tesi si presenta la realizzazione di un data-set ad alta risoluzione (30 secondi d'arco) di precipitazioni mensili (per il periodo 1921-2014), per la regione del Trentino-Alto Adige. Esso è basato su una densa rete di stazioni con osservazioni di lunga durata, sottoposte ai necessari controlli di qualità. La tecnica di interpolazione si basa sull'assunzione che la configurazione spazio-temporale del campo di una variabile meteorologica su una certa area possa essere descritta con la sovrapposizione di due campi: i valori normali relativi a un periodo standard (1961-1990), ossia le climatologie, e le deviazioni da questi, ossia le anomalie. Le due componenti possono venire ricostruite tramite metodologie diverse e si possono basare su data-set indipendenti. Per le climatologie bisogna avere un elevato numero di stazioni (anche se disponibili per un lasso temporale limitato); per le anomalie viceversa la densità spaziale ha un rilievo minore a causa della buona coerenza spaziale della variabilità temporale, mentre è importante la qualità dei dati e la loro estensione temporale. L'approccio utilizzato per le climatologie mensili è la regressione lineare pesata locale. Per ciascuna cella della griglia si stima una regressione lineare pesata della precipitazione in funzione dell'altitudine; si pesano di più le stazioni aventi caratteristiche simili a quelle della cella stessa. Invece le anomalie mensili si ricavano, per ogni cella di griglia, grazie a una media pesata delle anomalie delle vicine stazioni. Infine la sovrapposizione delle componenti spaziale (climatologie) e temporale (anomalie) consente di ottenere per ogni nodo del grigliato una serie temporale di precipitazioni mensili in valori assoluti. La bontà dei risultati viene poi valutata con gli errori quadratici medi (RMSE) e i coefficienti di correlazione di Pearson delle singole componenti ricostruite. Per mostrare le potenziali applicazioni del prodotto si esaminano alcuni casi studio.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Il focus di questo elaborato è sui sistemi di recommendations e le relative caratteristiche. L'utilizzo di questi meccanism è sempre più forte e presente nel mondo del web, con un parallelo sviluppo di soluzioni sempre più accurate ed efficienti. Tra tutti gli approcci esistenti, si è deciso di prendere in esame quello affrontato in Apache Mahout. Questa libreria open source implementa il collaborative-filtering, basando il processo di recommendation sulle preferenze espresse dagli utenti riguardo ifferenti oggetti. Grazie ad Apache Mahout e ai principi base delle varie tipologie di recommendationè stato possibile realizzare un applicativo web che permette di produrre delle recommendations nell'ambito delle pubblicazioni scientifiche, selezionando quegli articoli che hanno un maggiore similarità con quelli pubblicati dall'utente corrente. La realizzazione di questo progetto ha portato alla definizione di un sistema ibrido. Infatti l'approccio alla recommendation di Apache Mahout non è completamente adattabile a questa situazione, per questo motivo le sue componenti sono state estese e modellate per il caso di studio. Siè cercato quindi di combinare il collaborative filtering e il content-based in un unico approccio. Di Apache Mahout si è mantenuto l'algoritmo attraverso il quale esaminare i dati del data set, tralasciando completamente l'aspetto legato alle preferenze degli utenti, poichè essi non esprimono delle valutazioni sugli articoli. Del content-based si è utilizzata l'idea del confronto tra i titoli delle pubblicazioni. La valutazione di questo applicativo ha portato alla luce diversi limiti, ma anche possibili sviluppi futuri che potrebbero migliorare la qualità delle recommendations, ma soprattuto le prestazioni. Grazie per esempio ad Apache Hadoop sarebbe possibile una computazione distribuita che permetterebbe di elaborare migliaia di dati con dei risultati più che discreti.