512 resultados para 004.072 Elaborazione dei dati, Scienza degli elaboratori, Informatica - Attività di ricerca
Resumo:
La quantità di dati che vengono generati e immagazzinati sta aumentando sempre più grazie alle nuove tecnologie e al numero di utenti sempre maggiore. Questi dati, elaborati correttamente, permettono quindi di ottenere delle informazioni di valore strategico che aiutano nell’effettuare decisioni aziendali a qualsiasi livello, dalla produzione fino al marketing. Sono nati soprattutto negli ultimi anni numerosi framework proprietari e open source che permettono l'elaborazione di questi dati sfruttando un cluster. In particolare tra i più utilizzati e attivi in questo momento a livello open source troviamo Hadoop e Spark. Obiettivo di questa tesi è realizzare un modello di Spark per realizzare una funzione di costo che sia non solo implementabile all’interno dell’ottimizzatore di Spark SQL, ma anche per poter effettuare delle simulazioni di esecuzione di query su tale sistema. Si è quindi studiato nel dettaglio con ducumentazione e test il comportamento del sistema per realizzare un modello. I dati ottenuti sono infine stati confrontati con dati sperimentali ottenuti tramite l'utilizzo di un cluster. Con la presenza di tale modello non solo risulta possibile comprendere in maniera più approfondita il reale comportamento di Spark ma permette anche di programmare applicazioni più efficienti e progettare con maggiore precisione sistemi per la gestione dei dataset che sfruttino tali framework.
Resumo:
Il lavoro di questa tesi si propone di esaminare i dati di immagini cerebrali ricevuti da due differentii bobine RF per l'imaging in risonanza magnetica. La strumentazione utilizzata é: un apparecchio di RMN che utilizza uno scanner a 1.5T (GE Medical System signa HDx 15) e due differenti bobine a radiofrequenza: 1) 8-channel brain phased array coil GE (1.5T HD 8 Channel High Resolution Head Array per il GE HDx MR System); 2) GE Quad HEAD Birdcage Coil. I software utilizzati invece sono stati quattro, due per la segmentazione e la parcellizzazione dei dati dalle acquisizioni di MRI (FSL e Freesurfer), e due per l'analisi dei dati (SPSS e Microsoft Excel). I tool utilizzati di FSL sono stati SIENA, per un'indagine sulla variazione percentile della totalitá del volume cerebrale; SIENAX invece permette una segmentazione di volumi di 6 sotto regioni: sostanza grigia (GREY), sostanza bianca (WHITE), totalitá del cervello (BRAIN), liquor cerebrospinale dei ventricoli (vcsf), scaling volumetrico (vscaling), sostanza grigia periferica (pgrey). Freesurfer invece parcellizza la corteccia cerebrale e segmenta le zone della sostanza grigia profonda cerebrale. Lo scopo ultimo era quello di analizzare come la differenza di segnale acquisito dalle due bobine variasse i risultati delle analisi volumetriche delle immagini e vedere se il t-test evidenziasse variazioni sistematiche. Questa analisi aveva come scopo quello di determinare la possibilità di confrontare i soggetti i cui dati sono stati ottenuti con due bobine differenti. I dati analizzati non hanno evidenziato particolari differenze tra le due bobine, se non per i valori del liquor dei ventricoli che sono risultati variare, verosimilmente, per i processi fisiologici di atrofia della sostanza grigia cerebrale che avvengono nel tempo intercorso tra un'acquisizione e l'altra.
Resumo:
Nel primo capitolo parleremo dell'accessibilità ai siti web siccome con la crescita dei contenuti multimediali e dei contenuti dinamici, non vengono sempre presi in causa le disabilità che una persona può avere nel visualizzare determinati contenuti. Si tratterà di crescita del web 2.0 e nascita del web 3.0. La transcodifica dei contenuti e i problemi che ogni persona in base alla sua disabilità può riscontrare usando apparecchi differenti per l'accesso ai dati. Parleremo dell'evoluzione dell'uso dei siti in versione mobile cosi da fare un paragono con l'usabilità tra desktop e mobile. Nel secondo capitolo andremo ad analizzare tutte le specifiche che siamo andati a prendere in considerazione per lo sviluppo di questa estensione. Guarderemo quali sono le motivazioni che ci hanno portato allo sviluppo di un'estensione di questo tipo. Verranno anche descritte tutte le scelte progettuali prese in via di sviluppo per migliorare l'usabilità e l'utilizzo dei dati raccolti, per fornire un servizio più efficiente all'utente. Nel terzo capitolo andremo a spiegare tutta l'implementazione effettuata per ExTraS con tutte le funzionalità considerate e scelte in base ai problemi più importanti di accessibilità attualmente riscontrati nel mondo del web da persone con diversi gradi di disabilità. Le principali disabilità che vengono prese in considerazione per l'utilizzo di questo addon sono persone che soffrono di ipovisione, daltonismo. L'ultimo paragrafo di questo capitolo descriverà test effettuati con utenti reali e con utenti simulati. Il test con utenti simulati è stato effettuato grazie al lavoro di tesi effettuato da Alberto Fariselli il quale ha integrato ExTraS creando un simulatore basato sul Q-learning.
Resumo:
Effettuando un’analisi della condizione attuale del parco edilizio che costituisce le nostre città e periferie, ciò che si può rilevare è che questo, allo stato attuale, risulta in condizioni di grave degrado tecnologico, energetico, sociale ed architettonico. Diviene pertanto necessario intervenire su questa ampia porzione di città. A tal fine possono essere attuati due metodi di intervento: la trasformazione dell’esistente attraverso la completa sostituzione dei manufatti edilizi, oppure la riqualificazione dell’esistente con opere mirate. Questo secondo modello di intervento ha il pregio di riconoscere il valore culturale del tessuto edilizio esistente, puntando a criteri di sviluppo sostenibile, e guardando ai manufatti esistenti riconoscendone il potenziale economico ed architettonico. Allo stato attuale pertanto la disciplina punta a questo secondo metodo di intervento ricercando soluzioni in grado di modificare le prestazioni dell’edificio fino a renderle soddisfacenti in rapporto alle nuove esigenze ambientali, economiche, del vivere contemporaneo dell’individuo e della collettività nel suo complesso. Tra le opere che possono essere attuate al fine di riqualificare queste preziose aree, oltre a quelle di riqualificazione che mirano al miglioramento del comportamento energetico e della qualità architettonica dell’edificio esistente, si considera anche l’intervento per addizione, che permette la densificazione dei tessuti esistenti attraverso l’aumento del numero di alloggi sociali e l’implementazione dei servizi. In questo modo si va ad implementare e completare la gamma di prestazioni di un manufatto edilizio che non è più in grado di soddisfare tutte quelle esigenze del vivere contemporaneo. Il risultato finale è quindi un sistema edilizio che, grazie all’intervento, può vantare una valorizzazione complessiva del patrimonio immobiliare, grazie agli elevati livelli di prestazione energetica, alle condizioni di vivibilità eccellenti raggiunte e alla migliorata qualità architettonica.
Resumo:
In questo elaborato si tratterà il metodo di analisi e modellazione post-sismica del terreno attraverso l’utilizzo dei dati GPS e dati SAR. Si prenderanno in esame due eventi sismici: il grande terremoto di Tohoku in Giappone del marzo 2011, con particolare attenzione alla conseguente formazione di un grande tsunami, e la sequenza sismica umbro-marchigiana del settembre/ottobre 1997. In tale contesto verranno descritti i diversi strumenti di monitoraggio e i modelli delle sorgenti sismiche, i quali hanno il compito di determinare importanti informazioni per la più rapida valutazione possibile del rischio sismico e per la corretta pianificazione delle attività umane e del territorio. Obiettivo della tesi è descrivere l’efficacia dell’utilizzo congiunto della tecnica di monitoraggio GPS e l’Interferometria Differenziale SAR. Grazie all’analisi ed alla conseguente modellazione dei dati raccolti nei due eventi sismici descritti in questo lavoro si dimostra l’importanza di tali tecniche per comprendere al meglio i fenomeni sismici. Nel primo capitolo verranno descritte le tecniche di monitoraggio GPS e SAR e le successive tecniche di analisi e modellazione dei dati al fine di avere una previsione dell’evento preso in considerazione. Nel secondo capitolo si esamineranno le peculiarità dell’evento sismico giapponese (2011) e delle elaborazioni condotte per caratterizzare lo tsunami provocato dalla rottura del fondale oceanico. Nel terzo capitolo si analizzerà la sequenza sismica umbro-marchigiana del 1997 prestando attenzione allo sviluppo della rete geodetica del territorio nazionale italiano con riferimenti allo sviluppo della Rete Integrata Nazionale GPS (RING). Nel quarto capitolo verrà descritto in modo introduttivo la struttura del software Bernese GNSS v. 5.2; un software di elaborazione dati usato in ambito scientifico per l’analisi di reti GNSS per il controllo delle deformazioni.
Resumo:
L’energia è uno dei più importanti fattori dello sviluppo di ogni attività sociale ed economica. La carenza o addirittura l’assenza di risorse energetiche nazionali non può che incidere negativamente sullo sviluppo di un Paese. La disponibilità, in particolare, di fonti energetiche fossili da valorizzare accortamente influisce positivamente sulle possibilità di sviluppo socio-economico, industriale ed occupazionale di un Paese e quindi sul benessere sociale, oltre a costituire valida alternativa alla loro importazione con ovvi benefici sulla riduzione o addirittura azzeramento della dipendenza da altri Paesi produttori e quindi sulla bilancia dei pagamenti. A causa delle ridotte potenzialità giacimentologiche, tali che la produzione di idrocarburi liquidi e gassosi si attesti attualmente su valori inferiori al 10% rispetto al fabbisogno energetico, l’Italia è altamente dipendente dall’importazione di combustibili fossili e ha quindi evidente necessità di utilizzare appieno le riserve nazionali di idrocarburi oltre che di incrementare la fase di ricerca nell’ottica di scoperta di nuovi giacimenti che possono reintegrare le riserve prodotte. Gli idrocarburi esistenti nel sottosuolo marino nazionale costituiscono una risorsa che contribuisce apprezzabilmente alla sicurezza energetica del Paese, poiché gran parte della percentuale di produzione nazionale deriva da quanto prodotto nell’offshore italiano. L’industria italiana degli idrocarburi ha avuto da sempre particolare attenzione alla ricerca tecnologica, alla capacità tecnico-professionale, alla cultura mineraria nelle sue diverse diramazioni disciplinari, adottando metodologie operative improntate al rigoroso rispetto della normativa nazionale di settore che si colloca tra le più rigide in campo internazionale, sia per quanto riguarda la sicurezza delle operazioni e degli addetti ai lavori sia la tutela ambientale.
Resumo:
Nell'elaborato viene trattato il processo di implementazione di tecniche di Total Productive Maintenance (TPM) su di un impianto pilota all'interno dell'azienda Bonfiglioli Riduttori S.p.A. Dall'analisi dei dati dello storico degli interventi a guasto, effettuati sull'impianto, si sono ottenuti i parametri manutentivi di interesse per avere un quadro generale della situazione di partenza e sono state identificate due tipologie di manutenzione, come previsto dal TPM: l'automanutenzione affidata agli operatori e una serie di interventi programmati di preventiva a carico dell'ente manutenzione. Sono stati effettuati anche una serie di interventi migliorativi per incrementare l'efficienza dell'impianto. In conclusione sono stati confrontati i parametri di partenza con quelli di fine progetto per valutare i miglioramenti conseguiti valutando anche l'aspetto economico degli investimenti fatti. Dai dati ottenuti alla fine del percorso, sono state fatte le dovute considerazioni e sono stati proposti degli elementi di riflessione.
Resumo:
La diagnostica strutturale è un campo in continuo sviluppo e attualmente sono numerosi gli studi tendenti alla definizione di tecniche e metodi in grado di fornire parametri che possano identificare, in modo sempre più accurato, lo stato di sicurezza di una struttura. Stato di sicurezza è un termine globale che si riferisce alla capacità portante di una struttura e alla sua resistenza alle sollecitazioni esterne, siano esse statiche o dinamiche. Per tanto, un qualsiasi danneggiamento strutturale potrebbe in varia misura influenzare tale stato. Per quanto riguarda i ponti stradali, negli ultimi anni l’attenzione è stata focalizzata allo studio di metodi di individuazione del danno a partire dai risultati ottenuti dal monitoraggio delle vibrazioni mediante accelerometri. Questo è stato possibile grazie agli avanzamenti raggiunti nell’identificazione modale e nei sensori per il monitoraggio strutturale. Questo lavoro si pone come obiettivo quello di proporre una nuova metodologia di analisi dei dati ottenuti da indagini sperimentali che possono essere svolte in sito. La definizione di tale metodologia è affidata a simulazioni numeriche volte a rappresentare stati di danneggiamento avanzati su elementi strutturali. In una prima fase verranno analizzati elementi semplificati rappresentativi di strutture esistenti, come ad esempio travi da ponte in calcestruzzo armato. In una seconda fase, il metodo verrà testato su modelli più complessi che tengano conto della tridimensionalità del problema, oltre alle variazioni sezionali e di materiali degli elementi che lo compongono.
Resumo:
In questa tesi ci si è posto l’obiettivo di caratterizzare la modalità di trasporto con cui studenti e lavoratori si recano in Via Terracini e quindi l’accessibilità della sede secondaria della Facoltà di Ingegneria. Il primo passo è stato sottoporre il questionario cartaceo a 130 utenti durante il periodo dell’indagine a destinazione e in seguito aggregare i dati ottenuti da ogni intervista per poter effettuare una analisi di sintesi. Allo stesso modo si sono elaborati i risultati dei 441 questionari online, eseguendo prima un accorpamento dei dati e poi una catalogazione per categoria di utenza. Poiché la maggior parte degli utenti intervistati a destinazione erano studenti, si è potuto confrontare i due tipi di indagine per tale categoria e controllarne l’attendibilità dei risultati. Si è poi proceduto con uno studio delle tendenze delle categorie rimanenti individuando la modalità di trasporto più utilizzata da ognuna di esse.
Resumo:
In un paese come l’Italia sempre più investito dal fenomeno del multiculturalismo come conseguenza dell’immigrazione, la lingua è elemento di scambio culturale e linguistico, determinante nella negoziazione delle identità diverse che si incontrano. L’apprendimento e, di conseguenza, la conoscenza della lingua del paese ospitante, costituiscono per l’immigrato il primo fattore di integrazione nonché vettore della propria cultura e dei propri valori, difficilmente trasmissibili ai parlanti nativi nella lingua d’origine. Essendo dunque la questione della lingua per gli immigrati, una prospettiva di indagine di estrema importanza e attualità, ho deciso di farne l’oggetto della mia tesi di fine percorso di studi universitario. Partirò con un’analisi della nascita dell’italiano come lingua di studio e dunque come lingua seconda, sino ad arrivare ai risultati ottenuti dalla linguistica e dalla glottodidattica. Analizzerò quelli che erano i destinatari e i docenti dell’italiano L2 di un tempo, e quelli che invece sono oggi i principali protagonisti dello studio della nostra lingua e i nuovi insegnanti, mettendo in luce le diversità nei metodi e negli scopi. Presenterò i fenomeni e i fattori coinvolti nell’italiano L2 degli immigrati e quelli derivanti dall’incontro delle lingue d’origine di quest’ultimi con la lingua italiana. Non mancherà infatti la riflessione sugli altri attori in gioco, noi italiani, in quanto società ospitante, che nella nostra messa in scena quotidiana, attraverso i comportamenti linguistici, esterniamo il nostro sentimento nei riguardi degli immigrati, sia esso di inclusione o di esclusione. Infine farò un excursus sulla letteratura dell’immigrazione, la quale rappresenta la concretizzazione di quanto verrà detto sulla questione della lingua, analizzando infatti attraverso le varie fasi storiche, proprio le diverse visioni degli scrittori e quindi dei protagonisti delle loro opere in merito alla propria identità linguistica.
Resumo:
L’obiettivo di questo lavoro di tesi è rappresentato dalla definizione di un metodo di ricerca terminologica e documentazione, nonché di traduzione assistita, supportato dalle moderne tecnologie disponibili in questo campo (Antconc, Bootcat, Trados ecc.), valido per la traduzione di questo tipo di documenti, gli standard, ma sfruttabile anche in altri ambiti della traduzione tecnico-scientifica, permettendo al traduttore e, di conseguenza, al committente, di ottenere un documento “accettabile” e qualitativamente idoneo in lingua di arrivo. Il percorso tracciato in questo elaborato parte dalla presentazione del quadro storico generale, per poi passare alla classificazione degli additivi alimentari in base alla tipologia e agli impieghi in campo alimentare. Verranno illustrati in modo generale i metodi di analisi degli additivi e i criteri di validazione dei metodi impiegati, in funzione degli standard internazionali relativi alla materia, rivolgendo particolare attenzione al quadro normativo e alle agli organi coinvolti nella regolamentazione e nel controllo di queste sostanze, sia in Italia che in Russia e nel resto del mondo. Tutto ciò in funzione degli avvenimenti sul piano geopolitico e su quello culturale: da un lato le sanzioni economiche tra UE e Russia, dall’altro EXPO 2015, opportunità per numerosi traduttori e terminologi di approfondire e arricchire le proprie conoscenze in un ambito tanto importante: alimentazione e sicurezza alimentare, in relazione al progetto di gestione terminologica VOCA9. La parte finale della tesi è dedicata alla presentazione degli standard russi GOST R e alla loro traduzione in italiano, in funzione della documentazione e alla ricerca terminologica necessarie per la traduzione tramite CAT tools ed indispensabili per la creazione di glossari.
Resumo:
Lo scopo di questa trattazione è quindi di illustrare il lavoro svolto nel tentativo di classificare le reazioni emozionali ad immagini con una forte carica emozionale, sia positiva che negativa. A tale scopo sono stati acquisiti i segnali EEG di diversi soggetti durante l’esposizione ad immagini di vario contenuto, insieme alla loro reazione dichiarata alle immagini stesse. Queste sono state immagazzinate, elaborate utilizzando diversi metodi di estrazione delle informazioni, ed infine si è tentato di effettuare un riconoscimento di pattern sui segnali tramite algoritmi di apprendimento supervisionato; i dati sono stati quindi divisi tra dati di “training”, utilizzati per la strutturazione dell’algoritmo, e dati di test, necessari per la verifica dell’affidabilità dell’algoritmo.
Resumo:
Obbiettivo della tesi è sviluppare un metodo che valuti la probabilità di rottura arginale nella stesura delle mappe di pericolosità e di rischio alluvione. Ad oggi le mappe di pericolosità, redatte dagli enti regionali, considerano solo la probabilità di superamento dell’argine da parte del livello idrico (overtopping) e non il cedimento dello stesso a causa dell’instabilizzazione dovuta all’innalzamento del livello del fiume. Per la presente tesi si è scelto come caso di studio la rottura dell’argine destro del fiume Secchia del 19 gennaio 2014, presso la frazione di San Matteo, comune di Modena. Questo caso di rottura arginale è particolarmente interessante, poiché dopo l’accaduto la regione Emilia-Romagna ha predisposto una commissione tecnica per valutare le cause dell'evento. La commissione ha quindi predisposto una serie di indagini i cui dati saranno di fondamentale importanza nella presente tesi. Utilizzando, infatti, questo caso di cedimento arginale come esempio si è potuto innanzitutto ricostruire il fenomeno che ha provocato il fallimento dell’argine e ricalcolare il rischio inondazione sulle zone allagate considerando la probabilità di fallimento del sistema arginale. Per fare ciò, si sono inizialmente eseguite varie modellazioni idrauliche, sul corpo arginale, per stabilire gli spostamenti della tavola d’acqua e i valori di pressione interstiziale dei pori al variare dei tiranti idrici utilizzando il software SEEP/W. Successivamente si è utilizzato SLOPE/W allo scopo di verificate le probabilità di cedimento dell'argine in relazione alle modellazioni idrauliche effettuate con SEEP/W. Una volta ricavate le probabilità di rottura alle varie quote idriche con SLOPE/W, le si è riportate su un foglio di calcolo Excel e ricavata la curva di fragilità dell'argine e calcolato le probabilità di accadimento degli eventi alluvionali. Dopo di ciò attraverso l’utilizzo del software CA2D si sono modellate le mappe di alluvione per i vari eventi e con l’ausilio di Qgis si sono ricavate le mappe di pericolosità e calcolato il rischio sugli edifici interessati.
Resumo:
Questa tesi descrive la ricerca condotta tra l'autunno e l'inverno di quest'anno da un gruppo di ricercatori in didattica della matematica relativamente all'influenza che le variazioni redazionali di un quesito matematico hanno sulle performance degli studenti. Lo scopo della ricerca è quella di strutturare e validare una metodologia e uno strumento che permettano di individuare e quantificare l'influenza delle variazioni del testo sulle prestazioni dello studente. Si è sentita l'esigenza di condurre uno studio di questo tipo poichè è sempre più evidente il profondo legame tra il linguaggio e l'apprendimento della matematica. La messa a punto di questo strumento aprirebbe le porte a una serie di ricerche più approfondite sulle varie tipologie di variazioni numeriche e/o linguistiche finora individuate. Nel primo capitolo è presentato il quadro teorico di riferimento relativo agli studi condotti fino ad ora nell'ambito della didattica della matematica, dai quali emerge la grossa influenza che la componente linguistica ha sulla comprensione e la trasmissione della matematica. Si farà quindi riferimento alle ricerche passate volte all'individuazione e alla schematizzazione delle variazioni redazionali dei Word Problems. Nel secondo capitolo, invece si passerà alla descrizione teorica relativa allo strumento statistico utilizzato. Si tratta del modello di Rasch appartenente alla famiglia dei modelli statistici dell'Item Response Theory, particolarmente utilizzato nella ricerca in didattica. Il terzo capitolo sarà dedicato alla descrizione dettagliata della sperimentazione svolta. Il quarto capitolo sarà il cuore di questa tesi; in esso infatti verrà descritta e validata la nuova metodologia utilizzata. Nel quinto sarà eseguita un analisi puntuale di come lo strumento ha messo in evidenza le differenze per ogni item variato. Infine verranno tratte le conclusioni complessive dello studio condotto.
Resumo:
Nell'ambito dell'elaborazione delle immagini, si definisce segmentazione il processo atto a scomporre un'immagine nelle sue regioni costituenti o negli oggetti che la compongono. Ciò avviene sulla base di determinati criteri di appartenenza dei pixel ad una regione. Si tratta di uno degli obiettivi più difficili da perseguire, anche perché l'accuratezza del risultato dipende dal tipo di informazione che si vuole ricavare dall'immagine. Questa tesi analizza, sperimenta e raffronta alcune tecniche di elaborazione e segmentazione applicate ad immagini digitali di tipo medico. In particolare l'obiettivo di questo studio è stato quello di proporre dei possibili miglioramenti alle tecniche di segmentazione comunemente utilizzate in questo ambito, all'interno di uno specifico set di immagini: tomografie assiali computerizzate (TAC) frontali e laterali aventi per soggetto ginocchia, con ivi impiantate protesi superiore e inferiore. L’analisi sperimentale ha portato allo sviluppo di due algoritmi in grado di estrarre correttamente i contorni delle sole protesi senza rilevare falsi punti di edge, chiudere eventuali gap, il tutto a un basso costo computazionale.