910 resultados para 004.072 Elaborazione dei dati, Scienza degli elaboratori, Informatica - Attività di ricerca
Resumo:
Questa tesi descrive la ricerca condotta tra l'autunno e l'inverno di quest'anno da un gruppo di ricercatori in didattica della matematica relativamente all'influenza che le variazioni redazionali di un quesito matematico hanno sulle performance degli studenti. Lo scopo della ricerca è quella di strutturare e validare una metodologia e uno strumento che permettano di individuare e quantificare l'influenza delle variazioni del testo sulle prestazioni dello studente. Si è sentita l'esigenza di condurre uno studio di questo tipo poichè è sempre più evidente il profondo legame tra il linguaggio e l'apprendimento della matematica. La messa a punto di questo strumento aprirebbe le porte a una serie di ricerche più approfondite sulle varie tipologie di variazioni numeriche e/o linguistiche finora individuate. Nel primo capitolo è presentato il quadro teorico di riferimento relativo agli studi condotti fino ad ora nell'ambito della didattica della matematica, dai quali emerge la grossa influenza che la componente linguistica ha sulla comprensione e la trasmissione della matematica. Si farà quindi riferimento alle ricerche passate volte all'individuazione e alla schematizzazione delle variazioni redazionali dei Word Problems. Nel secondo capitolo, invece si passerà alla descrizione teorica relativa allo strumento statistico utilizzato. Si tratta del modello di Rasch appartenente alla famiglia dei modelli statistici dell'Item Response Theory, particolarmente utilizzato nella ricerca in didattica. Il terzo capitolo sarà dedicato alla descrizione dettagliata della sperimentazione svolta. Il quarto capitolo sarà il cuore di questa tesi; in esso infatti verrà descritta e validata la nuova metodologia utilizzata. Nel quinto sarà eseguita un analisi puntuale di come lo strumento ha messo in evidenza le differenze per ogni item variato. Infine verranno tratte le conclusioni complessive dello studio condotto.
Resumo:
Nell'ambito dell'elaborazione delle immagini, si definisce segmentazione il processo atto a scomporre un'immagine nelle sue regioni costituenti o negli oggetti che la compongono. Ciò avviene sulla base di determinati criteri di appartenenza dei pixel ad una regione. Si tratta di uno degli obiettivi più difficili da perseguire, anche perché l'accuratezza del risultato dipende dal tipo di informazione che si vuole ricavare dall'immagine. Questa tesi analizza, sperimenta e raffronta alcune tecniche di elaborazione e segmentazione applicate ad immagini digitali di tipo medico. In particolare l'obiettivo di questo studio è stato quello di proporre dei possibili miglioramenti alle tecniche di segmentazione comunemente utilizzate in questo ambito, all'interno di uno specifico set di immagini: tomografie assiali computerizzate (TAC) frontali e laterali aventi per soggetto ginocchia, con ivi impiantate protesi superiore e inferiore. L’analisi sperimentale ha portato allo sviluppo di due algoritmi in grado di estrarre correttamente i contorni delle sole protesi senza rilevare falsi punti di edge, chiudere eventuali gap, il tutto a un basso costo computazionale.
Resumo:
Questa tesi si basa su una raccolta e una successiva elaborazione di dati effettuata su Crowdcube, la piattaforma di crowdfunding di investimento leader a livello mondiale, con lo scopo di analizzare il fenomeno dell’equity-crowdfunding in tutte le sue diverse caratteristiche. Attraverso gli strumenti grafici e computazionali, si studierà un campione di circa 100 progetti, con l’obiettivo finale di individuare e studiare “i fattori critici di successo”, derivanti dalle correlazioni tra caratteristiche dei progetti presentati e successo ottenuto da questi ultimi nell’ottica di finanziamenti ricevuti. L’importanza di questo studio è data dalla necessità dei progettisti che presentano le campagne di crowdfunding di capire come poter rassicurare e convincere gli investitori, in modo da avere una raccolta fondi di successo. L’analisi sarà arricchita da tabelle, istogrammi e grafici, con lo scopo di supportare l’esplicazione dei vari concetti e delineare eventuali trend.
Resumo:
Nell’ultima decade abbiamo assistito alla transizione di buona parte dei business da offline ad online. Istantaneamente grazie al nuovo rapporto tra azienda e cliente fornito dalla tecnologia, molti dei metodi di marketing potevano essere rivoluzionati. Il web ci ha abilitato all’analisi degli utenti e delle loro opinioni ad ampio spettro. Capire con assoluta precisione il tasso di conversione in acquisti degli utenti fornito dalle piattaforme pubblicitarie e seguirne il loro comportamento su larga scala sul web, operazione sempre stata estremamente difficile da fare nel mondo reale. Per svolgere queste operazioni sono disponibili diverse applicazioni commerciali, che comportano un costo che può essere notevole da sostenere per le aziende. Nel corso della seguente tesi si punta a fornire una analisi di una piattaforma open source per la raccolta dei dati dal web in un database strutturato
Resumo:
Oggi l’esigenza di permettere all’utente di riuscire a formulare interrogazioni su database a grafo in maniera più semplice e soprattutto intuitiva ha portato gli istituti di ricerca a proporre metodi di interrogazione visuale. Uno dei sistemi che sono stati proposti è GraphVista. Tale sistema si basa sull’idea di dividere l’interrogazione in due macro-fasi. La prima fase permette di avvicinarsi al risultato richiesto escludendo da successive analisi dati che sicuramente non potranno far parte del risultato finale, mentre la seconda fase permette all’utente di essere protagonista. Infatti ad esso è concessa la possibilità di manipolare a proprio piacimento i risultati ottenuti dalla prima fase al fine di “ricercare” da sé le informazioni desiderate. Il tutto viene supportato grazie a un’interfaccia intuitiva ed efficace che permette all’utente di navigare interattivamente all’interno di una base di dati a grafo. Le caratteristiche dell’interfaccia e la possibilità di formulare interrogazioni visuali fanno in modo che l’utente non necessiti di conoscere alla perfezione un linguaggio di query specifico. Nel corso di questa tesi viene descritto il sistema GraphVista e la tecnologia sulla quale si fonda. Infine, viene effettuata una comparazione sull’efficacia e la semplicità d’uso del sistema GraphVista rispetto alla formulazione di query tramite un linguaggio standard come SPARQL.
Resumo:
Questa tesi si inserisce nell’ambito del progetto WA104-NESSiE al CERN per il quale era richiesto lo sviluppo di un tracciatore di particelle cariche da utilizzare in presenza di campi magnetici e avente una risoluzione sulla posizione ricostruita di 1-2 mm. Il lavoro di tesi ha riguardato l'analisi dei dati raccolti con un prototipo del tracciatore composto da barre di scintillatori a sezione triangolare, accoppiati a SiPM i cui segnali sono acquisiti in modalità analogica. Il prototipo è stato esposto a particelle cariche presso la linea di fascio T9 del PS del CERN nel maggio 2016. La catena di analisi è stata validata con dati provenienti da una simulazione Monte Carlo basata su Geant4 che fornisce la risposta del tracciatore al passaggio di particelle cariche (pioni e muoni) a diversi impulsi (1-10 GeV/c). Successivamente, è stata fatta un'analisi preliminare dei dati reali e un confronto con la simulazione Monte Carlo. La risoluzione ottenuta per pioni di 5 GeV è di ∼ 2 mm, compatibile con il valore ottenuto dalla simulazione Monte Carlo di ∼ 1.5 mm. Questi risultati sono stati ricavati analizzando una frazione degli eventi acquisiti durante il test beam. Una misura più accurata della risoluzione del tracciatore può essere ottenuta introducendo alcune correzioni, come ad esempio l’allineamento dei piani, la ricalibrazione dei segnali dei singoli canali e, infine, analizzando l’intero campione.
Resumo:
La Cartella Clinica Elettronica è lo strumento d’eccellenza per la condivisione e il recupero dei dati clinici e per la gestione organica e strutturata dei dati riferiti alla storia clinica di un paziente. Garantisce il supporto dei processi clinici (diagnostico-terapeutici) e d’assistenza nei singoli episodi di cura e favorisce la continuità di cura. In questo nuovo scenario acquista rilevanza il contributo degli infermieri ai processi sanitari e al percorso diagnostico-terapeutico di competenza medica, nonché l’affermarsi del processo assistenziale di specifica competenza infermieristica. Nasce l’esigenza di progettare e sviluppare un valido sistema informativo, indispensabile per documentare sistematicamente ogni attività infermieristica, ottenere informazioni utili per la pianificazione, la gestione e la valutazione dei percorsi assistenziali e per migliorare l’assistenza. Il seguente progetto di tesi sperimentale ha come obiettivo la digitalizzazione delle documentazione infermieristica,in accordo con le esigenze del personale clinico in un ambito realmente operativo di reparto ospedaliero, al fine di realizzare uno strumento informativo semplice ma efficace, in grado di rendere agevole la registrazione dell’attività clinica quotidiana. Per iniziare la trattazione, sono forniti elementi introduttivi e propedeutici ad una comprensione più esaustiva del sistema che verrà integrato con le schede infermieristiche digitali. Si procede con la descrizione delle fasi di sviluppo che hanno portato all’informatizzazione delle schede infermieristiche, analizzando sia gli studi preliminari che gli strumenti utilizzati per la loro realizzazione. Il lavoro si conclude con la presentazione e discussione di un prototipo al personale infermieristico referente, così da mostrare al cliente l’effettiva funzionalità della cartella infermieristica e il flusso di utilizzo per avere un riscontro preliminare su leggibilità ed organicità dei documenti.
Resumo:
Nel presente lavoro di tesi, si studiano due itinerari presenti nella città di Bologna, con stessa origine e stessa destinazione, ma differenti caratteristiche strutturali. L'obiettivo è quello di conoscere il gradimento degli utenti che si spostano utilizzando tali percorsi, analizzare tramite due strumenti innovativi (check list e questionario) la scelta dell'utente di non percorrere il corridoio ciclabile dedicato e comprendere gli accorgimenti tecnici che determinano questa scelta.
Resumo:
Le ultime ricerche in campo oncologico sulle cure antitumorali sono indirizzate verso una categoria definita target therapy. In particolare tra le più promettenti, le terapie antiangiogenetiche, il cui scopo primario è quello di limitare l’apporto di sangue al tumore. In questo contesto la Tomografia Computerizzata (TC) perfusionale rappresenta un’importante tecnica di imaging radiologico in grado, teoricamente, di fornire misure quantitative, che permettano una valutazione, anche precoce, della risposta alle terapie antiangiogenetiche. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, che determinano la scarsa riproducibilità dei risultati intra- ed inter-paziente, non consentendone l’uso nella pratica clinica. In letteratura sono presenti diversi studi riguardanti la perfusione dei tumori polmonari, ma vi sono pochi studi sull’affidabilità dei parametri perfusionali calcolati. Questa Tesi si propone di analizzare, quantificare e confrontare gli errori e l’affidabilità dei parametri perfusionali calcolati attraverso la TC perfusionale. In particolare, vengono generate delle mappe di errore ed effettuati dei confronti di diverse regioni del polmone sano. I risultati ottenuti dall’analisi dei casi reali sono discussi al fine di poter definire dei livelli di affidabilità dei parametri perfusionali e di quantificare gli errori che si commettono nella valutazione dei parametri stessi. Questo studio preliminare consentirà, quindi, un’analisi di riproducibilità, permettendo, inoltre, una normalizzazione dei valori perfusionali calcolati nella lesione, al fine di effettuare analisi intra- ed inter-paziente.
Resumo:
Il presente testo viene redatto con lo scopo di studiare l’effettiva interazione tra i cantieri stradali, con la relativa segnaletica, e gli utenti che transitano sulla sede stradale interessata da lavori di rifacimento, manutenzione o adeguamento della stessa, partendo dalla conoscenza di tutta la normativa che disciplina i cantieri su strada. Nel presente testo verrà esposta in modo dettagliato la sperimentazione effettuata, analizzando il percorso di prova, il campo prove con i relativi partecipanti, la tipologia dei cantieri presenti lungo il percorso e il segnalamento di ciascuno di essi. Questo studio verrà svolto analizzando nel dettaglio il comportamento dell’utente alla guida ed in particolare la sua risposta alle informazioni fornite dalla segnaletica temporanea di cantiere, sia verticale che orizzontale, grazie a strumenti specifici quali il Mobile-Eye ed il V-Box. I risultati ottenuti, infine, saranno discussi per valutare quali siano le migliori pratiche di installazione di un cantiere su strada e di posizionamento della relativa segnaletica, per ottenere la massima visibilità e considerazione da parte dei conducenti, e quindi la regolazione del loro comportamento in termini di adeguamento della velocità di marcia in relazione ad una situazione straordinaria che si presenta lungo il tracciato che stanno percorrendo. Tutto ciò potrà servire a redigere delle linee guida specifiche in merito all’installazione dei cantieri e al posizionamento della relativa segnaletica di avviso e preavviso, sempre nel rispetto di tutta la normativa che ne disciplina gli stessi.
Resumo:
Il seguente lavoro di tesi si pone come obiettivo di ottimizzare il mix design di materiali geopolimerici a base di metacaolino in modo da ottimizzare il procedimento di formatura tramite pressatura tipico delle piastrelle ceramiche. La parte iniziale del lavoro sperimentale è stata incentrata sullo studio dell’ottimizzazione delle formulazioni per ottenere impasti geopolimerici a base di metacaolino idonei per la pressatura e il colaggio; sono stati quindi preparate diverse formulazioni ottenute variando diversi parametri di processo, quali il contenuto totale di acqua dell’impasto e la concentrazione di quarzo utilizzato come filler inerte. Su tali mix è stato individuato il processo di formatura più idoneo dal punto di vista di temperatura di consolidamento, modalità e tempi di cottura ed è stato messo a punto il procedimento ottimale per la preparazione dei materiali, procedimento che è stato poi mantenuto per l’intero decorso dello studio. Nella produzione degli impasti si è deciso di eliminare sistematicamente quelle formulazioni che avevano prodotto materiali con peggiori prestazioni fisiche, come alcune formulazioni testate per il colaggio. Successivamente, dopo avere preparato i campioni, su di essi sono state eseguite le prove di assorbimento d’acqua e porosimetria ad intrusione di mercurio, per valutare le caratteristiche fisiche dei vari impasti prodotti, osservazioni al microscopio ottico e al microscopio a scansione elettronica, per analizzare i campioni selezionati dal punto di vista microstrutturale e morfologico e prove al microscopio riscaldante, per studiarne il comportamento alle alte temperature. I risultati ottenuti sono stati messi a confronto con quelli dei materiali ceramici tradizionali, per avere indicazioni sulla potenzialità dei prodotti a base geopolimerica come alternativa alla produzione di piastrelle ceramiche.
Resumo:
Nell’ottica della pianificazione di interventi di Retrofit Energetico che possano migliorare l’efficienza energetica del comparto edilizio-residenziale, in relazione agli obiettivi della vigente normativa energetica di ispirazione comunitaria, obiettivo della tesi è la ricerca e validazione di strumenti economici che possano guidare le committenze nella scelta del migliore rapporto tra costi e benefici delle opere. La tesi affronta l’approccio dell’analisi del Costo Globale come previsto dalla normativa comunitaria formato dalla direttiva 2010/31/UE sulla prestazione energetica degli edifici, dal regolamento delegato UE n°244 del 16 gennaio 2012 e dalla norma EN 15459 del 2008. Obiettivo è la comparazione di tre interventi alternativi di retrofit energetico per un edificio ad uso misto sito nel centro di Bologna. Si tratta di interventi mirati all’efficientamento e all’abbattimento del fabbisogno energetico per la climatizzazione invernale dello stabile, con gradi successivi di approfondimento, come definiti dalla attuale normativa (ristrutturazione importante di primo livello, di secondo livello e riqualificazione energetica). Lo studio si sviluppa definendo le criticità dello stato attuale del costruito e i possibili interventi migliorativi necessari. Definiti i pacchetti tecnici delle soluzioni di intervento si è passato alla ricerca dei dati necessari comprendenti dati finanziari su tassi di sconto e di inflazione e sui costi di investimento iniziali, costi di gestione e manutenzione, costi di sostituzione e costi energetici relativi alle varie alternative di progetto. I risultati dell’analisi economica delle alternative progettuali, nel periodo di studio considerato, vengono poi confrontati con i dati relativi all’impatto energetico e delle emissioni di CO2 e con le relative classi energetiche.
Resumo:
L'elaborato descrive le capacità di vari software di aerofotogrammetria testati con relativa comparazione dei risultati, descrizione degli errori, caratterizzazione delle ottiche delle camera da presa utilizzate. All'inizio dell'elaborato è fornita un'introduzione teorica degli aspetti fondamentali dell'aerofotogrammetria.
Resumo:
Con la crescita in complessità delle infrastrutture IT e la pervasività degli scenari di Internet of Things (IoT) emerge il bisogno di nuovi modelli computazionali basati su entità autonome capaci di portare a termine obiettivi di alto livello interagendo tra loro grazie al supporto di infrastrutture come il Fog Computing, per la vicinanza alle sorgenti dei dati, e del Cloud Computing per offrire servizi analitici complessi di back-end in grado di fornire risultati per milioni di utenti. Questi nuovi scenarii portano a ripensare il modo in cui il software viene progettato e sviluppato in una prospettiva agile. Le attività dei team di sviluppatori (Dev) dovrebbero essere strettamente legate alle attività dei team che supportano il Cloud (Ops) secondo nuove metodologie oggi note come DevOps. Tuttavia, data la mancanza di astrazioni adeguata a livello di linguaggio di programmazione, gli sviluppatori IoT sono spesso indotti a seguire approcci di sviluppo bottom-up che spesso risulta non adeguato ad affrontare la compessità delle applicazione del settore e l'eterogeneità dei compomenti software che le formano. Poichè le applicazioni monolitiche del passato appaiono difficilmente scalabili e gestibili in un ambiente Cloud con molteplici utenti, molti ritengono necessaria l'adozione di un nuovo stile architetturale, in cui un'applicazione dovrebbe essere vista come una composizione di micro-servizi, ciascuno dedicato a uno specifica funzionalità applicativa e ciascuno sotto la responsabilità di un piccolo team di sviluppatori, dall'analisi del problema al deployment e al management. Poichè al momento non si è ancora giunti a una definizione univoca e condivisa dei microservices e di altri concetti che emergono da IoT e dal Cloud, nè tantomento alla definzione di linguaggi sepcializzati per questo settore, la definzione di metamodelli custom associati alla produzione automatica del software di raccordo con le infrastrutture potrebbe aiutare un team di sviluppo ad elevare il livello di astrazione, incapsulando in una software factory aziendale i dettagli implementativi. Grazie a sistemi di produzione del sofware basati sul Model Driven Software Development (MDSD), l'approccio top-down attualmente carente può essere recuperato, permettendo di focalizzare l'attenzione sulla business logic delle applicazioni. Nella tesi viene mostrato un esempio di questo possibile approccio, partendo dall'idea che un'applicazione IoT sia in primo luogo un sistema software distribuito in cui l'interazione tra componenti attivi (modellati come attori) gioca un ruolo fondamentale.
Resumo:
Nella tesi inizialmente ho introdotto qualche nozione principale della teoria dei giochi; in seguito ho analizzato e approfondito l'equilibrio di Nash attraverso degli esempi come il dilemma del prigioniero. Ho studiato qualche tipologia di gioco come l'induzione a ritroso e infine nell'ultimo capitolo ho inserito tre esempi che possono essere studiati e affrontati con l'equilibrio di Nash.