914 resultados para elaborazione di immagini metodi di segmentazione filtri per immagini
Resumo:
In questo progetto di tesi saranno applicate tecniche appartenenti al campo della bioingegneria, indirizzate al riconoscimento delle attività motorie e all’analisi del movimento umano. E' stato definito un protocollo di ricerca necessario per il raggiungimento degli obiettivi finali. Si è quindi implementata un’App Android per l’acquisizione e il salvataggio dei dati provenienti dai principali sensori di Smartwatch e Smartphone, utilizzati secondo le modalità indicate nel protocollo. Successivamente i dati immagazzinati nei dispositivi vengono trasferiti al Pc per effettuarne l’elaborazione off-line, in ambiente Matlab. Per facilitare la seguente procedura di sincronizzazione dei dati intra e inter-device, tutti i sensori sono stati salvati, dall’App Android, secondo uno schema logico definito. Si è perciò verificata la possibilità del riconoscimento del contesto e dell’attività nell’uso quotidiano dei dispositivi. Inoltre si è sviluppato un algoritmo per la corretta identificazione del numero dei passi, indipendentemente dall’orientamento del singolo dispositivo. Infatti è importante saper rilevare in maniera corretta il numero di passi effettuati, soprattutto nei pazienti che, a causa di diverse patologie, non riescono ad effettuare una camminata fluida, regolare. Si è visto come il contapassi integrato nei sistemi commerciali per il fitness più diffusi (Smartwatch), pecca soprattutto in questa valutazione, mentre l’algoritmo, appositamente sviluppato, è in grado di garantire un’analisi accettabile a prescindere dal tipo di attività svolta, soprattutto per i dispositivi posizionati in L5. Infine è stato implementato un algoritmo, che sfrutta il filtro di Kalman e un modello biomeccanico appositamente sviluppato, per estrapolare l’evoluzione dell’angolo Tronco-Coscia. Avere a disposizione tale informazione e perciò conoscere la biomeccanica e la cinematica del corpo umano, rende possibile l’applicazione di questa procedura in svariati campi in ambito clinico e non.
Resumo:
Questo lavoro si concentra sullo studio fluidodinamico del flusso multifase cavitante di un iniettore per applicazioni a motori ad iniezione diretta (GDI). L’analisi è stata svolta tramite l’uso del software CFD (Computational Fluid Dynamics) Star-CCM+^® sviluppato da CD-ADAPCO. L’obiettivo di questo studio è investigare i motivi che portano ad un diverso comportamento tra i rilievi della prova sperimentale di caratterizzazione dell’iniettore e quanto atteso dai valori nominali dettati dalla specifica dell’iniettore, con particolare riferimento alla distribuzione di portata fra i diversi ugelli. Il presente lavoro fa parte di una coppia di elaborati collegati tra loro e, pertanto, ha inoltre lo scopo di fornire dati utili allo sviluppo dell’altro tema di analisi mirato alla individuazione di parametri di qualità della miscela aria-combustibile non reagente utili alla previsione della formazione del particolato prodotto dalla combustione di un motore GDI. L’elaborato, costituito di 5 capitoli, è strutturato secondo lo schema sottostante. Nel capitolo 1 vengono presentate le motivazioni che lo hanno avviato e viene esposto lo stato dell’arte della tecnologia GDI. Il capitolo 2 è a sfondo teorico: in esso vengono riportati i fondamenti del processo di cavitazione nella prima parte e i modelli numerici utilizzati nell’analisi nella seconda. Il capitolo 3 descrive la modellazione e successiva validazione dei modelli tramite confronto con il test case ‘Comprensive hydraulic and flow field documentation in model throttle experiments under cavitation conditions’ (E. Winklhofer, 2001). Nella scelta dei modelli e dei parametri relativi, l’analisi si è basata su precedenti lavori trovati in letteratura. Successivamente è stato svolto uno studio di sensibilità per valutare la stabilità della soluzione a piccole variazioni nei valori dei parametri. La scelta dei parametri modellistici nel caso di interesse, l’iniettore multihole, si è basata inizialmente sui valori ‘ottimali’ ottenuti nel test case ed è l’argomento del capitolo 4. All’interno del capitolo si parla inoltre dell’analisi di sensibilità successiva, svolta con lo scopo di comprendere i motivi che portano allo sbilanciamento tra fori corrispondenti e al maggiore sviluppo del getto centrale rispetto agli altri. Nel capitolo 5 dopo un breve riepilogo dei punti fondamentali trattati nello svolgimento dell’elaborato, si tirano le conclusioni sull’analisi e si espongono gli sviluppi futuri.
Resumo:
L’Otello di Luigi Lo Cascio è stato concepito nella volontà di mettere in luce come non sia Otello bensì Desdemona la straniera del dramma. Il mio lavoro rileva in primo luogo in che modo l’autore sia riuscito a raggiungere il suo obiettivo utilizzando diversi espedienti: esplicitare la scelta di riportare la vicenda raccontando di un generale bianco, per non suscitare pregiudizi avversi ad una corretta interpretazione; isolare linguisticamente Desdemona, unica parlante italiana in un universo di voci palermitane, per enfatizzare la solitudine della donna che, circondata da soli uomini, non ha possibilità di essere vista e compresa per quello che è, in quanto viene interpretata attraverso immagini stereotipate; inserire un narratore interno che guidi gli spettatori attraverso il ragionamento dell’autore. In secondo luogo, il mio elaborato confronta l’opera di Lo Cascio con quella di Shakespeare dimostrando come già all’interno di quest’ultima fossero presenti tutti gli elementi necessari per dare all’Otello l’interpretazione che ne dà l’autore palermitano: la perfetta integrazione di Otello nella società veneziana, che esclude il comune ricorso alle diverse culture dei coniugi per giustificare il comportamento violento del Moro; la visione idealizzata della figura femminile, che impedisce ai personaggi maschili di vedere la realtà; l’impossibilità di conciliare la donna reale con quella immaginata, vero movente dell’assassinio di Desdemona.
Resumo:
La presente tesi magistrale si inserisce nell’ambito del progetto Language Toolkit e nasce in particolare dalla collaborazione tra il presente autore e l’azienda Tecnopress S.a.s. Nell’ottica dell’internazionalizzazione della propria attività l’azienda ha richiesto che il proprio sito web venisse sottoposto ad un processo di localizzazione dall’italiano verso l’inglese. Sulla base di queste premesse si è deciso di dividere il lavoro in tre parti: una fase teorica, una fase preparatoria e una fase pratica. La prima fase si è occupata di gettare le basi teoriche necessarie per affrontare consapevolmente l’incarico assegnato. Alla luce delle conclusioni della fase teorica è stata constatata l’esigenza di modificare la natura dell’intervento che si era preventivato di effettuare sul sito web. Fulcro della localizzazione è infatti il locale, ovvero la combinazione di regione socioculturale e lingua presa a riferimento per un processo di localizzazione web. Nelle richieste avanzate dall’azienda figuravano esclusivamente indicazioni relative alla lingua (l’inglese), non già alla regione socioculturale su cui modellare l’intervento di localizzazione del sito. Si è rivelato pertanto necessario procedere autonomamente alla definizione di un locale per il presente progetto, che è stato fatto coincidere con la macrozona europea e cui è stato associato un modello ibrido di English Lingua Franca e Simplified Technical English. Il focus dell’intervento non è stato dunque una regione geografica circoscritta ma una realtà socioculturale molto più ampia e variegata: l’adozione di un locale così ampio e il rispetto dell’indicazione sulla lingua hanno portato il presente autore a optare per un intervento di standardizzazione web. Chiude il presente lavoro una fase operativa, durante la quale sono state create le risorse necessarie al progetto (si segnala in particolare un corpus su misura) e sono state effettuate la standardizzazione e una serie di considerazioni traduttive.
Resumo:
l presente lavoro è concepito come una risorsa di cui usufruire per migliorare le condizioni di partenza di una sessione di interpretariato sull’agricoltura biodinamica. Una tempestiva fornitura da parte dei committenti di materiale informativo relativamente al tema della conferenza può risultare determinante ai fini di un interpretariato di qualità. Ma il materiale formativo è raramente prodotto da interpreti e raramente per gli interpreti e, se non si tratta del testo del discorso da tradurre, rischia di essere poco utile. Ecco che quindi acquisisce una certa valenza il punto di vista dell’interprete qualificato, che riesce più facilmente di altri profili a produrre materiale informativo per chi si appresta ad effettuare un interpretariato, individuando in maniera più immediata di un “non addetto ai lavori” ciò che il processo di preparazione richiede e come quest’ultimo andrà ad influire sulla buona riuscita o meno dell’interpretariato in questione. L’agricoltura è stata uno dei primi settori produttivi a subire il processo di integrazione europea. Con la recente (ri)scoperta dell’importanza della sostenibilità e quindi dell’agricoltura biologica, questo processo ha subito un nuovo impulso, specialmente in seguito all’emanazione di nuove leggi e alla conseguente elaborazione di una quantità considerevole di materiale in tutte le lingue ufficiali dell’UE. In questo contesto, è interessante osservare e approfondire la lingua speciale dell’agricoltura biodinamica, movimento interno al fenomeno del biologico ma che ne è al contempo anche il principale precursore. Il metodo biodinamico è infatti dotato di una terminologia ancora non completamente standardizzata, ma molto ricca di concetti tipici. Aiutare l’interprete a fare propri questi concetti, per migliorare la propria performance così come per approfondire meglio l’argomento è stato lo scopo del lavoro.
Resumo:
L’utilizzo delle biomasse rappresenta oggi una delle vie più interessanti da percorrere nell’ambito di una chimica industriale maggiormente sostenibile, alternativa alla chimica tradizionale basata sulle risorse fossili. I carboidrati sono i costituenti maggioritari della biomassa e potrebbero rappresentare un’alternativa ideale al petrolio per la produzione dei building-blocks, molecole di partenza per lo sviluppo della filiera produttiva della chimica. Fra i building-blocks ottenibili dagli zuccheri vi è l’acido glucarico. I suoi usi sono molteplici ma suscita grande interesse soprattutto per la possibilità di essere utilizzato nella sintesi di diverse tipologie di polimeri. Attualmente la maggior parte dei metodi di sintesi di questa molecola prevedono l’utilizzo di ossidanti tossici o dannosi per l’ambiente come l’acido nitrico. Lo scopo di questo lavoro di tesi è stato lo studio di catalizzatori eterogenei per la sintesi di acido glucarico da D-glucosio utilizzando ossigeno puro come ossidante. Sono stati sintetizzati sistemi monometallici a base di oro e sistemi multimetallici contenenti oro ed altri metalli in lega. Tutti i catalizzatori sono stati preparati depositando i metalli sotto forma di nanoparticelle su carbone attivo. Lo studio dei catalizzatori è stato focalizzato sull’individuazione dei metalli e delle condizioni di reazione ottimali che permettano di aumentare la selettività in acido glucarico. Gli studi condotti hanno portato alla conclusione che è possibile ottenere acido glucarico a partire da D-glucosio con rese fino al 35% utilizzando catalizzatori a base di oro in presenza di ossigeno. Attualmente l’acido glucarico viene prodotto solo su piccola scala ma ulteriori sviluppi in questa direzione potrebbero aprire la strada allo sviluppo di un nuovo processo industriale per la sintesi di acido glucarico sostenibile sia da un punto di vista economico che ambientale.
Resumo:
Con l’aumento dell’acidità e degli inquinanti nelle deposizioni umide, la corrosione atmosferica dei bronzi esposti all’aperto è stata accelerata e la stabilità della patina di prodotti di alterazione, che solitamente protegge parzialmente il substrato metallico, risulta compromessa. La patina costituisce il supporto reale nelle condizioni d’impiego dell’inibitore o del protettivo, il quale viene applicato in seguito ad una pulitura del manufatto corroso che non espone il metallo nudo. L’inibitore attualmente più utilizzato, benzotriazolo (BTA), risulta non totalmente adeguato nei confronti del bronzo, tossico per l’ambiente e sospetto cancerogeno per l’uomo. Occorre quindi sviluppare soluzioni alternative per la conservazione dei bronzi all’aperto: a questo scopo, il presente lavoro di tesi si è sviluppato in tre fasi: (i) patinazione via invecchiamento artificiale accelerato, simulando la pioggia battente (dropping test) e la pioggia stagnante (wet&dry) su campioni di bronzo quaternario Cu-Sn-Zn-Pb, al fine di produrre un substrato rappresentativo, diversificando le patine prodotte dalle due geometrie di esposizione, sul quale possa essere applicato un inibitore o protettivo. La patinazione artificiale ha permesso di riprodurre efficacemente le due tipologie di patine naturali: le superfici patinate in pioggia battente hanno mostrato il tipico arricchimento in Stagno dovuto alla decuprificazione, mentre le superfici patinate in pioggia stagnante hanno presentato la comparsa dei tipici prodotti precursori dei solfati basici. (ii) pulitura di una patina naturale su bronzo quaternario (fontana del XVII sec.) mediante sabbiatura criogenica (dry-ice blasting), al fine di verificare l’efficienza di questa tecnica per preparare le superfici patinate all’applicazione di un inibitore o protettivo e il suo eventuale utilizzo in sostituzione alle tecniche tradizionali. La sabbiatura criogenica si è tuttavia dimostrata non selettiva nei confronti dei depositi calcarei, dimostrandosi non utilmente applicabile. (iii) protezione di superfici di bronzo quaternario, patinate artificialmente simulando la pioggia battente, mediante un trattamento innovativo di biopatinazione ottenuto applicando il ceppo fungino Beauveria Bassiana, potenzialmente in grado di convertire in ossalati i prodotti di corrosione della patina naturale. Lo scopo è quello di valutare l’efficienza protettiva della biopatina in seguito ad un invecchiamento accelerato simulante la pioggia battente. La biopatinazione è risultata applicabile anche a superfici arricchite in Stagno artificialmente (dropping test), ma la biopatina ottenuta non si è mostrata in grado di limitare i fenomeni corrosivi. Si ritengono necessarie ulteriori prove per valutarne l’efficienza a più lungo termine.
Resumo:
"Non possiamo permettere l'utilizzo del [tessuto] urbano come strumento per la produzione di iniquità e trasferimenti, incapaci di vedere l'importanza e la difficoltà di creare uno spazio attivo che sia equo, ecologico ed economico" (Schafran, 2014). In un contesto di emergenza ambientale globale e considerando le problematiche degli insediamenti popolari sudamericani, la presente ricerca propone l’introduzione del concetto di sostenibilità urbana come fattore di miglioramento di un quartiere della periferia del Gran Santiago. Il caso studio è interessante in quanto la politica cilena si muove in direzione di maggiore consapevolezza per i temi ambientali, pur dovendo ancora risolvere problemi di segregazione e scarsa qualità nella “vivienda social”. La presente ricerca è quindi finalizzata ad individuare una matrice composta da linee guida di sostenibilità riferite alla scala di quartiere, come strategia per rispondere ai problemi socio-residenziali, oltre alle imperanti esigenze di maggiore sostenibilità ambientale. A tale scopo è necessario fare riferimento a sistemi di valutazione adeguati: analizzando quelli utilizzati in ambito nazionale e internazionale, si ricava una matrice di 106 linee guida, 16 criteri e 3 ambiti principali di interesse. È questo lo strumento utilizzato per la diagnosi del caso studio. In base alle criticità emerse e alle necessità dell’area emergono due strategie principali su cui si articola la proposta progettuale di riqualificazione del quartiere: implementare dotazioni di servizi e aree verdi e introdurre tecnologie e misure ecofriendy, col fine di generare identità e migliorare la qualità di vita nel quartiere.
Resumo:
Il progetto di questa tesi affronta le tematiche relative agli interventi di riqualificazione, adeguamento e rigenerazione urbana di un edificio residenziale di 15 unità abitative situato nella zona della Bolognina in Via Tibaldi. Le condizioni di vetustà dell’edificato e l’evoluzione economico sociale del quartiere hanno portato negli anni all’insorgere di nuove situazioni di criticità. Si sono riscontrati problemi relativi alle dimensioni degli alloggi (troppo grandi per le esigenze dei nuovi nuclei familiari), ai bassi livelli di comfort interni (rapporti illuminanti non rispettati e dimensioni dei vani non confacenti a normativa), all’accessibilità (vano ascensore inefficiente) e alla bassa efficienza energetica, che produce elevati costi di esercizio. L’analisi degli spazi esterni invece ha evidenziato uno stato di abbandono della corte, caratterizzata dalla disorganizzazione dei percorsi e delle aree verdi oltre a una carenza del numero di posti auto necessari agli abitanti dell’isolato. L’obiettivo che si pone la tesi è quello di adeguare l’area alle nuove esigenze dell’utenza e di migliorare gli standard qualitativi dell’edificato, considerando la fattibilità dell’intervento e ipotizzando misure che si pongano in alternativa ad una demolizione completa dell’edificio. Inoltre, le soluzioni proposte sono state studiate in modo da poter essere applicate non solo sul caso studio, ma anche sull’intero isolato, in un’ottica di riqualificazione urbana.Per gli spazi interni, le scelte adottate riguardano la demolizione e ricostruzione puntuali delle murature non portanti o collaboranti e l’ampliamento delle superfici finestrate, conformando a normativa i vani degli alloggi, dotandoli di una maggior superficie utile e riducendo la condizione di discomfort luminoso interno. La stessa strategia è stata adottata anche per ridefinire e diversificare il taglio degli alloggi. Infine per migliorare l’accessibilità all’edificio e agli alloggi le soluzioni prevedono l’inserimento un sistema loggiato per rendere raggiungibili direttamente dal vano ascensore preesistente, che presentava uno sbarco solo interpiano, due appartamenti per piano (dal primo al quarto). Per raggiungere invece le unità abitative collocate nel piano rialzato si è previsto di innalzare la quota del terreno fino all’altezza della soglia di ingresso ai vani. Parallelamente ci si è occupati della riprogettazione degli spazi esterni, optando per un’azione a scala urbana. La riorganizzazione delle aree è avvenuta attraverso l’inserimento di nuovi percorsi pedonali di collegamento all’edificato e mediante la progettazione e riqualificazione di spazi per la socializzazione. Infine, per arginare le problematiche relative al fabbisogno di parcheggi, si è agito diversificando e ponendo su livelli differenti la viabilità carrabile e gli spazi verdi attraverso l’inserimento di un parcheggio seminterrato.
Resumo:
Il Lago di Cavazzo (o dei Tre Comuni) è il più esteso lago naturale del Friuli Venezia Giulia. Situato nelle Prealpi Carniche, in provincia di Udine, è ubicato in un’antica valle scavata in epoca pre – glaciale dal fiume Tagliamento, che oggi scorre circa 3 km ad Est. A partire dagli anni ’40, la S.A.D.E. (ora Edipower) ottenne le concessioni per la costruzione di una serie di impianti idroelettrici in tutto il Friuli Venezia Giulia che nel 1954 portò alla realizzazione della Centrale idroelettrica di Somplago, costruita in caverna lungo la sponda Nord – occidentale del lago. La Centrale turbina le acque di scarico provenienti dai bacini di accumulo superiori («Lumiei», «Ambiesta») e da altre prese minori sul Tagliamento, immettendo a sua volta le acque turbinate all’interno del lago di Cavazzo tramite galleria. Dai dati disponibili in letteratura, dalle cronache e dai resoconti riportati dalla popolazione locale, l’attività della Centrale ha notevolmente influenzato l’equilibrio di questo ambiente, in termini geologici, biologici ed idrologici, soprattutto a causa dell’enorme volume di acqua fredda (e relativi sedimenti) scaricata, delle continue variazioni di livello dell’acqua per regolarne il volume di invaso e dello scavo del canale emissario, localizzato nell’estremità meridionale. Nel Maggio 2015 l’ISMAR – CNR di Bologna ha effettuato un rilievo geofisico del lago, tramite tecniche non distruttive di ecografia e sismica a riflessione, in grado di analizzare la stratigrafia superficiale e la distribuzione degli apporti sedimentari, con lo scopo di quantificare da questo punto di vista l’impatto della Centrale sul lago. I dati acquisiti, che comprendono profili sismici ad alta risoluzione, profili batimetrici single/multi – beam ed immagini side – scan sonar, sono stati successivamente elaborati per realizzare varie mappe tematiche (morfobatimetria, riflettività, gradiente topografico e spessore dei sedimenti penetrabili dal segnale sismico) che hanno permesso di descrivere l’attuale assetto deposizionale del lago. Sono stati inoltre effettuati alcuni carotaggi in vari punti della conca lacustre, al fine di quantificare il tasso di sedimentazione e le caratteristiche fisiche dei depositi. Scopo di questo lavoro di Tesi è stato analizzare, interpretare e discutere in una prospettiva di evoluzione ambientale del lago i dati geofisici e geologici raccolti nell’ambito della campagna del Maggio 2015 e reperiti in bibliografia.
Resumo:
Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.
Resumo:
Individuare e conoscere la natura degli inquinanti atmosferici e disporre dei dati delle emissioni sono azioni fondamentali per formulare politiche ambientali incentrate sul miglioramento della qualità dell'aria e monitorarne l'efficacia. Sorge l'esigenza di un controllo costante della qualità dell'aria, processo che avviene utilizzando delle centraline di monitoraggio fisse sparse nelle vie delle maggiori città o nei pressi dei principali insediamenti industriali. Lo scopo di questo progetto è quello di realizzare una stazione di monitoraggio mobile al fine di aumentare la superficie di controllo, realizzando un oggetto dinamico capace di acquisire dati sull'inquinamento. Questo è stato fatto applicando ad un drone un sistema di sensori capaci di rilevare le variazioni dei livelli di concentrazione degli agenti inquinanti. Ciò permette di eliminare le stazioni di monitoraggio fisse, le quali rappresentano una spesa ingente. Inoltre, attraverso l'utilizzo di un drone, è possibile monitorare siti più vasti, permettendo un monitoraggio costante e ripetuto nel tempo. La prima parte dell'elaborato analizza il sistema Embedded utilizzato per l'acquisizione dei dati, concentrando l'attenzione prevalentemente sui moduli utilizzati. La seconda descrive quali sono i primi passi per cominciare ad utilizzare i sensori posti sulla Gases Board 2.0 e risponde ai dubbi più comuni su quali parametri di configurazione adottare per un avere una risposta adeguata, quale processo di calibrazione seguire o come trasformare i dati acquisiti, espressi in tensioni, in valori di concentrazione di gas. La terza parte illustra i test effettuati per verificare il corretto funzionamento del sistema completo, con l’esposizione delle problematiche individuate, e una presentazione delle alternative più valide per superarle.
Resumo:
Lo scopo del lavoro svolto e quello di realizzare un sistema di controllo Proporzionale-Integrativo-Derivativo (PID) della temperatura all'interno di un fornetto in una camera a vuoto. Il sistema deve essere in grado di eseguire rampe di temperatura con differenti rapidita di variazione, in vista di un suo futuro impiego nello studio del Desorbimento Termico di diversi materiali. Nella prima parte della tesi, si esaminano le premesse teoriche ai controlli Proporzionali-Integrativi-Derivativi, e sono esposti i metodi di Ziegler-Nichols e di Tyreus-Luyben per ricavare le costanti del PID. Nella seconda parte si descrivono il sistema fisico in esame e l'hardware messo a punto per il sistema di controllo, gestito interfacciandolo con una scheda Arduino. Nella terza parte viene invece trattato il software realizzato con LabVIEW per gestire e controllare l'apparato. Nella quarta parte sono infine mostrati i risultati sperimentali ottenuti, e le conclusioni tratte al termine del lavoro.
Resumo:
I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.
Resumo:
In questa tesi sono stati analizzati i dati raccolti nella sperimentazione di un percorso di fisica quantistica in una quinta liceo scientifico – indirizzo musicale, svolta nel periodo Marzo-Giugno 2015. Il percorso, progettato dai ricercatori in Didattica della Fisica del DIFA di Bologna, comprende una parte “genuinamente” quantistica sviluppata a partire dall’“Esperimento più bello della Fisica”. Il percorso è stato progettato sulla base dei criteri che definiscono l’appropriazione, costrutto che esprime un particolare tipo di apprendimento attraverso cui lo studente “fa proprio” un concetto. L’analisi è stata condotta con l’obiettivo di osservare casi di appropriazione tra gli studenti e di rifinire il costrutto di appropriazione, valutando in particolare l’efficacia del questionario sociometrico, uno strumento appositamente progettato dall’autore di questa tesi per valutare una delle dimensioni di cui si compone il costrutto di appropriazione. I principali dati analizzati per dare risposta agli obiettivi della tesi riguardano le risposte degli studenti a interviste realizzate alla fine del percorso scolastico, nonché gli esiti di altre attività appositamente progettate: svolgimento di un compito in classe, elaborazione di un tema scientifico, compilazione di questionari. I risultati mostrano come si siano ritrovati tre punti molto delicati che possono ostacolare l’appropriazione: il tempo a disposizione, le dinamiche di classe e soprattutto il rapporto che hanno avuto gli studenti con i concetti quantistici del percorso. Tali fattori hanno portato reazioni molto diverse: chi è stato stimolato e questo ha favorito l’appropriazione, chi ha compreso la fisica quantistica ma non l’ha accettata, chi l’ha compresa e accettata senza troppi problemi, chi si è rifiutato di studiarla perché “troppo grande per sé”.