1000 resultados para utilizzo dei sensori multispettrali nel monitoraggio degli incendi, sensore ASTER, telerilevamento
Resumo:
Questa tesi ha come scopo principale l'analisi delle diverse tecnologie di localizzazione in ambito indoor, analizzando in particolare l'utilizzo del Wifi RSS Fingerprinting. La tecnica del Wifi RSS Fingerprinting è una tecnica per la localizzazione all'interno di ambienti chiusi, che consiste nella definizione di un 'impronta'(fingerprint) in un punto preciso dell'ambiente(definito reference point), andando a inserire in un database i valori di potenza del segnale ricevuto(RSS) da ogni access point rilevato all'interno di quel determinato reference point. Per l'implementazione di questa tecnica è stato sviluppato un applicativo con un architettura client-server. Il client è stato sviluppato in ambiente Android, realizzando una applicazione per la gestione della fase di salvataggio di nuovi fingerprint e per la fase di localizzazione della posizione corrente, tramite l'utilizzo dei vari fingerprint precedentemente inseriti all'interno del DB. Il server, sviluppato in Node.js(framework Javascript), gestirà le diverse richieste ricevute dal client tramite delle chiamate AJAX, prelevando le informazioni richieste direttamente dal database. All'interno delle applicativo sono stati implementati diversi algoritmi per la localizzazione indoor, in modo da poter verificare l'applicabilità di questo sistema in un ambito reale. Questi algoritmi sono stati in seguito testati per valutare l'accuratezza e la precisione di ciascuno, andando ad individuare gli algoritmi migliori da utilizzare in base a scenari diversi.
Resumo:
Tematiche di violenza e aggressione sono oggi di estrema attualità e sempre più spesso se ne sente parlare al telegiornale o in programmi specializzati. Aggressione per molestie, furto o per scopi razziali; le motivazioni e i casi d'interesse sono vari e spesso hanno inizio senza alcun apparente motivo e la sensazione di sentirsi sempre meno al sicuro, anche appena usciti di casa, può degenerare ad una vera e propria paranoia. L'unica cosa che è sempre al nostro fianco, oggi giorno, sono i nostri smartphone, che risultano sempre più sofisticati e intelligenti; perché, allora, non provare ad usarli come protezione? L'obiettivo su cui si è incentrata questa tesi è, appunto, il riconoscimento di un'aggressione basata sull'analisi della situazione in cui si trova l'utente, attraverso l'uso dei sensori messi a disposizione dagli odierni smartphone in circolazione. Esistono già numerose applicazioni per la sicurezza personale, ma il metodo utilizzato per la segnalazione di un'aggressione è sempre basato sulla pressione di un pulsante o un'azione particolare che l'utente deve svolgere. L'applicazione creata in questo studio, invece, cerca di riconoscere le situazioni di pericolo osservando i movimenti dell'utente e basa il riconoscimento sulla presenza di situazioni fuori dalla normale quotidianità che, attraverso dei "controlli di conferma", permettono di riconoscere il pericolo in maniera completamente autonoma. Si è deciso di approcciarsi ad un riconoscimento autonomo, in quanto, non sempre si ha la possibilità, o il tempo, di prendere in mano il proprio smartphone per avvisare del pericolo e molte volte il panico potrebbe far perdere la lucidità alla vittima, il cui primo pensiero è quello di difendersi e scappare e non utilizzare il dispositivo. Altre volte, distrarsi anche per un secondo, potrebbe essere fatale per la propria sicurezza. Per questo motivo si è ricercato un'approccio di riconoscimento basato "sull'osservazione" di ciò che sta accadendo, piuttosto che sull'attesa di un segnale. L'obiettivo di riconoscimento prefissato è stato quello delle aggressioni in strada e i sensori utilizzati a questo scopo sono stati: accelerometro, giroscopio, GPS e microfono. Attraverso la combinazione di questi sensori, infatti, è stato possibile riconoscere cadute (di forte entità), urla e probabili spinte/strattoni. Si sono studiate, per tanto, le caratteristiche che collegassero queste tipologie di situazioni per ogni sensore preso in esame, costruendo un'approccio di riconoscimento risultato valido per gli obiettivi minimi prefissati.
Resumo:
Nel mio lavoro ho deciso di dedicare il primo capitolo all'evoluzione della prova ontologica nella storia della filosofia e della logica e all'analisi, da un punto di vista logico, della prova di Gödel. Nella prima sezione, quindi, ho riportato l'argomentazione di Anselmo d'Aosta, il primo a proporre una prova ontologica, e a seguire quelle di Scoto, Spinoza, Leibniz e Russell, evidenziando dove opportuno le critiche ad esse apportate. Nella seconda sezione ho ripercorso le tappe della prova ontologica di Gödel e ho riportato e analizzato alcuni dei passaggi logici tratti da uno dei suoi taccuini. Nel secondo capitolo ne ho analizzato in particolare la logica del secondo ordine. Inoltre ho dedicato la prima sezione a un breve richiamo di logica modale S5. Ho infine brevemente trattato un caso particolare della logica del secondo ordine, vale a dire la logica del secondo ordine debole.
Resumo:
L’oggetto di questa tesi di laurea è un intervento di riqualificazione delle Ex Officine Meccaniche Reggiane, un’area industriale, sita a Reggio Emilia, che nel corso degli anni ha subìto una graduale dismissione, sino allo stato attuale di completo abbandono. Il tema riveste un’importanza focale nelle città moderne, affette da un elevato livello di migrazione e riorganizzazione dell’industria, che trasforma vaste aree di produzione in vuoti urbani di difficile gestione. I problemi fondamentali sono infatti la notevole dimensione degli stabilimenti abbandonati e la loro posizione, un tempo strategica, ma che ora risulta critica per una lettura unitaria della città e delle sue connessioni. L’area in oggetto, dedicata nel corso degli anni a diversi tipi di produzione, tra le quali quelle ferroviaria e dell’aviazione, è locata in prossimità del centro storico di Reggio Emilia, separati solamente dalla linea ferroviaria storica con cui si interfaccia direttamente. L’espansione della città ha portato ad inglobare lo stabilimento, che risulta quindi chiuso in se stesso e fortemente vincolante per le connessioni della città. Gli scopi dell’intervento sono quindi quelli di generare connessioni tra le parti di città circostanti e di permettere il riappropriamento dell’area alla popolazione. Per raggiungere tali scopi è stato necessario aprire il forte limite perimetrale esistente ed individuare nuovi percorsi di attraversamento, ma anche nuove funzioni ed attrattività da inserire. Vista la frammentazione dell’area in una serie di edifici, lo studio si è poi concentrato su un edificio tipo, allo scopo di individuare un’ipotesi di intervento più dettagliata. Le strategie degli interventi sono il risultato di interazione tra le necessità di mantenere le strutture ed il carattere dell’area, di introdurre funzioni attrattive e di ottenere adeguati livelli di comfort ambientale e prestazioni energetiche.
Resumo:
Nei capitoli I e II ho costruito rigorosamente le funzioni circolari ed esponenziali rispettivamente attraverso un procedimento analitico tratto dal libro Analisi Matematica di Giovanni Prodi. Nel III capitolo, dopo aver introdotto il numero di Nepero e come limite di una particolare successione monotona, ho calcolato i limiti notevoli dell'esponenziale e della sua inversa, che sono alla base del calcolo differenziale di queste funzioni, concludendo poi la sezione dimostrando l'irrazionalità del numero e, base dei logaritmi naturali. Nel capitolo successivo ho dato, delle funzioni circolari ed esponenziali, i rispettivi sviluppi in serie di Taylor ma solamente nel V capitolo potremo renderci veramente conto di come i risultati ottenuti siano fra loro dipendenti. In particolare verrà messa in evidenza come il legame del tutto naturale che si osserva fra le funzioni circolari e le funzioni esponenziali rappresenta le fondamenta di argomenti molto notevoli e pieni di significato, come l'estensione ai numeri complessi dell'esponenziale o le celebri identità di Eulero. L'ultimo capitolo vedrà come protagonista pi greco, così misterioso quanto affascinante, che per secoli ha smosso gli animi dei matematici intenzionati a volerne svelare la natura. Come per il numero di Nepero, non potrà mancare un paragrafo dedicato alla dimostrazione della sua non razionalità.
Resumo:
L’obiettivo di questo studio è analizzare in che misura e con quali modalità le società di un mercato ricco ed importante come quello della National Basketball Association stiano sfruttando i canali messi a disposizione dal Web 2.0 e dai cosiddetti nuovi media. Il progetto si propone quindi di rispondere ai seguenti tre quesiti di ricerca: 1 Quali sono gli strumenti attualmente a disposizione delle società NBA per promuovere il loro “prodotto” relativamente all’utilizzo delle tecnologie del Web 2.0 e dei Social Media? 2 Quali vantaggi e quali cambiamenti hanno portato queste nuove tecnologie nella comunicazione e nelle relazioni tra impresa sportiva ed i suoi fan? 3 E' possibile individuare un indice di esposizione su Web e Social Media applicato ai teams NBA in grado di fornire una stima di quanto e come una società stia usando questi mezzi? Il progetto inizia con un’analisi dello stato dell’arte, partendo dal settore più generale del marketing e del management dello sport, passando per l’utilizzo dei Social Media nel settore sportivo fino a focalizzarsi sugli studi specifici relativi al mondo NBA. Successivamente lo studio segue tre fasi: una prima introduttiva dove sono descritti i principali mezzi disponibili per le società in termini di Social Media Marketing e gli effetti benefici che questi possono avere; una seconda fase in cui viene definito l’indice nei suoi diversi parametri, ed infine un’ultima fase in cui vengono raccolti i dati relativi ad un campione di squadre NBA ed analizzati per elaborare i risultati ottenuti. L’elaborazione dei risultati porta poi ad individuare trend comuni, punti di forza e debolezza ed eventuali migliorie future per le strategie delle società NBA.
Proposta metodologica per acquisizione e verificabilita di dati in rete trasmessi in maniera cifrata
Resumo:
Lo sviluppo di tecnologie informatiche e telematiche comporta di pari passo l’aumento di dispositivi informatici e di conseguenza la commissione di illeciti che richiedono l’uso di tecniche dell’informatica forense. Infatti, l'evoluzione della tecnologia ha permesso la diffusione di sistemi informatici connessi alla rete Internet sia negli uffici che nelle case di molte famiglie: il miglioramento notevole della velocità di connessione e della potenza dei dispositivi comporta l’uso di un numero sempre maggiore di applicazioni basate sul web 2.0, modificando lo schema classico d’uso del mezzo e passando da utente “lettore” a utente “produttore”: si potrebbe quasi porre la domanda “Chi non ha mai scritto un commento su un social network? Chi non ha mai caricato un video su una piattaforma di video sharing? Chi non ha mai condiviso un file su un sito?”. Il presente lavoro si propone di illustrare le problematiche dell’acquisizione del traffico di rete con particolare focus sui dati che transitano attraverso protocolli cifrati: infatti, l’acquisizione di traffico di rete si rende necessaria al fine di verificare il contenuto della comunicazione, con la conseguenza che diventa impossibile leggere il contenuto transitato in rete in caso di traffico cifrato e in assenza della chiave di decifratura. Per cui, operazioni banali nei casi di traffico in chiaro (come la ricostruzione di pagine html o fotografie) possono diventare estremamente impegnative, se non addirittura impossibile, quando non si sono previsti appositi accorgimenti e in assenza di idonei strumenti. Alla luce di tali osservazioni, il presente lavoro intende proporre una metodologia completa di acquisizione e uno strumento software che agevoli il lavoro di ricostruzione, e quindi verifica, dei dati contenuti nel traffico catturato, anche cifrato. Infine, verranno mostrati dei casi esemplificativi nei quali tale metodologia si rende opportuna (o meglio, necessaria) con test di ricostruzione dei dati eseguiti con il tool SSLTrafficReader.
Resumo:
L'obiettivo di questa tesi è quello di fornire le informazioni di base che, un aspirante programmatore Android, deve sapere per scrivere applicazioni che facciano uso dei sensori presenti nei moderni telefoni cellulari (accelerometro, giroscopio, sensore di prossimità, ecc...). La tesi si apre citando qualche aneddoto storico sulla nascita del sistema operativo più famoso al mondo ed elencando tutte le releases ufficiali e le novità che hanno portato dalla 1.0 all'attuale 5.1.1 Lollipop. Verranno analizzate le componenti fondamentali per costruire un applicazione Android: Activities, Services, Content Providers e Broadcast Receivers. Verrà introdotto e approfondito il concetto di sensore, sia punto di vista fisico sia dal punto di vista informatico/logico, evidenziando le tre dimensioni più importanti ovvero struttura, interazione e comportamento. Si analizzeranno tutte i tipi di errori e problematiche reali che potrebbero influire negativamente sui valori delle misurazioni (disturbi, rumori, ecc...) e si propone la moderna soluzione del Sensor Fusion come caso particolare di studio, prendendo spunto dal lavoro di grandi aziende come la Invensense e la Kionix Inc. Infine, si conclude l'elaborato passando dalle parole al codice: verranno affrontate le fasi di analisi e d'implementazione di un'applicazione esemplificativa capace di determinare l'orientamento del dispositivo nello spazio, sfruttando diverse tecniche Sensor Fusion.
Resumo:
L'oggetto del presente elaborato è una proposta di traduzione e sottotitolazione in lingua italiana del video “Escolha Portugal – Centro”. Si tratta di un video di promozione turistica della regione Centro del Portogallo, prodotto dall'emittente televisiva portoghese SIC con il sostegno dell'ente nazionale portoghese per il turismo. Nel primo capitolo, si introducono brevemente la traduzione audiovisiva e le sue modalità più diffuse, ovvero la sottotitolazione e il doppiaggio. Il secondo capitolo, dedicato alla sottotitolazione, ne illustra le norme e gli eventuali vantaggi e svantaggi. Nel terzo capitolo, si contestualizza il progetto, soffermandoci sugli obiettivi, il metodo e le tecnologie usate, come il programma per la creazione di sottotitoli “VisualSubSync”. Inoltre si presenta una panoramica del turismo in Portogallo e una descrizione dei luoghi visitati nel video. Il quarto capitolo contiene la trascrizione, la traduzione e i sottotitoli del video, seguiti da un'analisi dei problemi riscontrati nella traduzione e nella sottotitolazione e delle rispettive soluzioni adottate.
Resumo:
In questa tesi mi occupo di spiegare come si comportano i veicoli autonomi per prendere tutte le decisioni e come i dati dei sensori di ogni auto vengono condivisi con la flotta di veicoli
Resumo:
L’obiettivo del presente lavoro è illustrare la creazione di due corpora bilingui italiano-inglese di libretti d’opera di Giuseppe Verdi, annotati e indicizzati, e descrivere le potenzialità di queste risorse. Il progetto è nato dalla volontà di indagare l’effettiva possibilità di gestione e consultazione di testi poetici tramite corpora in studi translation-driven, optando in particolare per il genere libretto d’opera in considerazione della sua complessità, derivante anche dal fatto che il contenuto testuale è fortemente condizionato dalla musica. Il primo corpus, chiamato LiVeGi, si compone di cinque opere di Giuseppe Verdi e relativa traduzione inglese: Ernani, Il Trovatore, La Traviata, Aida e Falstaff; il secondo corpus, nominato FaLiVe, contiene l’originale italiano dell’opera Falstaff e due traduzioni inglesi, realizzate a circa un secolo di distanza l’una dall’altra. All’analisi del genere libretto e delle caratteristiche principali delle cinque opere selezionate (Capitolo 1), segue una panoramica della prassi traduttiva dei lavori verdiani nel Regno Unito e negli Stati Uniti (Capitolo 2) e la presentazione delle nozioni di Digital Humanities e di linguistica computazionale, all’interno delle quali si colloca il presente studio (Capitolo 3). La sezione centrale (Capitolo 4) presenta nel dettaglio tutte le fasi pratiche di creazione dei due corpora, in particolare selezione e reperimento del materiale, OCR, ripulitura, annotazione e uniformazione dei metacaratteri, part-of-speech tagging, indicizzazione e allineamento, terminando con la descrizione delle risorse ottenute. Il lavoro si conclude (Capitolo 5) con l’illustrazione delle potenzialità dei due corpora creati e le possibilità di ricerca offerte, presentando, a titolo d’esempio, due case study: il linguaggio delle protagoniste tragiche nei libretti di Verdi in traduzione (studio realizzato sul corpus LiVeGi) e la traduzione delle ingiurie nel Falstaff (attraverso il corpus FaLiVe).
Resumo:
Guidata dall'interesse per lo studio della fissione nucleare, per molto tempo la ricerca nel campo dei neutroni si è concentrata su energie medio-basse (E<20 MeV) mentre per la regione a più alte energie le informazioni risultavano scarse o mancanti. Recentemente, invece, si è sviluppato un nuovo interesse per i Neutroni di Alta Energia, utilizzabili nelle terapie mediche per la cura di tumori, e di grande importanza per la radioprotezione e la trasmutazione delle scorie radioattive derivanti da produzione di energia nucleare. Queste applicazioni richiedono precisi fasci di neutroni quasi-monoenergetici, con energie dai 20 a qualche centinaia di MeV, servono perciò misurazioni intese a determinare le caratteristiche del fascio e atte a ottenere valori precisi della sezione d'urto relativa ai processi innescati da neutroni veloci. La sezione d'urto di un certo processo nucleare si deduce dalla misura del numero di eventi acquisiti per unità di tempo da un rivelatore, conoscendo l'efficienza di questo, l'intensità del fascio che incide nel bersaglio e le caratteristiche del target. Diventa, quindi, determinante la conoscenza dell'intensità del fascio dei neutroni, anche nel caso di un intervallo energetico ampio, come quello prodotto al CERN dalla facility n_TOF, che possiede energie che vanno dal meV al GeV. Sulla base di queste motivazioni, in questo lavoro di tesi, si vuole proporre un prototipo semplice di rivelatore per Neutroni di Alta Energia e si presenta uno studio preliminare del primo test sotto fascio, focalizzando l'attenzione sulla massima energia misurabile.
Resumo:
Questo lavoro si concentra sullo studio fluidodinamico del flusso multifase cavitante di un iniettore per applicazioni a motori ad iniezione diretta (GDI). L’analisi è stata svolta tramite l’uso del software CFD (Computational Fluid Dynamics) Star-CCM+^® sviluppato da CD-ADAPCO. L’obiettivo di questo studio è investigare i motivi che portano ad un diverso comportamento tra i rilievi della prova sperimentale di caratterizzazione dell’iniettore e quanto atteso dai valori nominali dettati dalla specifica dell’iniettore, con particolare riferimento alla distribuzione di portata fra i diversi ugelli. Il presente lavoro fa parte di una coppia di elaborati collegati tra loro e, pertanto, ha inoltre lo scopo di fornire dati utili allo sviluppo dell’altro tema di analisi mirato alla individuazione di parametri di qualità della miscela aria-combustibile non reagente utili alla previsione della formazione del particolato prodotto dalla combustione di un motore GDI. L’elaborato, costituito di 5 capitoli, è strutturato secondo lo schema sottostante. Nel capitolo 1 vengono presentate le motivazioni che lo hanno avviato e viene esposto lo stato dell’arte della tecnologia GDI. Il capitolo 2 è a sfondo teorico: in esso vengono riportati i fondamenti del processo di cavitazione nella prima parte e i modelli numerici utilizzati nell’analisi nella seconda. Il capitolo 3 descrive la modellazione e successiva validazione dei modelli tramite confronto con il test case ‘Comprensive hydraulic and flow field documentation in model throttle experiments under cavitation conditions’ (E. Winklhofer, 2001). Nella scelta dei modelli e dei parametri relativi, l’analisi si è basata su precedenti lavori trovati in letteratura. Successivamente è stato svolto uno studio di sensibilità per valutare la stabilità della soluzione a piccole variazioni nei valori dei parametri. La scelta dei parametri modellistici nel caso di interesse, l’iniettore multihole, si è basata inizialmente sui valori ‘ottimali’ ottenuti nel test case ed è l’argomento del capitolo 4. All’interno del capitolo si parla inoltre dell’analisi di sensibilità successiva, svolta con lo scopo di comprendere i motivi che portano allo sbilanciamento tra fori corrispondenti e al maggiore sviluppo del getto centrale rispetto agli altri. Nel capitolo 5 dopo un breve riepilogo dei punti fondamentali trattati nello svolgimento dell’elaborato, si tirano le conclusioni sull’analisi e si espongono gli sviluppi futuri.
Resumo:
Questa tesi presenta i risultati di un case-study condotto presso la scuola primaria G. Marconi e la scuola secondaria di I grado G. Diotti di Casalmaggiore (CR), volto ad indagare sul fenomeno della mediazione linguistica ad opera di bambini che, nel panorama moderno caratterizzato da una presenza straniera in continuo aumento, risulta una delle soluzioni più accessibili ai migranti per garantirsi un supporto linguistico che permetta l’accesso ai servizi pubblici fondamentali. La prima parte del testo costituisce un quadro teorico che consente di comprendere meglio gli obiettivi e i risultati dell’indagine condotta. Il primo capitolo si concentra sul rapporto immigrazione-scuola analizzando la situazione attuale, illustrando le caratteristiche e le esigenze della popolazione scolastica straniera ed esaminando le proposte ministeriali in materia di integrazione e accoglienza. Il secondo capitolo, invece, sposta l’attenzione sulla mediazione linguistica e culturale in Italia. Nello specifico viene dapprima approfondita la mediazione professionale facendo riferimento al quadro normativo e alle competenze specifiche del mediatore linguistico e culturale. In un secondo momento, viene introdotto il fenomeno della mediazione non professionale e viene illustrata la letteratura inerente. Da ultimo viene introdotto il tema del Child Language Brokering (CLB), ovvero il fenomeno della mediazione ad opera di minori. Partendo da una panoramica generale viene studiato lo sviluppo del CLB come oggetto di ricerca e ne vengono valutati aspetti positivi e negativi, soffermandosi in particolare sul contesto scolastico. Gli ultimi due capitoli, invece, sono dedicati alla parte operativa del lavoro di ricerca. Nel terzo capitolo viene presentato in maniera dettagliata il case-study analizzando la metodologia applicata, il campione selezionato e l’elaborazione dei questionari realizzati per la raccolta dei dati. Infine, nel quarto capitolo, sono esaminati i dati raccolti sul campo. Sulla base dei risultati ottenuti viene dapprima delineato il profilo del fenomeno in ciascuna delle scuole campione per poi mettere a confronto le tendenze generali emerse.
Resumo:
Il sito archeologico di Suasa è stato oggetto di una lunga campagna di scavi iniziata negli anni sessanta, che ha portato alla pubblicazione di diversi saggi e ha stimolato l’attenzione di numerosi studiosi nel corso degli ultimi anni. Questo interesse, però, rimane un fenomeno ristretto agli addetti al settore e non vede una vera riflessione sul piano turistico. Suasa, infatti, rimane un gioiello culturale scarsamente conosciuto nel territorio ed escluso dai principali percorsi turistici. Il primo obiettivo del nostro intervento è quello di porre l’attenzione su un’area di così grande interesse e avvicinare le persone, esperti di storia e non, all’antica città, in modo che questa possa acquisire una nuova vita e ritrovare una sua valenza nel territorio. Il primo passo in questa direzione è stato quello di mettere in relazione il parco archeologico con gli altri siti archeologici della zona inserendolo in un sistema di offerta culturale volto all’esplorazione e all’approfondimento del territorio marchigiano e della sua storia. La posizione di Suasa sul fiume Cesano, inoltre, risulta particolarmente favorevole ad una integrazione dell’area con i percorsi cicloturistici, in quanto fornisce la possibilità di creare un parco fluviale di supporto a queste nuove tratte di collegamento, così come alle esistenti, andando ad aggiungere valore all’area. Questo elemento risulterà un fattore chiave per la collocazione e la definizione del visitor center del parco archeologico, il quale fa del rapporto tra il sito archeologico e il territorio il suo punto fondante. L’organizzazione del parco richiama quella che era l’organizzazione della città romana, cercando di restituire al visitatore non tanto l’immagine precisa di una ricostruzione, ma la logica e la successione degli spazi che l’impianto urbano poteva assumere. Gli interventi sulle emergenze, quindi, sono realizzati seguendo una coerenza progettuale e materica volta a minimizzare l’impatto sull’archeologia e nel contesto.