1000 resultados para ciclone di tipo tropicale,predicibilità,caratteristiche termodinamiche,confronto con osservazioni
Resumo:
Nella prima parte di questa tesi viene introdotto il concetto di Internet of Things. Vengono discussi gli elementi costituitivi fondamentali di tale tecnologia, le differenti architetture proposte nel corso degli anni e le sfide che devono ancora essere affrontate per vedere realizzato l’IoT. Questa prima parte si conclude inoltre con due esempi di applicazione dell’IoT. Questi due esempi, Smart City e Smart Healthcare, hanno l’obbiettivo di evidenziare quali sono i vantaggi ed i servizi che possono essere offerti all’utente finale una volta applicato l’IoT. Nel secondo capitolo invece, vengono presentate le funzionalità della piattaforma IoT ThingWorx, la quale mette a disposizione un ambiente di sviluppo per applicazioni IoT con l’obbiettivo di ridurre i tempi e quindi anche i costi di sviluppo delle stesse. Questa piattaforma cerca di ridurre al minimo la necessità di scrivere codice, utilizzando un sistema di sviluppo di tipo “Drag and Drop”. ThingWorx mette anche a disposizione degli SDK per facilitare la programmazione dei device, gestendo soprattutto la parte di comunicazione nodo – piattaforma. Questo argomento viene trattato ampiamente nella parte finale di questo capitolo dopo aver visto quali sono i concetti fondamentali di modellazione e rappresentazione dei dati sui quali si basa la piattaforma. Nel terzo e ultimo capitolo di questa tesi viene presentato innanzitutto il tutorial Android di ThingWorx. Svolgere e successivamente estendere il tutorial ha evidenziato alcune limitazioni del modello iniziale e questo ci ha portato a progettare e sviluppare il componente Aggregated & Complex Event Manager per la gestione di eventi complessi e che permette di sgravare parzialmente la piattaforma da tale compito. La tesi si conclude evidenziando, tramite dei test, alcune differenze fra la situazione iniziale nella quale il componente non viene utilizzato e la situazione finale, nella quale invece viene usato.
Resumo:
L'obiettivo principale che questa tesi intende perseguire e la progettazione di un sistema di acquisizione 3D a basso costo basato sul metodo di triangolazione a lama laser. A tale scopo si adotterà una telecamera general-purpose, e si provvederà sia alla realizzazione di un prototipo di sistema di attuazione per automatizzare la scansione dell'oggetto, sia all'implementazione di algoritmi per la calibrazione della geometria laser-telecamera, il rilevamento del profilo laser nell'immagine e la sua successiva ricostruzione 3D, tenendo anche conto delle complicazioni che l'uso di oggetti ad alto potere diffusivo apporta a tale problema, a causa dei marcati effetti di subsurface scattering della luce laser. Il sistema di triangolazione sarà validato caratterizzando, mediante il confronto con pezzi di dimensioni note, la precisione e l'accuratezza delle misurazioni, e valutando i tempi di esecuzione degli algoritmi. Inoltre, le prestazioni ed i risultati delle acquisizioni saranno messi a confronto con quelli ottenuti adottando una telecamera high-end dedicata. Lo studio preliminare svolto in questa sede e propedeutico per la futura realizzazione di un sistema per la ricostruzione in camera bianca di protesi d'osso su misura.
Resumo:
In questa tesi, sono esposti i sistemi di navigazione che si sono evoluti, parimenti con il progresso scientifico e tecnologico, dalle prime misurazioni della Terra, per opera della civiltà ellenica, circa 2.500 anni fa, sino ai moderni sistemi satellitari e ai mai tramontati sistemi di radionavigazione. I sistemi di navigazione devono rispondere alla sempre maggiore richiesta di precisione, affidabilità, continuità e globalità del servizio, della società moderna. È sufficiente pensare che, attualmente, il solo traffico aereo civile fa volare 5 miliardi di passeggeri ogni anno, in oltre 60 milioni di voli e con un trasporto cargo di 85 milioni di tonnellate (ACI - World Airports Council International, 2012). La quota di traffico marittimo mondiale delle merci, è stata pari a circa 650 milioni di TEU (twenty-foot equivalent unit - misura standard di volume nel trasporto dei container ISO, corrisponde a circa 40 metri cubi totali), nel solo anno 2013 (IAPH - International Association of Ports and Harbors, 2013). Questi pochi, quanto significativi numeri, indicano una evidente necessità di “guidare” questo enorme flusso di aerei e navi in giro per il mondo, sempre in crescita, nella maniera più opportuna, tracciando le rotte adeguate e garantendo la sicurezza necessaria anche nelle fasi più delicate (decollo e atterraggio per gli aeroplani e manovre in porto per le grandi navi). Nello sviluppo della tesi si proverà a capire quali e quanto i sistemi di navigazione possono assolvere al ruolo di “guida” del trasporto aereo e marittimo.
Resumo:
Questo elaborato presenta una procedura di rilievo eseguito con la scansione Laser e la Fotogrammetria per lo studio della facciata della Chiesa di Santa Lucia in Bologna e le successive elaborazioni dei dati tramite software di correlazione automatica Open Source e commerciali Low Cost basati sui principi della Structure from Motion. Nel particolare, il rilievo laser è stato eseguito da 5 posizioni diverse e tramite l’utilizzo di 7 target, mentre il rilievo fotogrammetrico è stato di tipo speditivo poiché le prese sono state eseguite solo da terra ed è stato impiegato un tempo di lavoro minimo (una decina di minuti). I punti di appoggio per la georeferenziazione dei dati fotogrammetrici sono stati estratti dal datum fornito dal laser e dal set di fotogrammi a disposizione è stato ottenuta una nuvola di punti densa tramite programmi Open Source e con software commerciali. Si sono quindi potuti operare confronti tra i risultati ottenuti con la fotogrammetria e tra il dato che si aveva di riferimento, cioè il modello tridimensionale ottenuto grazie al rilievo laser. In questo modo si è potuto verificare l’accuratezza dei risultati ottenuti con la fotogrammetria ed è stato possibile determinare quale calcolo teorico approssimativo dell’errore poteva essere funzionante per questo caso di studio e casi simili. Inoltre viene mostrato come produrre un foto raddrizzamento tramite l’utilizzo di una sola foto utilizzando un programma freeware. Successivamente è stata vettorializzata la facciata della chiesa ed è stata valutata l’accuratezza di tale prodotto, sempre confrontandola con il dato di riferimento, ed infine è stato determinato quale calcolo teorico dell’errore poteva essere utilizzato in questo caso. Infine, avendo notato la diffusione nel commercio odierno della stampa di oggetti 3D, è stato proposto un procedimento per passare da una nuvola di punti tridimensionale ad un modello 3D stampato.
Resumo:
Le osservazioni e i risultati proposti in questo elaborato si inseriscono all'interno di un progetto più vasto frutto della collaborazione tra SRM e il Dipartimento di Trasporti dell'Università di Bologna. Infatti in occasione del European Cycling Challenge del 2013, SRM ha raccolto per la sola area di Bologna un dataset di 1,050,000 punti GPS registrati da ciclisti volontari durante l'interno mese di Maggio attraverso l'applicazione Endomondo. Ai ciclisti che partecipavano volontariamente all’iniziativa è stato chiesto di registrare i proprio viaggi nella città di Bologna effettuati con la bici, attraverso l’ applicazione, gratuitamente scaricabile sul proprio smartphone: all’inizio di ciascun viaggio, i partecipanti dovevano attivare l’applicazione, e quindi il sistema GPS del loro smartphone, e registrare lo spostamento. Questo campione è stato dunque utilizzato come punto di partenza per questo progetto che rappresenta il primo caso studio italiano in cui i modelli di scelta del percorso ciclabile si sono basati su un ampio campione di dati GPS raccolti mediante sondaggio RP. In questo elaborato quindi si è analizzato il campione dei percorsi in termini di singoli spostamenti, del confronto con il percorso di minor lunghezza e all'interno di un set di alternative compiute. Infine si sono indagati due parametri che hanno influenzato la scelta del percorso ciclabile da parte degli utenti.
Resumo:
Dall'analisi dei big data si possono trarre degli enormi benefici in svariati ambiti applicativi. Uno dei fattori principali che contribuisce alla ricchezza dei big data, consiste nell'uso non previsto a priori di dati immagazzinati in precedenza, anche in congiunzione con altri dataset eterogenei: questo permette di trovare correlazioni significative e inaspettate tra i dati. Proprio per questo, il Valore, che il dato potenzialmente porta con sè, stimola le organizzazioni a raccogliere e immagazzinare sempre più dati e a ricercare approcci innovativi e originali per effettuare analisi su di essi. L’uso fortemente innovativo che viene fatto dei big data in questo senso e i requisiti tecnologici richiesti per gestirli hanno aperto importanti problematiche in materia di sicurezza e privacy, tali da rendere inadeguati o difficilmente gestibili, gli strumenti di sicurezza utilizzati finora nei sistemi tradizionali. Con questo lavoro di tesi si intende analizzare molteplici aspetti della sicurezza in ambito big data e offrire un possibile approccio alla sicurezza dei dati. In primo luogo, la tesi si occupa di comprendere quali sono le principali minacce introdotte dai big data in ambito di privacy, valutando la fattibilità delle contromisure presenti all’attuale stato dell’arte. Tra queste anche il controllo dell’accesso ha riscontrato notevoli sfide causate dalle necessità richieste dai big data: questo elaborato analizza pregi e difetti del controllo dell’accesso basato su attributi (ABAC), un modello attualmente oggetto di discussione nel dibattito inerente sicurezza e privacy nei big data. Per rendere attuabile ABAC in un contesto big data, risulta necessario l’ausilio di un supporto per assegnare gli attributi di visibilità alle informazioni da proteggere. L’obiettivo di questa tesi consiste nel valutare fattibilità, caratteristiche significative e limiti del machine learning come possibile approccio di utilizzo.
Resumo:
Il grafene è un cristallo bidimensionale di atomi di carbonio, isolato per la prima volta nel 2004 da due fisici che per questo risultato vinsero il premio Nobel per la Fisica nel 2010. Il grafene possiede proprietà chimiche e fisiche superiori, quali un’elevata resistenza chimica e meccanica e un’eccellente conducibilità termica ed elettrica. Inoltre possiede altre due caratteristiche che lo rendono particolarmente promettente in diversi ambiti applicativi: leggerezza e trasparenza ottica. In questo elaborato ho descritto le attività svolte seguendo le ricerche che vengono svolte al CNR-IMM di Bologna, dove questo materiale viene prodotto tramite la tecnica di Chemical Vapor Deposition e studiato per l’integrazione in dispositivi elettronici ed elettro-meccanici innovativi. Durante la mia esperienza di laboratorio all’IMM ho seguito i procedimenti che portano al trasferimento del grafene sintetizzato su substrati catalitici di rame sui substrati finali per la successiva integrazione nella tecnologia del silicio. Nell’elaborato vengono da prima descritte la struttura cristallina ed elettronica e successivamente presentate alcune proprietà di cui gode e messe in relazione con i materiali attualmente in uso. Segue una breve trattazione bibliografica di alcune delle principali tecniche di produzione del grafene, trattando più nel dettaglio la tecnica CVD attualmente in uso per la sintesi di grafene all’interno dei laboratori del CNR-IMM di Bologna. La parte principale di questa esperienza di laboratorio è stato di seguire in prima persona le attuali ricerche del gruppo di lavoro per la messa a punto di un metodo alternativo che utilizza il ciclododecano per il trasferimento del grafene sintetizzato su rame al posto del classico strato sacrificale polimerico di PMMA. Nell’elaborato il confronto tra le due tecniche viene eseguito confrontando i risultati del trasferimento analizzando la morfologia dei campioni finali con tecniche di microscopia elettronica in scansione
Resumo:
Grazie alla costante evoluzione tecnologica, negli ultimi anni sempre più oggetti di vita quotidiana stanno accedendo ad Internet. Il proliferare dei dispositivi “smart” ha dato il via ad una nuova rivoluzione tecnologica: quella di Internet of Things (IoT), che sta portando nelle mani degli utenti un elevatissimo numero di informazioni in grado di offrire notevoli benefici alla vita di ogni giorno. Per poter accedere ai dati messi a disposizione risulterà necessario realizzare un servizio in grado di consentire la scoperta, l’accesso e l’interazione con i nodi della rete che si occuperanno della gestione delle informazioni. In letteratura sono già disponibili alcuni di questi meccanismi, ma essi presentano dei difetti che verrebbero ancor più accentuati dalle ridotte capacità computazionali dei terminali IoT. In questo progetto di tesi verrà presentato un servizio di discovery per gateway IoT Kura-based, pensato, grazie all’utilizzo del protocollo di messaggistica MQTT, per operare con terminali dalle performance limitate ed in situazioni di scarsa connettività. Il servizio realizzato prevede che degli smartphone Android richiedano a tutti i gateway in una determinata località i parametri per entrare nel loro network. La richiesta verrà inviata mediante un messaggio MQTT pubblicato in un topic location-specific su un broker remoto. I gateway che riceveranno il messaggio, se interessati alle caratteristiche del client, gli risponderanno comunicando i dati di accesso al network in modo che il dispositivo possa auto-configurarsi per accedervi. Ad accesso avvenuto client e gateway comunicheranno in modo diretto attraverso un broker locale. In fase di testing si valuteranno le performance del servizio analizzando i tempi di risposta e l’utilizzo di risorse lato gateway, e l’assorbimento di potenza lato client.
Resumo:
Nello studio sperimentale oggetto della tesi è stato indagato il comportamento a fatica policiclica, in regime fessurato, di calcestruzzi rinforzati con fibre macro-sintetiche. Per tale tipologia di prova non esiste una procedura standardizzata; occorre anche osservare come in letteratura le testimonianze di prove policicliche su FRC siano piuttosto limitate soprattutto in riferimento a calcestruzzi rinforzati con fibre macro-sintetiche in regime fessurato. A tale scopo è stata messa a punto una procedura di prova a flessione su tre punti finalizzata a valutare il comportamento a fatica del materiale. Sono stati testati calcestruzzi con lo stesso dosaggio e con la stessa tipologia di fibre sottoposti a carichi ciclici con diversi ampiezza e stress level. La sperimentazione ha riguardato anche prove di flessione su tre punti di tipo monotono condotte sul medesimo materiale e su calcestruzzi non fibrorinforzati. I dati sperimentali ottenuti dalle prove monotone sono stati impiegati come input per una procedura di analisi inversa finalizzata alla definizione della relazione tensione-apertura di fessura per i materiali testati.
Resumo:
Gli odierni sviluppi delle reti stradali nel territorio italiano e l’aumento della propensione all’utilizzo del veicolo hanno portato ad una continua ricerca nello stesso ambito volta sì a mantenere alti i livelli prestazionali e di sicurezza sulla rete stradale ma anche ad aprirsi ad uno scenario ecosostenibile, dato il continuo scarseggiare di materie prime per proseguire con le usuali tecniche di produzione. In tutti i campi riguardanti l’ambito delle costruzioni civili, che siano esse strutturali o infrastrutturali, numerose sono state le tecnologie introdotte per la realizzazione di materiali sostenibili ma anche e soprattutto il recupero di materiale di scarto, andando così incontro oltre che a una costruzione sostenibile anche ad un recupero di ciò che sarebbe destinato a discariche, ufficiali o abusive che siano. Nell’ottica dell’introduzione di “nuovi” materiali una posizione di rispetto interessa gli Pneumatici Fuori Uso (PFU) il cui recupero sotto forma di granulato e di polverino in gomma costituiscono, nell’ambito delle pavimentazioni stradali, una notevole opportunità di riutilizzo all’interno dei conglomerati bituminosi. Il presente lavoro sperimentale è stato svolto nell’ottica di analizzare dapprima le caratteristiche delle pavimentazioni drenanti, del polverino di gomma da PFU e dell’interazione tra i due, a supporto delle sperimentazioni effettuate sulle miscele realizzate in laboratorio. In particolare, sfruttando la tecnologia dry, che permette l’inserimento del polverino nella fase di miscelazione degli aggregati, dopo un’attenta analisi preliminare della composizione delle miscele da realizzare e il successivo confezionamento dei provini e loro addensamento, si è proceduto all’esecuzione di diverse prove al termine delle quali sono state analizzate le differenze meccaniche e reologiche tra miscele ottenute con aggiunta di polverino e miscele prive di PFU.
Resumo:
Gli ammassi di galassie (galaxy clusters) sono aggregati di galassie legate dalla forza di attrazione gravitazionale. Essi sono le più grandi strutture virializzate dell’Universo e la loro luminosità è dovuta alle galassie che li compongono e al cosiddetto intracluster medium (ICM), gas intergalattico in grado di raggiungere temperature di milioni di gradi. L’ICM è caratterizzato da emissioni sia di tipo termico che non termico, rispettivamente nella banda X e nella banda Radio, dovute soprattutto al meccanismo di bremsstrahlung termica e all’emissione di sincrotrone. Lo studio delle radiazioni emesse da questo gas primordiale ha permesso di studiare alcuni processi caratteristici nella dinamica degli ammassi di galassie, come i fenomeni di merger e cooling flow , e di ottenere quindi una maggiore comprensione della formazione ed evoluzione degli ammassi. Essendo le più grandi strutture dell’Universo che abbiano raggiunto l’equilibrio viriale, il loro studio risulta infatti molto importante, in quanto fornisce un valido strumento per la formulazione di un Modello Cosmologico. Lo scopo di questo lavoro di tesi consiste in particolare nell'analisi di Aloni e Relitti radio, con maggiore approfondimento sui primi, e sulla ricerca di una correlazione della potenza Radio dei clusters sia con la loro luminosità nella banda X, che con la loro dimensione spaziale. La raccolta e l’elaborazione dei dati è stata svolta presso l’osservatorio di radioastronomia (ORA) situato nel CNR di Bologna.
Resumo:
Negli ultimi anni la produzione di materiale ceramico si è spostata su formati di grandi dimensioni. Questo processo è stato possibile grazie allo sviluppo di nuove tecnologie adeguate alla produzione di lastre in grès porcellanato con spessore sempre più ridotto e in formati sempre più grandi. Molte aziende si sono quindi orientate alla produzione delle grandi lastre servendosi di queste nuove tecnologie innovative, proprio perché questi prodotti sono risultati essere particolarmente versatili. Come le piastrelle di formato tradizionale, anche questi grandi formati devono essere certificati con il marchio CE, quindi devono essere eseguite delle prove di caratterizzazione delle loro caratteristiche fisiche-meccaniche. Tuttavia, cambiando notevolmente le dimensioni, per queste grandi lastre si possono introdurre anche nuovi test di prova per determinare nuove caratteristiche, come ad esempio la possibilità di flettersi per adattarsi alla forma della superficie dove vengono collocate (facciate di edifici, rivestimenti di gallerie autostradali, etc.). Di conseguenza nasce l’esigenza di valutare questi nuovi parametri, tra cui il raggio di curvatura è particolarmente rilevante per valutare appunto la flessibilità della lastra. Nel presente lavoro di tesi sono state svolte prove di caratterizzazione delle proprietà fisiche-meccaniche di piastrelle ceramiche di grande formato. I campioni sono stati sottoposti a prove per la determinazione della freccia e del raggio di curvatura sotto il peso proprio e a rottura nelle configurazioni fronte e retro. Dall’analisi dei dati sperimentali sono state dedotte conclusioni in merito alla possibile dipendenza della freccia e del raggio di curvatura dalle caratteristiche dei campioni. Oltre alle prove di determinazione della freccia e conseguente raggio di curvatura, a completamento del lavoro sperimentale svolto sono state eseguite anche prove di assorbimento di acqua e di analisi d’immagine per determinare la porosità totale.
Resumo:
L’oggetto di studio della tesi è centrato sulla progettazione di pavimentazioni ad alta resistenza nell’ambito dei porti commerciali. Nel capitolo 1, viene effettuata una descrizione delle caratteristiche principali dei porti, proseguendo con l’esposizione dei principi organizzativi dei porti commerciali. In particolar modo, vengono illustrate le operazioni che si registrano in un terminal container e le proprietà dei diversi mezzi speciali che vi operano. Nel capitolo successivo, si procede con la definizione dei materiali più comunemente utilizzati nella realizzazione delle pavimentazioni di un porto e quindi con la descrizione delle principali tipologie di soluzioni adottate nella progettazione. Successivamente, nel capitolo 3, vengono enunciati i principali metodi di calcolo per la progettazione di una pavimentazione portuale e si prosegue con l’approfondimento del metodo descritto dal manuale pubblicato dalla British Ports Association (BPA):”The structural design of heavy duty pavements for ports and other industries”. Infine, nell’ultimo capitolo, viene illustrato il processo di progettazione in base al metodo BPA, mediante lo svolgimento di un esempio di calcolo della pavimentazione.
Resumo:
In questa tesi si presenta la realizzazione di un data-set ad alta risoluzione (30 secondi d'arco) di precipitazioni mensili (per il periodo 1921-2014), per la regione del Trentino-Alto Adige. Esso è basato su una densa rete di stazioni con osservazioni di lunga durata, sottoposte ai necessari controlli di qualità. La tecnica di interpolazione si basa sull'assunzione che la configurazione spazio-temporale del campo di una variabile meteorologica su una certa area possa essere descritta con la sovrapposizione di due campi: i valori normali relativi a un periodo standard (1961-1990), ossia le climatologie, e le deviazioni da questi, ossia le anomalie. Le due componenti possono venire ricostruite tramite metodologie diverse e si possono basare su data-set indipendenti. Per le climatologie bisogna avere un elevato numero di stazioni (anche se disponibili per un lasso temporale limitato); per le anomalie viceversa la densità spaziale ha un rilievo minore a causa della buona coerenza spaziale della variabilità temporale, mentre è importante la qualità dei dati e la loro estensione temporale. L'approccio utilizzato per le climatologie mensili è la regressione lineare pesata locale. Per ciascuna cella della griglia si stima una regressione lineare pesata della precipitazione in funzione dell'altitudine; si pesano di più le stazioni aventi caratteristiche simili a quelle della cella stessa. Invece le anomalie mensili si ricavano, per ogni cella di griglia, grazie a una media pesata delle anomalie delle vicine stazioni. Infine la sovrapposizione delle componenti spaziale (climatologie) e temporale (anomalie) consente di ottenere per ogni nodo del grigliato una serie temporale di precipitazioni mensili in valori assoluti. La bontà dei risultati viene poi valutata con gli errori quadratici medi (RMSE) e i coefficienti di correlazione di Pearson delle singole componenti ricostruite. Per mostrare le potenziali applicazioni del prodotto si esaminano alcuni casi studio.
Resumo:
L'obiettivo della tesi è proporre e motivare l'adozione di un modello computazionale Agent-Based nell'ambito del Self-Management di malattie croniche in un sistema di mobile Health. Viene quindi affrontata in maniera approfondita la tematica del mobile Health, settore in grande espansione che vede l'introduzione massiccia dei dispositivi mobili (smartphone, tablet, PDA) in ambito sanitario, e quella del Self-Managment di malattie croniche, un processo di cura caratterizzato dalla partecipazione autonoma del paziente stesso, fornendo una panoramica dei vari approcci computazionali sviluppati. Successivamente vengono presentate le peculiarità dei modelli computazionali risultati dalle ricerche in letteratura strumenti innovati nell'ambito. Nel caso di studio viene adottata la tecnica di modellazione Agent-Based per sviluppare un modello a supporto di malati cronici affetti da diabete mellito di tipo 1. Con la successiva implementazione sulla piattaforma di simulazione MASON, vengono eseguiti diversi esperimenti per dimostrare la fattibilità dell’approccio adottato nell'ambito del Self-Management di malattie croniche.