999 resultados para Donatello i.e. Donato di Niccolò di Betto Bardi, ca. 1386-1466.
Resumo:
Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.
Resumo:
L’analisi del movimento umano mira alla raccolta di informazioni quantitative riguardo la meccanica del sistema muscolo-scheletrico durante l’esecuzione di un compito motorio. All’interno di questo contesto, la cinematica del passo rappresenta uno strumento d’indagine tra i più usati. Tra i diversi protocolli di analisi cinematiche si è affermato recentemente l’uso di sensori magnetico-inerziali. Il principale vantaggio di questi dispositivi rispetto alla tecnica tradizionalmente impiegata (la stereofotogrammetria) è che possono essere utilizzati al di fuori di un ambiente di laboratorio, rendendo meno vincolante la scelta del task motorio da analizzare. Lo stato dell’arte offre una molteplicità di studi basati sull’analisi del cammino e della corsa di atleti, professionisti o dilettanti, utilizzando sensori inerziali; nulla, però, è stato dedicato alla corsa con stampelle. In questo lavoro di tesi è stata dunque analizzata la corsa su stampelle di soggetti amputati (in particolare di atleti della Nazionale Italiana di Calcio Amputati). Dalla letteratura sono stati individuati tre metodi, ideati principalmente per la corsa di soggetti normodotati e in questa situazione riadattati per la corsa di soggetti con amputazione/malformazione di un arto inferiore, con i quali è stato possibile ricavare parametri temporali relativi al ciclo del passo; è stato inoltre progettato un nuovo metodo che permette di ricavare parametri temporali della corsa attraverso le fasi delle stampelle. L’elemento che contraddistingue questo studio è la presenza di un gold standard, dato da un riferimento video, con il quale sarà possibile determinare con più affidabilità quale metodo risulti più adeguato per l’analisi di questo tipo di corsa.
Resumo:
L'azienda IMA S.p.a., leader nel settore delle macchine automatiche per il packging, intende approfondire la conoscenza sui processi di manifattura additiva con l'obiettivo futuro di riuscire a realizzare il 5% di componenti che compongono le macchine della gamma dell'azienda mediante l'utilizzo di queste nuove tecnologie. Il raggiungimento di tale obiettivo comporta un radicale cambio di mentalità rispetto al passato e la creazione di nuove figure professionali e procedure di progettazione dei componenti totalmente nuove ed innovative. In questo contesto, vengono in aiuto i metodi numerici di ottimizzazione topologica. Noti carichi, vincoli, materiali e geometria d'ingombro del particolare, questi metodi vanno a determinare l'ottimale distribuzione del materiale per ottenere un incremento delle prestazioni del componente, andando a collocare il materiale solo in corrispondenza delle zone dove è strettamente necessario. L'ottimizzazione topologica strutturale, ottenimento della massima rigidezza specifica, è stato proprio l'argomento di questo elaborato. E' stato impiegato il software COMSOL Multiphysics 5.2 per implementare il problema di ottimizzazione. Inizialmente abbiamo affrontato problemi semplici, i cui risultati sono reperibili in letteratura. Dopo aver validato la correttezza della nostra implementazione, abbiamo infine esteso il problema a un caso di studio di un componente di una macchina IMA. Il caso di studio riguardava un componente che esegue l'estrazione della fustella piana dal magazzino in cui l'intero pacco fustelle viene riposto dall'operatore. I risultati ottenuti su questo componente sono stati positivi ottenendo un miglioramento della rigidezza specifica di quest'ultimo. L'obiettivo primario dell'elaborato è stato quello di realizzare una panoramica dei metodi di ottimizzazione topologica e riuscire ad applicare questi ad un caso concreto per valutare se tale tipo di progettazione potesse essere adeguato alle esigenze di IMA. L'obiettivo è stato largamente raggiunto.
Resumo:
La tesi indaga il problema di calibrazione Hand Eye, ovvero la trasformazione geometrica fra i diversi sistemi di riferimento della camera e dell'attuatore del robot, presentando il problema ed analizzando le varie soluzioni proposte in letteratura. Viene infine presentata una implementazione realizzata in collaborazione con l'azienda SpecialVideo, implementata utilizzando l'algoritmo proposto da Konstantinos Daniilidis, il quale propone una formulazione del problema sfruttando l'utilizzo di quaternioni duali, risolvendo simultaneamente la parte rotatoria e traslatoria della trasformazione. Si conclude il lavoro con una analisi dell'efficacia del metodo implementato su dati simulati e proponendo eventuali estensioni, allo scopo di poter riutilizzare in futuro il lavoro svolto nel software aziendale, con dati reali e con diversi tipi di telecamere, principalmente camere lineari o laser.
Resumo:
Uno dei principali settori di studio nell’ambito della visione artificiale riguarda lo sviluppo e la continua ricerca di tecniche e metodologie atte alla ricostruzione di ambienti 3D. Una di queste è il Kinect Fusion, la quale utilizza il dispositivo Kinect per catturare ed elaborare informazioni provenienti da mappe di profondità relative a una particolare scena, per creare un modello 3D dell’ambiente individuato dal sensore. Il funzionamento generale del sistema “Kinect Fusion” consiste nella ricostruzione di superfici dense attraverso l’integrazione delle informazioni di profondità dei vari frame all’interno di un cubo virtuale, che a sua volta viene partizionato in piccoli volumi denominati voxel, e che rappresenta il volume della scena che si intende ricostruire. Per ognuno di tali voxel viene memorizzata la distanza (TSDF) rispetto alla superficie più vicina. Durante lo svolgimento di questo lavoro di tesi ci si è concentrati innanzitutto nell’analisi dell’algoritmo Voxel Hashing, una tecnica che mira a rendere l'algoritmo Kinect Fusion scalabile, attraverso una migliore gestione della struttura dati dei voxel allocando questi ultimi all'interno di una tabella di hash solo se strettamente necessario (TSDF inferiore a una soglia). In una prima fase del progetto si è quindi studiato in dettaglio il funzionamento di suddetta tecnica, fino a giungere alla fase della sua implementazione all’interno di un framework di ricostruzione 3D, basato su Kinect Fusion; si è quindi reso il sistema realizzato più robusto tramite l’applicazione di diverse migliorie. In una fase successiva sono stati effettuati test quantitativi e qualitativi per valutarne l'efficienza e la robustezza. Nella parte finale del progetto sono stati delineati i possibili sviluppi di future applicazioni.
Resumo:
La presente tesi si pone come obiettivo quello di analizzare il protocollo LTP (in particolare in ION) e proporre dei miglioramenti utili al caso in cui siano presenti perdite elevate. Piu in dettaglio, una prima parte introduttiva motiva l'inefficacia del TCP/IP in ambito interplanetario e introduce l'architettura DTN Bundle Protocol (Cap.1). La tesi prosegue con la descrizione delle specifiche del protocollo LTP (Cap.2), in particolar modo evidenziando come un bundle venga incapsulato in un blocco LTP, come questo sia successivamente diviso in tanti segmenti LTP e come questi vengano successivamente inviati con il protocollo UDP o con un protocollo analogo. Viene quindi presentata un'approfondita analisi delle penalizzazioni dovute alle perdite dei segmenti LTP, sia di tipo dati che di segnalazione (Cap. 3). Quest'analisi permette di dimostrare la criticita degli effetti delle perdite, in particolare per quello che riguarda i segmenti LTP di segnalazione. Mentre in presenza di perdite basse tali effetti hanno in media un impatto minimo sul tempo di consegna di un blocco LTP (quindi del bundle in esso contenuto), in quanto avvengono raramente, in presenza di perdite elevate rappresentano un collo di bottiglia per il tempo di consegna di un blocco LTP. A tal proposito sono state proposte alcune modifiche che permettono di migliorare le prestazioni di LTP (Cap. 4) compatibilmente con le specifiche RFC in modo da garantire l'interoperabilita con le diverse implementazioni del protocollo. Successivamente nel Cap. 5 viene mostrato come sono state implementate le modifiche proposte in ION 3.4.1. Nel capitolo finale (Cap. 6) sono presenti i risultati numerici relativi ad alcuni test preliminari eseguiti confrontando la versione originale del protocollo con le versioni modificate contenenti i miglioramenti proposti. I test sono risultati molto positivi per elevate perdite, confermando cosi la validita dell'analisi e dei miglioramenti introdotti.
Resumo:
Il makeup, come strumento atto a modificare i tratti somatici di un individuo per aumentarne la bellezza, è largamente diffuso e socialmente accettabile al giorno d’oggi. Per la sua facile reperibilità, semplicità di utilizzo e capacità di alterare le caratteristiche principali di un volto, può diventare uno strumento pericoloso per chi volesse sottrarsi a dei controlli. In questo lavoro di tesi sono stati analizzati algoritmi presenti in letteratura che cercano di arginare gli effetti di alterazione di un viso, causati dal makeup, durante un processo di riconoscimento del volto. Inoltre è stato utilizzato un software per verificare la robustezza dei programmi commerciali in merito al problema del makeup e confrontare poi i risultati riscontrati in letteratura con quelli ottenuti dai test.
Resumo:
Nella prima parte di questa tesi viene introdotto il concetto di Internet of Things. Vengono discussi gli elementi costituitivi fondamentali di tale tecnologia, le differenti architetture proposte nel corso degli anni e le sfide che devono ancora essere affrontate per vedere realizzato l’IoT. Questa prima parte si conclude inoltre con due esempi di applicazione dell’IoT. Questi due esempi, Smart City e Smart Healthcare, hanno l’obbiettivo di evidenziare quali sono i vantaggi ed i servizi che possono essere offerti all’utente finale una volta applicato l’IoT. Nel secondo capitolo invece, vengono presentate le funzionalità della piattaforma IoT ThingWorx, la quale mette a disposizione un ambiente di sviluppo per applicazioni IoT con l’obbiettivo di ridurre i tempi e quindi anche i costi di sviluppo delle stesse. Questa piattaforma cerca di ridurre al minimo la necessità di scrivere codice, utilizzando un sistema di sviluppo di tipo “Drag and Drop”. ThingWorx mette anche a disposizione degli SDK per facilitare la programmazione dei device, gestendo soprattutto la parte di comunicazione nodo – piattaforma. Questo argomento viene trattato ampiamente nella parte finale di questo capitolo dopo aver visto quali sono i concetti fondamentali di modellazione e rappresentazione dei dati sui quali si basa la piattaforma. Nel terzo e ultimo capitolo di questa tesi viene presentato innanzitutto il tutorial Android di ThingWorx. Svolgere e successivamente estendere il tutorial ha evidenziato alcune limitazioni del modello iniziale e questo ci ha portato a progettare e sviluppare il componente Aggregated & Complex Event Manager per la gestione di eventi complessi e che permette di sgravare parzialmente la piattaforma da tale compito. La tesi si conclude evidenziando, tramite dei test, alcune differenze fra la situazione iniziale nella quale il componente non viene utilizzato e la situazione finale, nella quale invece viene usato.
Resumo:
Il termine “sovrastruttura stradale” identifica l’insieme di strati legati e non legati che, partendo dal piano viabile, raggiungono la sommità del rilevato o il piano di posa, nelle sezioni in trincea. Al fine di fornire agli utenti stradali sovrastrutture in grado di sviluppare prestazioni ottimali per lunghi periodi, è necessario che esse siano manutenute utilizzando i metodi via via più consoni al tipo di dissesto che si verifica. Attraverso numerose ricerche è emerso come uno dei fattori di maggiore influenza per il degrado stradale sia da attribuire all’efficacia del collegamento fra i diversi elementi di una sovrastruttura. Gli stati tensionali che si creano all’interfaccia fra due strati adiacenti, se non contrastati adeguatamente, possono provocare effetti dannosi come l’insorgere di fessurazioni ed il distacco fra gli strati. Per contrastare tali fenomeni, si è sviluppata la tecnica di inserire uno strato di rinforzo all’interno della sovrastruttura costituito da materiali metallici o sintetici anche nell’ambito delle costruzioni stradali. La ricerca effettuata in questo elaborato prevede lo studio del collegamento fra gli strati superficiali di una sovrastruttura flessibile rinforzata con geogriglie in fibra di vetro, mediante prove sperimentali condotte con apparecchiatura Leutner. Tale metodologia di prova è utilizzata per valutare la resistenza a taglio all’interfaccia fra i vari strati che compongono la pavimentazione. I campioni di prova sono stati estratti tramite carotatura da una pavimentazione esistente. Come ulteriore indagine, con gli stessi conglomerati sono stati creati nuovi campioni doppio strato mediante compattazione in pressa giratoria. Si è poi ripetuta la prova Leutner, per valutare la possibile variazione dei risultati ottenuti in precedenza e, in tale caso, studiare l’influenza della compattazione sulla resistenza a taglio presente all’interfaccia fra i due strati.
Resumo:
Nel presente elaborato vengono approfonditi i principali metodi di posizionamento attualmente utilizzati, ossia il GPS e il GPS differenziale, con particolare riferimento a strutture posizionate in mare. Gli stessi sono utilizzati per il monitoraggio della subsidenza e dei movimenti tettonici cui le strutture offshore sono soggette, che, essendo movimenti dell’ordine di qualche millimetro all'anno, richiedono accuratezza nelle misure. Nell'ultima parte della tesi si è provveduto ad analizzare una serie di dati, derivanti da rilevamenti GPS, al fine di valutare gli effetti termici sulla struttura emersa di una piattaforma offshore.
Resumo:
La presente tesi di Laurea Magistrale ha lo scopo di studiare sperimentalmente il comportamento a fatica dei calcestruzzi rinforzati con fibre macro-sintetiche (Macro Synthetic Fiber Reinforced Concrete, MSFRC). Sono condotte prove cicliche di flessione su tre punti al fine di caratterizzare il comportamento dei calcestruzzi fibrorinforzati in regime fessurato nel caso di fatica ad alto numero di cicli (High Cycle Fatigue, HCF). Oltre a prove di fatica sono condotte anche prove monotone a flessione al fine di ottenere la caratterizzazione meccanica del materiale determinandone i principali parametri di frattura; i risultati di tali prove sono utili anche a definire la procedura di prova definitiva da adottare durante i test di fatica. Le testimonianze presenti in letteratura sul comportamento a fatica degli FRC rinforzati con fibre sintetiche sono molto limitate, specialmente nel caso di fatica ad alto numero di cicli; inoltre le prove cicliche, a differenza delle prove monotone, non sono prove standardizzate e quindi definite dalla normativa. Nel corso della presente campagna sperimentale si cercherà quindi di definire una procedura per poter eseguire in maniera stabile le prove di flessione, monotone e di fatica, su campioni prismatici di calcestruzzo fibrorinforzato. L’idea alla base della campagna sperimentale oggetto di questa tesi è quella di riprodurre, mediante prove di fatica, le usuali condizioni di esercizio a cui sono sottoposte, durante la loro vita utile, strutture come pavimentazioni stradali o industriali; infatti il traffico stradale o il transito di macchinari possono indurre su strutture del genere dei carichi ripetuti nel tempo tali da provocarne il collasso per fatica. La presente tesi è articolata in otto capitoli nei quali verranno evidenziate le principali proprietà, sia meccaniche che fisiche, del materiale composito oggetto dello studio, saranno definite le procedure dei test eseguiti e verranno discussi i risultati derivanti da essi.
Resumo:
Le acque sotterranee rappresentano una risorsa fondamentale di acqua potabile; per questo motivo esse devono essere preservate, controllate, e se necessario, trattate e decontaminate. Nella presente tesi è stato analizzato, dal punto di vista idraulico, uno dei metodi di risanamento delle acque sotterranee più efficaci ed ampiamente utilizzati: il sistema Pump & Treat. Esso consiste nella costruzione di una barriera idraulica formata da pozzi che pompano acqua dal sottosuolo per consentirne il trattamento e la conseguente reimmissione nel corpo idrico. In questo contesto, sono stati approfonditi i principali criteri di progettazione ed è stato sviluppato un esempio applicativo utilizzando il codice numerico MODFLOW per la risoluzione delle equazioni di flusso e trasporto in acque sotterranee.
Resumo:
All’interno di questo progetto ci proponiamo di creare un infrastruttura cloud grazie a Openstack, un supporto software Opensurce. Grazie a questa infrastruttura effettueremo dei test per valutare le varie tecniche di migrazione messe a disposizione da OpenStack, le loro caratteristiche e le loro prestazioni. Nel primo capitolo introduciamo i concetti base del cloud e delle tecnologie a cui esso è strettamente legato. In particolare definiremo i concetti di Infrastructure as a Service (IaaS) e di virtualizzazione che riguardano nello specifico il nostro caso di studio. Nel secondo capitolo viene descritto nel dettaglio OpenStack e i vari moduli di cui esso è composto. Nel terzo capitolo vengono descritte le varie tipologie di migrazione disponibili in OpenStack in tutte le loro fasi e vengono anticipate alcune considerazioni sui vantaggi e svantaggi che la scelta di una determinata tipologia di migrazione porta. Nel quarto e quinto capitolo vengono descritti rispettivamente l’infrastruttura utilizzata, il processo per crearla e i test a cui è stata sottoposta l’infrastruttura. Nel sesto capitolo vengono analizzati i risultati dei test da cui dedurre un quadro più completo sul comportamento e l’applicabilità delle varie migrazioni nei diversi scenari. Infine viene presentato nell'ultimo capitolo il sunto dei risultati dei test effettuati insieme ai possibili sviluppi futuri
Resumo:
Questa tesi ha l'obiettivo di mostrare i fondamenti per lo sviluppo di un sistema di navigazione per caschi motociclistici in realtà aumentata. L'applicazione implementata sfrutta i concetti principali di realtà aumentata sensor based, cioè basata su geo-localizzazione, al fine di fornire i dati di interesse all'interno del campo visivo del guidatore. Lo scopo del progetto è di realizzare un sistema in grado di interagire con l'utente attraverso i suoi movimenti, e rendere fruibili le informazioni riguardanti la navigazione all'interno di un casco. Non sono pochi i vantaggi che questi strumenti potrebbero introdurre nella guida veicolare, anche in ambito di sicurezza stradale. Infatti, in questo modo, l'utilizzatore del casco non sarà più costretto a distrarsi dalla guida per consultare le informazioni del percorso da seguire, ma avrà la possibilità di vederle proiettate direttamente all'interno del suo campo visivo. Tutte le informazioni che oggi siamo abituati a ricevere da un comune navigatore satellitare (o dal nostro smartphone), saranno disponibili nella visione reale del mondo che ci circonda in modo rapido e intuitivo. Si è scelto di utilizzare Android come sistema operativo per lo sviluppo del sistema, utilizzando la libreria droidAR per la realtà aumentata.
Resumo:
L’avanzamento tecnologico degli ultimi anni ha portato ad un aumento sostanziale dei dati generati giornalmente. L’analisi di queste ingenti quantità di dati si è rivelata essere troppo complessa per i sistemi tradizionali ed è stato pertanto necessario sviluppare nuovi approcci basati sul calcolo distribuito. I nuovi strumenti sviluppati in seguito a queste nuove necessità sono framework di calcolo parallelo basati sul paradigma del MapReduce, un modello di programmazione sviluppato da Google, e sistemi di gestione di basi di dati fluidi, in grado di trattare rapidamente grandi quantità di dati non strutturati. Lo scopo alla base di entrambi è quello di costruire sistemi scalabili orizzontalmente e utilizzabili su hardware di largo consumo. L’utilizzo di questi nuovi strumenti può comunque portare alla creazione di sistemi poco ottimizzati e di difficile gestione. Nathan Marz propone un’architettura a livelli che utilizza i nuovi strumenti in maniera congiunta per creare sistemi semplici e robusti: questa prende il nome di Lambda-Architecture. In questa tesi viene introdotto brevemente il concetto di Big Data e delle nuove problematiche ad esso associate, si procede poi ad illustrare i principi su cui si basano i nuovi strumenti di calcolo distribuito sviluppati per affrontarle. Viene poi definita l’Architettura Lambda di Nathan Marz, ponendo particolare attenzione su uno dei livelli che la compone, chiamato Batch Layer. I principi della Lambda Architecture sono infine applicati nella costruzione di un Batch Layer, utilizzato per l’analisi e la gestione di dati climatici con fini statistici.