537 resultados para Donatello i.e. Donato di Niccolò di Betto Bardi, ca. 1386-1466.
Analisi del cammino in acqua tramite sensori inerziali: Accuratezza strumentale e fasce di normalita
Resumo:
La biocinematica è una branca della biomeccanica che studia il movimento dei segmenti corporei senza considerare le cause che lo determinano. Le grandezze fisiche di interesse (posizione, velocità ed accelerazione) vengono determinate grazie ai sistemi di analisi del movimento che sfruttano principi fisici di funzionamento differenti con vari gradi di invasività. Lo sviluppo di nuove tecnologie di costruzione dei sensori inerziali, ha fornito una valida alternativa alle tecniche classiche per l’analisi del movimento umano. Gli IMUs (Inertial Measurement Units) sono facilmente indossabili, possono essere facilmente utilizzati fuori dal laboratorio, hanno un costo molto inferiore rispetto a quello dei sistemi opto-elettronici, non richiedono particolari abilità per essere utilizzati dall’utente e si configurano facilmente. In questa tesi verrà analizzato il cammino e costruite le bande di normalità sia in laboratorio che in acqua tramite i sensori inerziali. L’utilizzo in acqua delle tecniche classiche di analisi del movimento presenta dei problemi di accuratezza (legati ad esempio alla presenza delle bolle d’aria in acqua) che impediscono di effettuare un confronto tra i risultati ottenuti dai sensori e quelli ottenuti con un gold standard. Per questo motivo, è stato implementato un test per valutare l’accuratezza dei sensori e l’influenza dei disturbi magnetici sui magnetometri nelle stesse condizioni ambientali in cui si desidera registrare il cammino. Quest’analisi strumentale ha consentito anche di individuare, tra i diversi algoritmi di fusione utilizzati (algoritmo di fabbrica e algoritmo di Madgwick), quello da impiegare nell’analisi del suddetto task motorio per stimare in maniera più accurata l’orientamento dei sensori in acqua e in laboratorio. L'algoritmo di fabbrica viene escluso dal processo di sensor fusion poiché mostra un'accuratezza peggiore rispetto all'algoritmo di Madgwick. Dal momento che il protocollo implementato di analisi del cammino attraverso i sensori inerziali è già stato validato a secco e che le prestazioni dei sensori sono analoghe a secco e in acqua, il protocollo può essere utilizzato per la stima della cinematica degli arti inferiori nell'acqua. Le differenze riscontrate tra le curve del cammino sono da imputare sia alla diversa condizione ambientale che alla minore velocità di progressione che i soggetti manifestano in acqua. Infatti, la velocità media di progressione è 151.1 cm/s in laboratorio e 40.7 cm/s in acqua.
Resumo:
Il presente lavoro di Tesi si inserisce nell’ambito della previsione e caratterizzazione spaziale di fenomeni convettivi, tipicamente intensi e a carattere locale, come i sistemi temporaleschi organizzati che spesso sono i protagonisti di eventi calamitosi importanti. Lo studio è stato condotto in modo tale da poter apportare un contributo ai sistemi previsionali, i quali attualmente non consentono una valutazione accurata ed una caratterizzazione spaziale attendibile di detti fenomeni temporaleschi (Elisabetta Trovatore, Ecoscienza, numero 4, 2012). Lo scopo è stato quello di verificare l’esistenza caratteristiche spaziali comuni a questa tipologia di eventi di precipitazione mediante un confronto tra la curva di riduzione della precipitazione media all’area, ottenuta dalle mappe di precipitazione cumulata oraria desunte da radar meteorologici e da mappe corrispondenti ricavate a partire dai dati pluviometrici osservati al suolo servendosi di tre modelli di interpolazione spaziale: Kriging ordinario (con variogramma desunto da dati ai pluviometri e da dati al radar), Inverso delle Distanze Pesate (Inverse Distance Weighted, IDW) e Poligoni di Voronoi.Le conclusioni del lavoro di Tesi hanno evidenziato che: - la curva di riduzione della precipitazione valutata da dati radar viene in generale meglio approssimata da due metodi: il Kriging ordinario, che utilizza come modello di variogramma teorico quello dedotto da misure ai pluviometri, e le distanze inverse pesate (IDW, Inverse Distance Weighted); - paragonando le curve di riduzione della precipitazione media all’area dedotte da radar si è potuta notare l’esistenza di quattro curve, di cui tre relative ad eventi che hanno registrato valori elevati di intensità di precipitazione (superiori ai 140 mm/h), che presentano un comportamento analogo, mentre nella porzione superiore del grafico sono presenti due curve che non seguono tale andamento e che sono relative ad eventi convettivi meno intensi; - non esiste una distanza alla quale tutti i variogrammi, desunti da dati radar, raggiungono la stazionarietà ma si è visto come questa, per i sei casi di studio, vari tra 10000 e 25000 metri.
Resumo:
XCModel è un sistema CAD, basato su NURBS, realizzato ed utilizzato in ambiente accademico. È composto da quattro pacchetti per la modellazione 2D, 3D e la resa foto-realistica, ognuno dotato di una propria interfaccia grafica. Questi pacchetti sono in costante evoluzione: sia per le continua evoluzioni dell’hardware che ai cambiamenti degli standard software. Il sistema nel complesso raccoglie la conoscenza e l’esperienza nella modellazione geometrica acquisita nel tempo dai progettisti. XCModel, insieme ai suoi sottosistemi, sono stati progettati per diventare un laboratorio di insegnamento e ricerca utile a sperimentare ed imparare metodi ed algoritmi nella modellazione geometrica e nella visualizzazione grafica. La natura principalmente accademica, e la conseguente funzione divulgativa, hanno richiesto continui aggiornamenti del programma affinché potesse continuare a svolgere la propria funzione nel corso degli anni. La necessità di continuare a ad evolversi, come software didattico, anche con il moderno hardware, è forse il principale motivo della scelta di convertire XCModel a 64 bit; una conversione che ho svolto in questa tesi. Come molte altre applicazioni realizzate a 32 bit, la maggior parte del codice viene eseguito correttamente senza problemi. Vi sono però una serie di problematiche, a volte molto subdole, che emergono durante la migrazione delle applicazioni in generale e di XCModel in particolare. Questa tesi illustra i principali problemi di portabilità riscontrati durante il porting a 64 bit di questo pacchetto seguendo il percorso da me intrapreso: mostrerò gli approcci adottati, i tool utilizzati e gli errori riscontrati.
Resumo:
Il presente elaborato offre una panoramica generale del Remote Interpreting (RI) con l'obiettivo di strutturare un ipotetico seminario da tenere alla SLLTI (Scuola di Lingue e Letterature, Traduzione e Interpretazione, ex SSLMIT) di Forlì, in collaborazione con l'azienda VEASYT, spin-off dell’università Ca' Foscari di Venezia, per introdurre l'argomento agli studenti del corso di laurea in Interpretazione di Conferenza. A tal scopo la tesi è stata suddivisa in dieci capitoli, ognuno dei quali analizza una sfaccettatura dell'interpretazione da remoto; la prima parte verte sull'evoluzione storica delle nuove tecnologie nel mondo dell'interpretariato, con particolare attenzione all'introduzione degli impianti per l'interpretazione simultanea e delle Tecnologie dell'Informazione e della Comunicazione (TIC); si presentano inoltre i principali tipi di interpretazione a distanza, seguendo la loro comparsa in ordine cronologico, e i dispositivi necessari per effettuare una sessione di video-interpretazione. Nella seconda parte si descrivono alcuni ambiti di applicazione del RI (RI per non udenti, in ambito giuridico, in ambito medico-sanitario) e si illustra la situazione a livello mondiale passando in rassegna, a titolo di esempio, alcune aziende presenti in Australia, Stati Uniti, Germania, Austria e Gran Bretagna. Nella terza parte si presentano alcuni regolamenti e disposizioni raccomandati da associazioni di categoria e dalle istituzioni europee e si analizzano i principali vantaggi e svantaggi del RI. Nella quarta parte si mettono a confronto le caratteristiche e il tipo di formazione di un interprete che lavora in situ con quelle di un interprete che lavora a distanza, illustrando alcune strategie sviluppate dagli interpreti durante le sessioni di RI. L'ultima parte riguarda l'azienda VEASYT, la quale viene presentata come case study italiano, descrivendo la sua piattaforma per il servizio di interpretariato da remoto e la modalità di reclutamento degli interpreti. In conclusione si trova la proposta di seminario da tenere ipoteticamente alla SLLTI di Forlì, che viene articolata seguendo la successione dei capitoli precedenti.
Resumo:
Tesina sperimentale di confronto tra i dati sperimentali ricavati da prova edometrica ,granulometria e limiti di Atterberg su campioni di sabbia di coltre d'alterazione e i valori tipici di terreni analoghi.
Resumo:
Il fine ultimo di questo lavoro è di analizzare ed interpretare alcuni parametri morfometrici che riguardano bacini in roccia e canali di colate detritiche nelle Dolomiti, estrapolati tramite l’analisi di un DEM derivato da rilievo LiDAR. La procedura, implementata in ambiente GIS, è basata sull’analisi di mappe raster morfometriche derivate dalla rappresentazione digitale del terreno. L’elevata risoluzione di questi modelli digitali del terreno (1m) ha permesso uno studio approfondito della morfologia delle colate detritiche nell’area alpina. L’area di studio, nel comune di Cortina D’Ampezzo, è caratterizzata da frequenti eventi di colata detritica a causa della particolare e caratteristica morfologia dolomitica che si sviluppa in altezza con imponenti testate rocciose ed alla loro base con conoidi detritici. I bacini di roccia sono di piccole dimensioni, mentre la lunghezza dei canaloni può variare in base alla pendenza e alla litologia del luogo. In questo tipo di ambiente la causa principale di innesco di tali fenomeni sono i temporali ad elevata intensità i quali trasformano il materiale di deposito in un fluido che scende, grazie alla pendenza, con velocità elevate attraverso i canali. Raggiunte pendenze basse il fluido si arresta e il materiale viene depositato. In questo studio le zone d’innesco di colata detritica sono state indagate con metodologie quali la fotointerpretazione confrontata con il DEM e la modellazione spazialmente distribuita, una procedura automatica volta ad identificare i possibili punti d’innesco e basata sulla relazione tra pendenza locale e area contribuente. Tramite i punti d’innesco individuati con fotointerpretazione sono stati estratti i relativi bacini di colata. In principio sono stati analizzati e interpretati i parametri morfologici e idrologici che caratterizzano i bacini in roccia e i loro rispettivi canali di colata tramite istogrammi di frequenza. Successivamente sono stati confrontati i parametri più significativi attraverso l’uso di grafici a dispersione. Nello studio è stata posta particolare attenzione soprattutto a quei bacini considerati attivi tramite la raccolta di fonti storiche, con l’obbiettivo di analizzare dettagliatamente i parametri morfometrici che risultano essere direttamente legati all’attività dei bacini.
Resumo:
In Italia hanno visto stampanti 3D commerciali, e grazie al gruppo di professori e ricercatori della Facoltà di Ingegneria Meccanica dell'Università di Bologna, con cui ho avuto la possibilità di realizzare questa tesi, è nato il progetto di una stampante 3D ibrida, dotata sia di una fresatrice che di un estrusore: una stampante talmente grande che si va a posizionare come la stampante più grande di tutta Italia. Il mio progetto, si chiama PrinterCAD, è in grado infatti di gestire le diverse fasi della stampa 3D ibrida con i necessari parametri di lavorazione e controllo. Questo applicazione è un modulo realizzato in Python e segue la filosofia del MVC; inoltre estende il software opensource FreeCAD.
Resumo:
Il 17 agosto 1999 un violento terremoto di Mw 7,4 (terremoto di Izmit) ha interessato l’area del Golfo di Izmit, dove il segmento settentrionale della Faglia Nord-Anatolica (FNA) entra nel Mare di Marmara. Oltre a causare enormi danni e un numero di vittime altissimo (oltre 20000), la dislocazione orizzontale di oltre 5 metri in prossimità dell’epicentro ha caricato tettonicamente il segmento della FNA verso Istanbul. Da qui, l’importanza di un modello geologico-strutturale condiviso dalla comunità scientifica per questo ramo della Faglia Nord Anatolica, per la formulazione dei modelli di stima del rischio sismico in una zona della Turchia molto densamente popolata (oltre 12 milioni di persone). I numerosi studi di geologia e geofisica marina condotti nel Golfo di Izmit e più in generale nel Mare di Marmara, hanno avuto un grosso impulso in concomitanza del terremoto del 1999 e negli anni successivi, quando il Mare di Marmara è stato inserito tra i siti di importanza strategica. Nonostante la grande mole di dati raccolti e le pubblicazioni di lavori importanti che hanno contribuito a portare nuova luce sulla geologia di questo territorio complesso, permangono ancora incertezze e controversie sui rapporti le tra la formazione del bacino di Marmara e la FNA. Questo lavoro di tesi ha lo scopo di esaminare la cinematica della FNA nell’area del Mare di Marmara, in generale, ed in particolare lungo i vari bacini allineati lungo il ramo settentrionale: da Est verso Ovest, il Bacino di Cinarcik, il Bacino di Kumburgaz, il Bacino Centrale ed il Bacino di Tekirdag. Analizzeremo la natura e il grado di attività dei segmenti individuati da zone di trasferimento (bending o overstep) e tenteremo di cartografare la geometria, lo stile strutturale e la lunghezza di ciascun segmento, per effettuare una stima del potenziale sismogenetico di ciascun ramo utilizzando relazioni empiriche.
Resumo:
Il mondo di Internet ha vissuto un radicale e inarrestabile processo di rinnovamento nel corso dell'ultimo decennio. Nel giro di pochi anni, i siti che popolano il World Wide Web si sono evoluti divenendo vere e proprie applicazioni in grado di fornire un livello di interattività e di coinvolgimento fino ad allora impensabile. Il mondo del Web è mutato, e con esso quello dei browser, i quali assumono sempre più le conformazioni di "sistemi operativi nei sistemi operativi": si sono tramutati in complesse piattaforme di sviluppo in grado di fornire a programmatori e web designer potenti librerie e API relative a qualsiasi ambito, nonché avanzati strumenti di debugging. Numerosi standard che governano l'ecosistema di Internet hanno raggiunto la maturità in questo contesto: fra tutti HTML5, il quale ha arricchito enormemente le potenzialità di un browser introducendo nuovi strumenti orientati alla multimedialità e alla classificazione semantica delle risorse. Altri standard altrettanto importanti hanno visto la luce in questi anni, affermandosi e conquistando, nel giro di pochissimi anni, l'interesse di un'ampia platea di sviluppatori. E' il caso di WebGL, una potente e flessibile libreria grafica derivata dal mondo di OpenGL che ha aperto le porte al rendering di scene tridimensionali all'interno di un qualsiasi browser moderno. WebGL ha rappresentato un punto di svolta abbattendo un'ulteriore barriera tra il mondo del web che vive all'interno di un browser e la dimensione delle applicazioni native che popolano un sistema operativo, consolidando il già affermato concetto di web app che lentamente sta seppellendo l'idea di "sito" così come era stato concepito all'inizio del nuovo millennio. Scopo di questo elaborato è quello di fornire una panoramica delle principali funzionalità offerte dalla libreria WebGL (con una particolare attenzione per il supporto cross browser) e di analizzare le possibilità che essa offre, studiando e implementando i principali modelli di illuminazione e le tecniche di applicazione texture per definire un ambiente tridimensionale esplorabile e il più possibile realistico all'interno della dimensione del web.
Resumo:
La precisione delle misure dell’accelerazione di gravità effettuate grazie ai gravimetri più moderni fornisce importanti informazioni relative ai processi deformativi, che avvengono nel nostro pianeta. In questa tesi il primo capitolo illustra alcuni fondamenti della teoria dell’elasticità ed in particolare la possibilità di descrivere qualunque sorgente deformativa interna alla Terra tramite una distribuzione di “forze equivalenti” con risultante e momento nulli. Inoltre descriviamo i diversi contributi alle variazioni di gravità prodotte da tali eventi. Il secondo capitolo fornisce alcune tecniche di soluzione dell’equazione di Laplace, utilizzate in alcuni calcoli successivi. Nel terzo capitolo si sviluppano le soluzioni trovate da Mindlin nel 1936, che analizzò spostamenti e deformazioni generate da una forza singola in un semispazio elastico omogeneo con superficie libera. Si sono effettuati i calcoli necessari per passare da una forza singola a un dipolo di forze e una volta trovate queste soluzioni si sono effettuate combinazioni di dipoli al fine di ottenere sorgenti deformative fisicamente plausibili, come una sorgente isotropa o una dislocazione tensile (orizzontale o verticale), che permettano di descrivere fenomeni reali. Nel quarto capitolo si descrivono i diversi tipi di gravimetri, assoluti e relativi, e se ne spiega il funzionamento. Questi strumenti di misura sono infatti utilizzati in due esempi che vengono descritti in seguito. Infine, nel quinto capitolo si sono applicati i risultati ottenuti nel terzo capitolo al fine di descrivere i fenomeni avvenuti ai Campi Flegrei negli anni ‘80, cercando il tipo di processo deformativo più adatto alla descrizione sia della fase di sollevamento del suolo che quella di abbassamento. Confrontando le deformazioni e le variazioni residue di gravità misurate prima e dopo gli eventi deformativi con le previsioni dei modelli si possono estrarre importanti informazioni sui processi in atto.
Resumo:
Lo strumento MIPAS, operativo a bordo del satellite polare ENVISAT negli anni dal 2002 al 2012, ha misurato spettri di emissione nel medio infrarosso utilizzando la tecnica di scansione del lembo atmosferico. L'Agenzia Spaziale Europea (ESA), mediante un algoritmo di inversione ottimizzato, ha ricavato dagli spettri di MIPAS la distribuzione verticale di diversi composti chimici minoritari in stratosfera e alta troposfera. Tra questi composti figurano l'ozono (O3) e il CFC-11. Lo strato di ozono stratosferico svolge una funzione fondamentale come schermo della radiazione ultravioletta solare, altrimenti dannosa per gli esseri viventi sulla terra. D'altra parte, da alcuni decenni i cosiddetti cloro-fluoro carburi (CFC), tra cui la molecola di CCl3F (indicata sinteticamente con la sigla CFC-11) sono ritenuti responsabili della diminuzione generale dell'ozono stratosferico. Per questo motivo nel 1987 a Montreal è stato siglato un accordo internazionale per limitare l'immissione dei CFC in atmosfera. A partire dalla fine degli anni '80, in base a questo accordo, ci si aspetta quindi una progressiva riduzione dei CFC e un conseguente graduale recupero della concentrazione di ozono. Le misure di MIPAS, con copertura geografica globale, offrono una possibilità assai interessante per la verifica di queste tendenze attese. In questo lavoro di tesi, i profili verticali di frazione volumetrica (VMR) di ozono e CFC-11 ricavati dal processore di ESA versione 6.0 sono stati interpolati a livelli di pressione costante, raggruppati per bande di latitudine e mediati su intervalli di tempo mensili. Abbiamo quindi sviluppato un modello di tendenza parametrico che include un termine costante, uno lineare, due termini dell'oscillazione quasi biennale (QBO), un termine di flusso solare radio e diversi termini armonici in seno e coseno con periodo diverso. Il modello è stato quindi adattato mediante un algoritmo di minimizzazione di Levenberg-Marquardt alle medie mensili ottenute dalle misure di MIPAS per tutto il periodo che va da luglio 2002 ad aprile 2012. Le stime di tendenza ottenute per ozono e CFC-11 sono statisticamente significative e, a seconda della latitudine e del livello di pressione considerato, assumono una gamma di valori che va da -0.15 ppmv/decade a +0.44 ppmv/decade per l'ozono e una gamma di valori che va da -50.2 pptv/decade a +6.5 pptv/decade per il CFC-11. Abbiamo ottenuto tendenze per la maggior parte leggermente positive per l'ozono e quasi ovunque fortemente negative per il CFC-11, risultato in accordo con le disposizioni emanate a seguito del Protocollo di Montreal e in buon accordo anche con lavori precedentemente pubblicati in letteratura. Infine abbiamo stimato l'errore sistematico sulle tendenze ricavate, causato dalla deriva strumentale dovuta alla non-linearità della risposta dei rivelatori, che varia a seguito dell'invecchiamento dei rivelatori stessi.
Resumo:
Dalla necessità di risolvere il problema della disambiguazione di un insieme di autori messo a disposizione dall'Università di Bologna, il Semantic Lancet, è nata l'idea di progettare un algoritmo di disambiguazione in grado di adattarsi, in caso di bisogno, a qualsiasi tipo di lista di autori. Per la fase di testing dell'algoritmo è stato utilizzato un dataset generato (11724 autori di cui 1295 coppie da disambiguare) dalle informazioni disponibili dal "database systems and logic programming" (DBLP), in modo da essere il più etereogeneo possibile, cioè da contenere il maggior numero di casi di disambiguazione possibile. Per i primi test di sbarramento è stato definito un algoritmo alternativo discusso nella sezione 4.3 ottenendo una misura di esattezza dell'1% ed una di completezza dell'81%. L'algoritmo proposto impostato con il modello di configurazione ha ottenuto invece una misura di esattezza dell'81% ed una di completezza del 70%, test discusso nella sezione 4.4. Successivamente l'algoritmo è stato testato anche su un altro dataset: Semantic Lancet (919 autori di cui 34 coppie da disambiguare), ottenendo, grazie alle dovute variazioni del file di configurazione, una misura di esattezza del 84% e una di completezza del 79%, discusso nella sezione 4.5.
Resumo:
Studio sulla diffusione di Internet, le attività svolte in rete e lo sviluppo dell'E-commerce in Italia. Analisi comparativa tra un campione tipologico di imprese italiane (i 100 siti di E-commerce più popolare in Italia) e relative conclusioni.
Resumo:
Tra i vari impatti causati dall’aumento costante di CO2 nell’atmosfera troviamo l’acidificazione oceanica. Le conseguenze di questo processo non sono interamente conosciute. Per questo è importante conoscere la risposta all’acidificazione degli organismi marini e degli ecosistemi. Lo scopo di questo lavoro è valutare le conseguenze dell’acidificazione su comunità meiofaunali epifite. Sono stati quindi condotti campionamenti in situ, in una zona acidificata in conseguenza della presenza di vents idrotermali presenti nell’isola di Ischia (Italia). La zona di studio indagata è stata suddivisa in due siti, differenti per esposizione al moto ondoso. All’interno di ciascuna esposizione sono stati individuate tre stazioni, differenti per il grado di acidificazione. Sono stati prelevati campioni di alghe lungo il gradiente di acidificazione con associata la meiofauna e sono stati considerati come substrato secondario. Le alghe sono state analizzate attraverso descrittori della loro complessità mentre gli organismi sono stati contati e classificati a livello di grandi taxa. I descrittori sintetici di ricchezza tassonomica e di abbondanza non presentano valori di correlazione alti con i descrittori di complessità algale. Invece, i risultati ottenuti considerando l’intera comunità mostrano una relazione significativa fra la struttura delle comunità meiofaunali e l’acidificazione e anche con la diversa esposizione al moto ondoso. Infine dalle analisi condotte mediante regressione multipla fra tutti i descrittori algali e la struttura di comunità si nota come i primi non giustificano da soli le variazioni dei popolamenti meiobentonici. In definitiva questi risultati sembrerebbero dimostrare che la struttura delle comunità meiofaunali venga influenzata sia dalla acidificazione che dall’esposizione al moto ondoso oltre che dalla struttura dell’habitat. È tuttavia difficile definire se le variazioni nella struttura di comunità sono dovute ad una azione parallela e sinergica dei fattori considerati (esposizione e gradiente) o se si tratta di un effetto a cascata dove l’acidità influenza le comunità algali che a loro volta strutturano le comunità bentoniche associate. In prospettiva di studi futuri sarebbe quindi interessante condurre uno studio simile prendendo in considerazione le possibili relazioni specie-specifiche intercorrenti tra la struttura delle comunità meiofaunali e le differenti specie algali.
Resumo:
I giunti ibridi sono impiegati in molte applicazioni meccaniche, avendo molti vantaggi, tra i quali quello di aumentare il carico trasferibile. Ci sono state ricerche in merito, le quali hanno valutato la dipendenza della resistenza a taglio di questi giunti rispetto a numerose variabili. Abbiamo poche informazioni, però, sulla dipendenza rispetto all'ER (Engagement Ratio, rapporto tra lunghezza e diametro di accoppiamento). Con questo lavoro la si vuole studiare nel caso di accoppiamenti con gioco in presenza di adesivo, considerando quattro livelli di ER. Per questo sono state effettuate prove di spiantaggio su pin e collar, dalle quali è risultata la presenza di una possibile dipendenza tra le due grandezze, seppur minima.