117 resultados para Gouvernance démocratique globale
Stima ottimale del guadagno del filtro di Kalman per l'analisi del cammino tramite sensori inerziali
Resumo:
L’analisi del movimento ha acquisito, soprattutto negli ultimi anni, un ruolo fondamentale in ambito terapeutico e riabilitativo. Infatti una dettagliata analisi del movimento di un paziente permette la formulazione di diagnosi dettagliate e l’adozione di un adeguato trattamento terapeutico. Inoltre sistemi di misura del movimento sono utilizzati anche in ambito sportivo, ad esempio come strumento di supporto per il miglioramento delle prestazioni e la prevenzione dell’infortunio. La cinematica è la branca della biomeccanica che si occupa di studiare il movimento, senza indagare le cause che lo generano e richiede la conoscenza delle variabili cinematiche caratteristiche. Questa tesi si sviluppa nell’ambito dell’analisi della cinematica articolare per gli arti inferiori durante il cammino, mediante l’utilizzo di Unità di Misura Magnetico-Inerziali, o IMMU, che consistono nella combinazione di sensori inerziali e magnetici. I dati in uscita da accelerometri, giroscopi e magnetometri vengono elaborati mediante un algoritmo ricorsivo, il filtro di Kalman, che fornisce una stima dell’orientamento del rilevatore nel sistema di riferimento globale. Lo scopo di questa tesi è quello di ottimizzare il valore del guadagno del filtro di Kalman, utilizzando un algoritmo open-source implementato da Madgwick. Per ottenere il valore ottimale è stato acquisito il cammino di tre soggetti attraverso IMMU e contemporaneamente tramite stereofotogrammetria, considerata come gold standard. Il valore del guadagno che permette una vicinanza maggiore con il gold standard viene considerato il valore ottimale da utilizzare per la stima della cinematica articolare.
Resumo:
Lo scoppio della crisi finanziaria globale del 2007 ha rappresentato un evento epocale che ha interessato una varietà di ambiti: l’economia, la finanza, il diritto, la sociologia e anche la comunicazione. Molti linguisti e ricercatori del settore terminologico si sono concentrati sulle conseguenze di questo capovolgimento nella comunicazione che ha accolto in misura crescente anglicismi finanziari provenienti dagli Stati Uniti. I documenti istituzionali, ma soprattutto la stampa generalista e finanziaria sono dovuti ricorrere per esigenze denotative agli anglicismi al fine di illustrare le cause di questo evento e proporre delle soluzioni adeguate per attenuarne gli effetti. Dopo la crisi, infatti, le autorità di vigilanza finanziaria europee hanno iniziato a mettere in campo una serie di riforme della regolamentazione finanziaria volte a prevenire la comparsa di nuove crisi sistemiche: lo stress testing costituisce uno degli strumenti che la vigilanza europea ha adottato allo scopo di valutare lo stato di salute dei bilanci degli istituti di credito e per vagliarne la solidità e la resistenza a crisi simili a quella esplosa nel 2007. Il nostro elaborato si propone di osservare in ottica diacronica il trattamento degli anglicismi finanziari del dominio dello stress testing nella comunicazione istituzionale della Banque de France e della Banca d’Italia e nella stampa economico-finanziaria francese e italiana. Per la realizzazione di tale indagine abbiamo adottato un approccio diacronico teso all’osservazione del trattamento dell’anglicismo stress test in un arco temporale che dai primi anni Duemila arriva fino ad oggi. Ai fini dell’indagine abbiamo costruito due corpora comparabili di testi istituzionali tratti dal sito Web della Banque de France e da quello della Banca d’Italia, delimitando la ricerca al dominio dello stress testing. Abbiamo successivamente compilato due corpora comparabili con testi tratti da La Tribune e Milano Finanza per osservare il trattamento degli anglicismi finanziari in un genere testuale differente, benché specializzato. Abbiamo assunto il 2007, anno di inizio della crisi, come spartiacque, suddividendo i corpora in vari subcorpora e selezionando i testi da includervi in base alla data di pubblicazione. L’obiettivo che ci siamo prefissati è quello di osservare se nel dominio dello stress testing abbia avuto luogo un’evoluzione concettuale e se questa sia riscontrabile anche dal trattamento degli anglicismi finanziari, con un focus particolare sull’anglicismo stress test.
Resumo:
In questo elaborato è presentata la progettazione preliminare di un velivolo di classe regionale di generazione N+3/+4 da 90 posti passeggeri, realizzata in collaborazione con Alenia Aermacchi. Tale velivolo, allo scopo di ridurre i consumi e le emissioni, è dotato di ala laminare, ingestione strato limite e, visto il posizionamento dei propulsori, di propulsione ibrida. Attraverso la riduzione del Finess Ratio di fusoliera, grazie alla possibilità di ridurre la resistenza di scia attraverso l'ingestione strato limite, si è ottenuta una notevole riduzione del peso del velivolo che, insieme alla riduzione di resistenza globale e l'uso del propulsore ibrido, hanno permesso di ottenere un risparmio del 30% sui consumi di carburante, rispetto agli attuali velivoli della stessa categoria.
Resumo:
Questa tesi si pone l'obiettivo di presentare la teoria dei giochi, in particolare di quelli cooperativi, insieme alla teoria delle decisioni, inquadrandole formalmente in termini di matematica discreta. Si tratta di due campi dove l'indagine si origina idealmente da questioni applicative, e dove tuttavia sono sorti e sorgono problemi più tipicamente teorici che hanno interessato e interessano gli ambienti matematico e informatico. Anche se i contributi iniziali sono stati spesso formulati in ambito continuo e utilizzando strumenti tipici di teoria della misura, tuttavia oggi la scelta di modelli e metodi discreti appare la più idonea. L'idea generale è quindi quella di guardare fin da subito al complesso dei modelli e dei risultati che si intendono presentare attraverso la lente della teoria dei reticoli. Ciò consente di avere una visione globale più nitida e di riuscire agilmente ad intrecciare il discorso considerando congiuntamente la teoria dei giochi e quella delle decisioni. Quindi, dopo avere introdotto gli strumenti necessari, si considerano modelli e problemi con il fine preciso di analizzare dapprima risultati storici e solidi, proseguendo poi verso situazioni più recenti, più complesse e nelle quali i risultati raggiunti possono suscitare perplessità. Da ultimo, vengono presentate alcune questioni aperte ed associati spunti per la ricerca.
Resumo:
Oggigiorno milioni di persone fanno uso di Internet per gli utilizzi più disparati: dalla ricerca di informazioni sul Web al gioco online; dall'invio e ricezione di email all'uso di applicazioni social e tante altre attività. Mentre milioni di dispositivi ci offrono queste possibilità, un grande passo in avanti sta avvenendo in relazione all'uso di Internet come una piattaforma globale che permetta a oggetti di tutti i giorni di coordinarsi e comunicare tra di loro. È in quest'ottica che nasce Internet of Things, l'Internet delle cose, dove un piccolo oggetto come un braccialetto può avere un grande impatto nel campo medico per il monitoraggio da remoto di parametri vitali o per la localizzazione di pazienti e personale e l'effettuazione di diagnosi da remoto; dove un semplice sensore ad infrarosso può allertarci a distanza di una presenza non autorizzata all'interno della nostra abitazione; dove un'autovettura è in grado di leggere i dati dai sensori distribuiti sulla strada. Questa tesi vuole ripercorrere gli aspetti fondamentali di Internet of Things, dai sistemi embedded fino alla loro applicazione nella vita odierna, illustrando infine un progetto che mostra come alcune tecnologie IoT e wearable possano integrarsi nella domotica, come per esempio l'utilizzo di uno smartwatch, come Apple Watch, per il controllo dell'abitazione.
Resumo:
Internet of Things (IoT): tre parole che sintetizzano al meglio come la tecnologia abbia pervaso quasi ogni ambito della nostra vita. In questa tesi andrò a esplorare le soluzioni hardware e soprattutto software che si celano dietro allo sviluppo di questa nuova frontiera tecnologica, dalla cui combinazione con il web nasce il Web of Things, ovvero una visione globale, accessibile da qualsiasi utente attraverso i comuni mezzi di navigazione, dei servizi che ogni singolo smart device può offrire. Sarà seguito un percorso bottom-up partendo dalla descrizione fisica dei device e delle tecnologie abilitanti alla comunicazione thing to thing ed i protocolli che instaurano fra i device le connessioni. Proseguendo per l’introduzione di concetti quali middleware e smart gateway, sarà illustrata l’integrazione nel web 2.0 di tali device menzionando durante il percorso quali saranno gli scenari applicativi e le prospettive di sviluppo auspicabili.
Resumo:
Lo scopo che questa tesi ha è di inserirsi nell’ambito della Smart Mobility, in particolare nell'ambito dell’accessibilità urbana. Obiettivo primario è di offrire un software capace di adattarsi alle capacità dell’utente nel muoversi nell’ambiente urbano, in particolare riguardo alle barriere architettoniche che lo ostacolano. Quello che il programma deve fare è offrire percorsi per l’utente, personalizzati rispetto alle sue richieste. Affinché sia possibile tutto ciò, sono necessarie delle fondamenta, nella fattispecie una fonte di dati geografici e uno strumento che permetta di ricercare percorsi da essi e di essere modificato per includere le modifiche volute. La fonte di dati geografici scelta è stata OpenStreetMap, un progetto di crowdsourcing che punta a creare una mappa globale completamente accessibile fino al suo livello più basso e utilizzabile da chiunque, purché sia rispettata la sua licenza. Da questa scelta, derivano i software utilizzabili per calcolare i percorsi: la tesi ne esplorerà in particolare due GraphHopper e OpenTripPlanner, entrambi progetti open source. L’ultimo, ma non meno importante, scopo della tesi è effettivamente implementare un algoritmo di routing capace di considerare le preferenze degli utenti. Queste preferenze, infatti, non devono solo permettere di escludere percorsi con una barriera/architettonica cui l’utente non può accedere, ma anche di favorire percorsi con le facility che l’utente preferisce e di sfavorire quelli con facility che l’utente non preferisce.
Resumo:
Le infrastrutture portuali rappresentano un elemento chiave come motore di crescita per l’economia globale. Il 74% delle merci importate ed esportate dall’UE transitano per porti. Per questo motivo sono necessari investimenti in infrastrutture e attrezzature portuali per far fronte alle previsioni di crescita del trasporto merci nel prossimo decennio. La crescita del transhipment, quindi di grossi scali chiamati hub, ha rivoluzionato la scelta delle tratte principali e la scelta degli scali. Nel corso del seguente elaborato ci si è concentrati sulla situazione dell’Alto Adriatico, analizzando lo stato attuale dei principali porti e i possibili sviluppi futuri. La situazione dell’Alto Adriatico è particolare, questi porti si trovano sulle rotte principali del trasporto globale ma vista la crescita di scambi commerciali con la Cina e l’estremo Oriente, per via dello spostamento verso Est del baricentro dell’economia, si trovano in posizione ottimale per diventare un grosso gateway. Questo è l’obbiettivo che si sono prefissati i porti del Nord Adriatico cioè far capire che risalire l’Adriatico, anche se fuori dalle rotte può risultare conveniente visto il risparmio di cinque giorni di navigazione, rispetto ai porti del Nord Europa, che si traduce in un risparmio di tempo e di costi. Per creare attrattiva sono stati svolti, e continuano, numerosi investimenti per lo sviluppo dei fondali e del retroporto, nel tentativo di potersi affermare all’interno del mercato europeo e globale. Nel corso dell’elaborato saranno analizzati i grossi vantaggi di cui godono i porti del Nord Adriatico grazie alla loro posizione geografica, e alcune delle problematiche che ostacolano la crescita.
Resumo:
Vista la crescente frequenza e gravità delle catastrofi naturali legate al clima negli ultimi anni, una risposta collettiva si rende più che mai necessaria. In particolare l’analisi delle evidenze storiche, confermate recentemente anche da alcune tempeste e mareggiate che hanno colpito la zona ravennate, mostra abbastanza chiaramente un quadro di ricorrenza che ha interessato l’area. Infatti i rischi costieri, potenzialmente presenti nell’area di studio considerata in questo lavoro, pur non essendo elevati come in altre zone italiane, sono però ad un livello tale che non può essere del tutto ignorato. Lo scopo è quindi quello di preparare al meglio i territori interessati, adattando gli edifici e le infrastrutture al fine di proteggere le opere, di limitarne i rischi di demolizione e di salvare vite umane in caso di un evento oltremodo critico. Ad oggi si sente l´esigenza di un approccio globale che tenga conto del problema della sicurezza in campo urbanistico, a partire dal disegno concettuale di qualsiasi edificio e indipendentemente dalla sua funzione. Gli obiettivi dei potenziali adattamenti infrastrutturali, visti i rischi costieri dell’area compresa tra Marina di Ravenna e Lido Adriano, sono: • di generare efficaci standard costruttivi e metodologie di progettazione per le infrastrutture che si trovano in zone vulnerabili; • di garantire la sicurezza dei cittadini e delle attività in tali zone; • di ridurre l'impatto socio-economico delle catastrofi naturali. In questa tesi, in particolare, si fornirà un quadro generale dell’area studio, si approfondirà il tema del rischio costiero andando ad analizzare quali sono i rischi potenziali dell’area ed, all’interno di essa, le zone maggiormente in pericolo; si proporrà un metodo di valutazione economica degli stabilimenti balneari e della spiaggia ed infine si analizzeranno i principali adattamenti alle infrastrutture realizzabili.
Resumo:
L’aumento delle concentrazioni del diossido di carbonio in atmosfera dovuto alla combustione dei combustibili fossili è una fonte di grande preoccupazione a causa del suo impatto sul clima globale. La biomassa è l’unica fonte rinnovabile a poter essere convertita in combustibili e, tra i metodi di conversione, la pirolisi produce un liquido (bio-olio) che presenta potenzialità come combustibile. Le alghe sono una biomassa di interesse, ma il bio-olio che si ottiene è caratterizzato da composti contenenti ossigeno, zolfo e azoto che ne riducono la qualità. Tali elementi possono essere eliminati attraverso la scissione (cracking) con zeoliti con la produzione di idrocarburi. L’obiettivo dello studio è stato quello di valutare le caratteristiche del cracking catalitico di tre microalghe: Arthrospira platensis, Botryococcus braunii e Desmodesmus communis per la produzione di idrocarburi. Le biomasse sono state pirolizzate a 500 °C e i vapori prodotti termicamente sono stati fatti passare nella zeolite dove subiscono il cracking. Sono state utilizzate due zeolite a diversa acidità: un pellet H-ZSM5 (SiO2/Al2O3=38) e un monolite a base di HZSM5 (SiO2/Al2O3=80) e sepiolite. Dal cracking si ottengono sei frazioni pirolitiche: char, coke, fase acquosa, bio-olio, frazione volatile e gas non condensabili. Le frazioni sono state caratterizzate tramite analisi elementari e molecolari e dai dati ottenuti sono stati calcolati i bilanci di N, C e del potere calorifico. Per tutte le alghe si ottiene un bio-olio con un elevato contenuto di carbonio e fortemente deossigenato, ma le rese sono relativamente basse. I prodotti che contengono una maggior frazione del carbonio della biomassa iniziale sono il char ed il coke, seguiti dalla fase organica e dai gas. La distribuzione dell’azoto è simile ma con una maggiore frazione nella fase acquosa. Entrambi i catalizzatori agiscono migliorando la qualità del bio-olio tramite la riduzione dei composti azotati ed ossigenati e formando idrocarburi monoaromatici, tipici delle benzine, e poliaromatici. Il monolite, con zeolite meno acida, produce una maggior frazione di bio-olio caratterizzato, però, da una minor percentuale di composti aromatici. Si ritiene che l’aumento delle rese del bio-olio e la valorizzazione dei sottoprodotti (biochar, fase acquosa) siano indispensabili per la sostenibilità del processo.
Resumo:
Il Cryptolocker è un malware diffuso su scala globale appartenente alla categoria ransomware. La mia analisi consiste nel ripercorrere le origini dei software maligni alla ricerca di rappresentanti del genere con caratteristiche simili al virus che senza tregua persevera a partire dal 2013: il Cryptolocker. Per imparare di più sul comportamento di questa minaccia vengono esposte delle analisi del malware, quella statica e quella dinamica, eseguite sul Cryptolocker (2013), CryptoWall (2014) e TeslaCrypt (2015). In breve viene descritta la parte operativa per la concezione e la configurazione di un laboratorio virtuale per la successiva raccolta di tracce lasciate dal malware sul sistema e in rete. In seguito all’analisi pratica e alla concentrazione sui punti deboli di queste minacce, oltre che sugli aspetti tecnici alla base del funzionamento dei crypto, vengono presi in considerazione gli aspetti sociali e psicologici che caratterizzano un complesso background da cui il virus prolifica. Vengono confrontate fonti autorevoli e testimonianze per chiarire i dubbi rimasti dopo i test. Saranno questi ultimi a confermare la veridicità dei dati emersi dai miei esperimenti, ma anche a formare un quadro più completo sottolineando quanto la morfologia del malware sia in simbiosi con la tipologia di utente che va a colpire. Capito il funzionamento generale del crypto sono proprio le sue funzionalità e le sue particolarità a permettermi di stilare, anche con l’aiuto di fonti esterne al mio operato, una lista esauriente di mezzi e comportamenti difensivi per contrastarlo ed attenuare il rischio d’infezione. Vengono citati anche le possibili procedure di recupero per i dati compromessi, per i casi “fortunati”, in quanto il recupero non è sempre materialmente possibile. La mia relazione si conclude con una considerazione da parte mia inaspettata: il potenziale dei crypto, in tutte le loro forme, risiede per la maggior parte nel social engineering, senza il quale (se non per certe categorie del ransomware) l’infezione avrebbe percentuali di fallimento decisamente più elevate.
Resumo:
In questa tesi viene presentato il modello di Keller-Segel per la chemiotassi, un sistema di tipo parabolico-ellittico che appare nella descrizione di molti fenomeni in ambito biologico e medico. Viene mostrata l'esistenza globale della soluzione debole del modello, per dati iniziali sufficientemente piccoli in dimensione N>2. La scelta di dati iniziali abbastanza grandi invece può causare il blow-up della soluzione e viene mostrato sotto quali condizioni questo si verifica. Infine il modello della chemiotassi è stato applicato per descrivere una fase della malattia di Alzheimer ed è stata effettuata un'analisi di stabilità del sistema.
Resumo:
Dopo la fine della Seconda Guerra Mondiale si diffuse tra gli studiosi europei l’idea che la letteratura per l’infanzia avrebbe generato un nuovo spirito di unità e comprensione tra i popoli e portato a una “repubblica universale dell’infanzia”. Tale ideale romantico non si realizzò esattamente come quegli studiosi avevano sperato. L’emergere delle forze dell’economia globale di mercato alla fine del XX secolo ha, infatti, determinato un’enorme diffusione a livello internazionale della traduzione di libri per l’infanzia, ma il mercato delle traduzioni è assolutamente dominato da traduzioni dall’inglese verso lingue “minori”; inoltre, anche quando si sceglie di tradurre da lingue non-europee, i traduttori adattano le opere ai sistemi di arrivo, spesso manipolando anche pesantemente il testo di partenza. Non si genera quindi una vera conoscenza e comprensione verso l’altro, ma solo un riecheggiare senza fine di ciò che il bambino già conosce o si aspetta. Tale pratica è particolarmente nociva in una società multiculturale e multietnica come l’Italia, in cui i bambini studiano, giocano, crescono insieme a bambini di origine cinese, rumena, marocchina, delle cui culture però sanno poco o nulla. La presente tesi si propone quindi di fornire una traduzione verso l’italiano di due brani tratti dalla raccolta di racconti per l’infanzia Huangyuan Maowu 荒原茅屋 (La capanna nella vallata) di Cao Wenxuan. Il primo capitolo fornisce una definizione della letteratura per l’infanzia e delle sue caratteristiche e presenta alcuni approcci teorici alla sua traduzione. Nel secondo capitolo si ripercorrono la storia e gli sviluppi della letteratura per l’infanzia in Cina dall’epoca imperiale agli inizi del XXI secolo. Il terzo capitolo, infine, presenta la proposta di traduzione e a seguire il relativo commento traduttologico.
Resumo:
L'accurata determinazione dei parametri che costituiscono un modello cosmologico è fondamentale per caratterizzare correttamente l'evoluzione globale dell'universo e per spiegare le sue caratteristiche locali. Per quanto riguarda questo lavoro di Tesi abbiamo studiato l'efficienza di un particolare metodo per la stima del parametro di densità della materia detto test di Alcock-Paczynski. Con tale metodo si studiando le distorsioni geometriche che un’errata assunzione dei parametri cosmologici introduce nella funzione di correlazione a due punti bidimensionale. Abbiamo applicato il test a diversi cataloghi prodotti dalla simulazione Magneticum. In particolare abbiamo studiato come l'efficienza del metodo nel riconoscere il corretto valore del parametro di densità dipenda dal tipo di tracciante considerato, dal redshift d'osservazione e dai metodi di modelizzazione delle distorsioni dovute alla dinamica degli oggetti osservati. Si è potuto osservare come l’efficienza del metodo dipenda dalla densità d’oggetti contenuti nel catalogo (rendendo le galassie il tracciante migliore su cui applicare il test) e dall’ampiezza dell’effetto di distorsione geometrica, massimo per redshift vicini a 1. Abbiamo verificato che considerare come indipendenti le misure effettuate sui cataloghi a diversi redshift migliora l’identificazione del corretto valore del parametro di densità. Nella combinazione delle diverse misure, inoltre, si nota che i contributi meno significativi vengono dai redshift estremi dell’intervallo considerato, ma i singoli risultati, per quanto incerti, non intaccano il risultato finale. Infine si è osservato come ridurre il numero di parametri liberi attraverso i quali si introducono nei modelli le distorsioni dinamiche, in particolar modo gli effetti di distorsione a piccole scale, migliora sensibilmente l’efficacia del metodo.
Resumo:
Il cambiamento climatico è un fenomeno in atto a livello globale, oggi scientificamente dimostrato, irreversibile nel breve periodo, i cui effetti hanno già provocato nel Mondo ingenti perdite sociali, economiche ed ecosistemiche. Il fattore di incertezza che permane riguarda il modo in cui evolverà il clima nel futuro, che a sua volta dipende dalle quantità di gas climalteranti che continueranno ad essere immesse in atmosfera, e di conseguenza la tipologia e la dimensione degli impatti che potranno verificarsi. Di fronte all’inevitabilità del problema e dei rischi che ne derivano, l’uomo può adattarsi, come per sua natura ha sempre fatto di fronte a condizioni esterne – anche climatiche – avverse. Le strategie di adattamento al cambiamento climatico, secondo un approccio bottom-up, mirano a ridurre la vulnerabilità dei sistemi esposti alle variazioni del clima, rendendoli più preparati ad affrontare il futuro. Oltre ai fattori climatici vi sono altri elementi che incidono in modo determinante sulla vulnerabilità: sono tutte le variabili interne e specifiche di un sistema che ne definiscono il grado di sensibilità verso un potenziale danno. Lo studio ha focalizzato l’attenzione su tre Comuni dell’Appennino Faentino al fine di capire come il cambiamento climatico influisce sulle criticità naturali già esistenti e sulla vita dell’uomo e le sue attività e, conseguentemente, quali azioni potranno essere messe in atto per limitare il pericolo e i potenziali danni.