136 resultados para Gouvernance locale
Resumo:
La presente tesi magistrale si inserisce nell’ambito del progetto Language Toolkit e nasce in particolare dalla collaborazione tra il presente autore e l’azienda Tecnopress S.a.s. Nell’ottica dell’internazionalizzazione della propria attività l’azienda ha richiesto che il proprio sito web venisse sottoposto ad un processo di localizzazione dall’italiano verso l’inglese. Sulla base di queste premesse si è deciso di dividere il lavoro in tre parti: una fase teorica, una fase preparatoria e una fase pratica. La prima fase si è occupata di gettare le basi teoriche necessarie per affrontare consapevolmente l’incarico assegnato. Alla luce delle conclusioni della fase teorica è stata constatata l’esigenza di modificare la natura dell’intervento che si era preventivato di effettuare sul sito web. Fulcro della localizzazione è infatti il locale, ovvero la combinazione di regione socioculturale e lingua presa a riferimento per un processo di localizzazione web. Nelle richieste avanzate dall’azienda figuravano esclusivamente indicazioni relative alla lingua (l’inglese), non già alla regione socioculturale su cui modellare l’intervento di localizzazione del sito. Si è rivelato pertanto necessario procedere autonomamente alla definizione di un locale per il presente progetto, che è stato fatto coincidere con la macrozona europea e cui è stato associato un modello ibrido di English Lingua Franca e Simplified Technical English. Il focus dell’intervento non è stato dunque una regione geografica circoscritta ma una realtà socioculturale molto più ampia e variegata: l’adozione di un locale così ampio e il rispetto dell’indicazione sulla lingua hanno portato il presente autore a optare per un intervento di standardizzazione web. Chiude il presente lavoro una fase operativa, durante la quale sono state create le risorse necessarie al progetto (si segnala in particolare un corpus su misura) e sono state effettuate la standardizzazione e una serie di considerazioni traduttive.
Resumo:
Il progetto di tesi parte dall'analisi di morfologia e cultura di Bogotà e della localidad di intervento, Usme. La ricerca prosegue con un’analisi teorica che riguarda il teatro fuori dall’edificio teatrale, nell’esperienza della cultura locale e non. Continua poi con lo studio e la dettate dal “Genius loci” di C. Norberg Schulz. Questi due scomposizione della morfologia attraverso le linee guida temi si compenetrano infine nella parte progettuale, volta alla definizione di un centro per le arti dello spettacolo, inserito nel contesto naturale che diviene anche orto botanico.
Resumo:
In questa tesi abbiamo effettuato la caratterizzazione dinamica del celebre ponte pedonale sito a Vagli di Sotto, in Garfagnana (Lucca) e del suo suolo di fondazione. L’opera fu progettata dall’ing. Riccardo Morandi nel 1953 per mettere in comunicazione l’abitato di Vagli di Sopra con i paesi circostanti, dopo l’allagamento della valle sottostante ad opera di una diga in costruzione nello stesso anno. L’opera è interessante per il modo in cui fu costruita in sito e per il fatto di essere - esempio raro - un ponte con fondazioni sommerse da un invaso artificiale per gran parte del tempo e per essere stato costruito in una zona in cui la progettazione antisismica moderna prevederebbe accortezze molto diverse a livello di progettazione. Abbiamo avuto occasione di effettuare la caratterizzazione dinamica dell’opera e del sottosuolo prima ad invaso completamente svuotato (evento che si verifica in media solo ogni 20 anni, per lavori di manutenzione della diga) e successivamente ad invaso riempito. Questo ha permesso di verificare come e se il livello dell’acqua influenzi la risposta dinamica del ponte. E’ stata infine effettuata un’analisi numerica di risposta sismica locale per stimare le accelerazioni tipiche a cui sarebbe sottoposta la struttura in caso di terremoto e le accelerazioni tipiche con cui tale opera dovrebbe essere progettata o sismicamente adeguata al giorno d’oggi.
Resumo:
Il Lago di Cavazzo (o dei Tre Comuni) è il più esteso lago naturale del Friuli Venezia Giulia. Situato nelle Prealpi Carniche, in provincia di Udine, è ubicato in un’antica valle scavata in epoca pre – glaciale dal fiume Tagliamento, che oggi scorre circa 3 km ad Est. A partire dagli anni ’40, la S.A.D.E. (ora Edipower) ottenne le concessioni per la costruzione di una serie di impianti idroelettrici in tutto il Friuli Venezia Giulia che nel 1954 portò alla realizzazione della Centrale idroelettrica di Somplago, costruita in caverna lungo la sponda Nord – occidentale del lago. La Centrale turbina le acque di scarico provenienti dai bacini di accumulo superiori («Lumiei», «Ambiesta») e da altre prese minori sul Tagliamento, immettendo a sua volta le acque turbinate all’interno del lago di Cavazzo tramite galleria. Dai dati disponibili in letteratura, dalle cronache e dai resoconti riportati dalla popolazione locale, l’attività della Centrale ha notevolmente influenzato l’equilibrio di questo ambiente, in termini geologici, biologici ed idrologici, soprattutto a causa dell’enorme volume di acqua fredda (e relativi sedimenti) scaricata, delle continue variazioni di livello dell’acqua per regolarne il volume di invaso e dello scavo del canale emissario, localizzato nell’estremità meridionale. Nel Maggio 2015 l’ISMAR – CNR di Bologna ha effettuato un rilievo geofisico del lago, tramite tecniche non distruttive di ecografia e sismica a riflessione, in grado di analizzare la stratigrafia superficiale e la distribuzione degli apporti sedimentari, con lo scopo di quantificare da questo punto di vista l’impatto della Centrale sul lago. I dati acquisiti, che comprendono profili sismici ad alta risoluzione, profili batimetrici single/multi – beam ed immagini side – scan sonar, sono stati successivamente elaborati per realizzare varie mappe tematiche (morfobatimetria, riflettività, gradiente topografico e spessore dei sedimenti penetrabili dal segnale sismico) che hanno permesso di descrivere l’attuale assetto deposizionale del lago. Sono stati inoltre effettuati alcuni carotaggi in vari punti della conca lacustre, al fine di quantificare il tasso di sedimentazione e le caratteristiche fisiche dei depositi. Scopo di questo lavoro di Tesi è stato analizzare, interpretare e discutere in una prospettiva di evoluzione ambientale del lago i dati geofisici e geologici raccolti nell’ambito della campagna del Maggio 2015 e reperiti in bibliografia.
Resumo:
Dopo aver dato una definizione formale per il modello di Erdos-Rényi, si dimostra che in un grafo ER il grado dei nodi (misura della connessione) risulta essere una variabile aleatoria con distribuzione binomiale, mentre il clustering (misura della densità di archi a livello locale) tende a zero. Successivamente si determinano le funzioni soglia per alcune proprietà monotone particolarmente significative, consentendo così di descrivere diverse configurazioni possibili per un grafo ER al variare dei suoi parametri. Infine, si mostra come si possano utilizzare i grafi ER per modellizzare la diffusione di una malattia infettiva all’interno di una popolazione numerosa.
Resumo:
Lo scopo del presente lavoro di tesi è l’implementazione di un metodo per la detezione automatica dei contorni dell’esofago in immagini ecografiche intracardiache acquisite durante procedure di ablazione transcatetere per il trattamento della fibrillazione atriale. Il progetto si è svolto in collaborazione con il laboratorio di elettrofisiologia, Unità Operativa di Cardiologia, Dipartimento Cardiovascolare, dell’ospedale ‘’ S. Maria delle Croci ’’ di Ravenna, Azienda Unità Sanitaria Locale della Romagna e si inserisce in un progetto di ricerca più ampio in cui sono stati sviluppati due differenti metodi per il tracciamento automatico della parete posteriore dell’atrio sinistro. L’obiettivo è consentire al clinico il monitoraggio della posizione dell’esofago rispetto all’atrio sinistro per ridurre il rischio di lesioni della parete esofagea. L’idea di base dell’algoritmo è di lavorare sull’immagine per linee di scansione orizzontali, valutando la distribuzione dei livelli di intensità di grigio. Una volta individuati i punti appartenenti alle pareti anteriore e posteriore dell’esofago, sono stati utilizzati dei polinomi rispettivamente del quarto e secondo ordine per interpolare i dati. Per assicurarsi che la detezione sia corretta è stato introdotto un check aggiuntivo che consente la correzione del risultato qualora il clinico non sia soddisfatto, basandosi su input manuale di due punti richiesto all’operatore. L’algoritmo è stato testato su 15 immagini, una per ogni paziente, e i contorni ottenuti sono stati confrontati con i tracciamenti manuali effettuati da un cardiologo per valutare la bontà del metodo. Le metriche di performance e l’analisi statistica attestano l’accuratezza del metodo. Infine sono state calcolate delle misure di interesse clinico, quali la distanza tra parete posteriore dell’atrio sinistro e parete anteriore dell’esofago e la larghezza media di quest’ultimo che risulta comparabile con quanto riportato in letteratura.
Resumo:
Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.
Resumo:
Il caranto è un celebre paleosuolo della laguna di Venezia. Esso si presenta come uno strato argilloso di alcuni metri di spessore, a profondità variabile tra 1 e 25 m, fortemente consolidato, al punto che, secondo la tradizione locale, sarebbe il livello sul quale si impostano i pali di fondazione della città di Venezia. Misure di microtremore sismico ambientale nell’area lagunare acquisite in precedenza hanno mostrato amplificazioni delle onde sismiche per risonanza stratigrafica a frequenze medio-alte (sopra 3 Hz), ricollegabili a riflettori sismici superficiali. Tali amplificazioni riguardano frequenze di interesse ingegneristico per le strutture della città lagunare e delle altre isole, in quanto a frequenze superiori a 3 Hz risuona la maggior parte degli edifici in muratura più bassi di 5 piani, come quelli della città. Questo li renderebbe particolarmente vulnerabili per fenomeni di doppia-risonanza in caso di terremoto. Attraverso misure di risonanza del sottosuolo eseguite ad hoc e reperite in letteratura, abbiamo cercato se esista una correlazione tra le frequenze misurate e le profondità stimate del caranto da dati di sondaggio. Abbiamo trovato che tale correlazione esiste ed è netta a patto di assumere che la velocità di propagazione delle onde di taglio nel sottosuolo sia diversa tra centro storico e zona dei litorali della laguna. Tale differenza di valori, oltre ad essere perfettamente in linea con la geologia locale, che prevede argille nella zona insulare e sabbie nelle zone litoranee, è confermata dalle risultanze di prove sismiche multicanale a onde di superficie effettuate in anni passati per la microzonazione sismica della provincia. Si propone infine una relazione tra unità geologiche e valori di velocità delle onde di taglio nelle stesse, che permette di stimare la profondità del caranto a partire da misure di risonanza, del tutto non invasive. I risultati ottenuti sono utili sia in senso geologico che in senso ingegneristico sismico, poiché identificano le frequenze di massima amplificazione sismica del terreno
Resumo:
Lo scopo di questa tesi è lo sviluppo di una protesi valvolare sensorizzata per la valutazione e il monitoraggio dei parametri funzionali della valvola e di conseguenza la realizzazione un prototipo di PHV (Prosthetic Heart Valve) che integri all’interno delle protesi valvolari in commercio una tecnologia utile alla realizzazione di queste specifiche. Il segnale di impedenza intravalvolare (IVI) è ottenuto grazie ad un sistema di elettrodi utili alla generazione di un campo elettrico locale e alla successiva registrazione della differenza di potenziale. Il lavoro sperimentale è stato suddiviso in due parti: una prima parte deputata alla scelta della posizione ottimale degli elettrodi rispetto ai lembi, al piano e all’anello valvolare, al fine di determinare due prototipi, ed una seconda parte in cui sono stati testati i prototipi in una situazione più fisiologica, cioè in un tratto di aorta bovina, ed è stata simulata una dinamica valvolare alterata. Il maggior segnale di impedenza riscontrato è stato ottenuto ponendo gli elettrodi ortogonalmente al cardine dei lembi valvolari e sovrapponendo elettrodo di eccitazione e ricezione al fine di ottenere un campo elettrico costante e ricezione puntuale della variazione del campo. Infine è stato riscontrato che il segnale di impedenza intravalvolare è in grado di riflettere alterazioni simulate dei lembi.
Resumo:
La nascita della Internet of Things, come conseguenza dell'aumento della capacità di calcolo e adozione di connettività in nuovi dispositivi, ha permesso l'apporto di nuove tecnologie negli oggetti di uso quotidiano e ha cambiano il modo in cui le persone utilizzano e interagiscono con questi oggetti. La Home Automation, da sempre orientata al controllo locale e remoto di apparecchiature domestiche, non ha mai raggiunto una grande diffusione per colpa del costo elevato, una controproducente chiusura rispetto ad altri sistemi e una certa difficoltà nella sua programmazione da parte dei possibili utenti. Le possibilità offerte dalla IoT e i limiti della Home Automation hanno suggerito lo sviluppo di un sistema in grado si superare queste limitazioni sfruttando le tecnologie più adatte a integrare Smart Object e sistemi, gli uni con gli altri, in maniera semplice e rapida. Il progetto e lo sviluppo di una soluzione reale di Home Automation basata su un impianto domotico commerciale ha permesso di dimostrare come strumenti opensource e tecnologie orientate alla IoT consentano, se opportunamente integrate, di migliorare sia la fruibilità dei sistemi domotici, attraverso la maggiore apertura verso altri sistemi, sia l'interazione con l'utente che sarà in grado di creare in modo semplice e diretto scenari di utilizzo sempre nuovi.
Resumo:
Questa tesi si propone di mettere in evidenza la forte spinta innovatrice che internet potrebbe dare allo sviluppo della democrazia, avendo abbattuto in maniera brutale i confini geo-politici, democratizzato addirittura all'esasperazione la libertà di parola e la possibilità di ognuno di far sentire la propria opinione ad un pubblico globale, rendendo sterile qualsivoglia regolamentazione locale e creando nuove e importanti problematiche di portata universale. Sulla rete viaggiano senza soluzione di continuità dati di ogni tipo, si concretizzano transazioni, si intrecciano relazioni, il tutto sorpassando agilmente le barriere fisiche dei confini nazionali, la distanza, le leggi, mettendo quindi l’umanità di fronte alla nuova sfida di armonizzare i vari ordinamenti giuridici, superare il concetto di sovranità nazionale e di creare un meccanismo democratico e partecipato di gestione della rete. La extraterritorialità della rete e il fatto che non si possa qualificare un "popolo sovrano" appartenente a questa entità, ha come vedremo posto l’umanità di fronte a nuove e ardue sfide: la necessità di regolare un mezzo così potente e diffuso ha portato negli anni ad un lungo dibattito, che vedremo, e che pone questioni di importanza capitale per la società di oggi così come la conosciamo: "si può esigere che l’evoluzione tecnologica della rete sia orientata al raggiungimento di obiettivi di interesse pubblico?", "chi deve gestire la rete?", "usufruire di internet è un diritto della persona?", "chi è il soggetto che ha possibilità e facoltà di intervenire efficacemente per la normazione della rete? I privati, lo Stato, gli utenti, o è necessario un quadro concertato che consideri tutti i pareri e gli interessi sulla questione?".
Resumo:
Dopo una breve introduzione sulla realtà aumentata (definizione, storia e stato dell’arte) viene effettuata un'analisi delle librerie esistenti per l’implementazione su dispositivi mobile. Considerando compatibilità con i recenti SO, frequenza degli aggiornamenti, costi per le licenze e funzionalità offerte viene scelta la libreria Vuforia, originariamente sviluppata da Qualcomm e poi acquistata da PTC inc. Si conviene poi che le apps basate su realtà aumentata creano il contenuto “aumentato” in due maniere: o tramite riconoscimento di una specifica immagine oppure tramite localizzazione GPS. Di questi due metodi descritti, il primo risulta molto più affidabile e per questo viene sviluppata una app che crea un contenuto in 3D (aumentato) riconoscendo una immagine: funzionalità di Image Targeting. Il progetto considera le seguenti varianti: l’immagine da riconoscere, chiamata “target”, può essere in un database locale oppure cloud mentre il contenuto in 3D aumentato può essere sia statico che animato. Durante la fase di implementazione vengono fornite anche alcuni nozioni di base di Computer Graphic per il rendering del modello 3D. La tesi si conclude con una panoramica di apps presenti sullo store che funzionano secondo questo principio di Image Targeting, i possibili utilizzi in ambito educativo/ludico ed i costi di realizzazione.
Resumo:
Il presente lavoro si riferisce ad una delle attività di monitoraggio topografico più diffuse e consolidate: il controllo altimetrico per mezzo della livellazione geometrica di precisione, finalizzato alla determinazione dei dislivelli – e della loro variazione nel tempo – tra capisaldi appositamente istituiti sulla struttura. Va ricordato infatti che in Topografia non è possibile determinare direttamente la quota assoluta di un punto, ma solamente il dislivello, ossia la differenza di quota fra punti della superficie fisica. Il caso di studio si riferisce nello specifico ad un oggetto di grandissimo interesse: le Due Torri di Bologna. La Torre degli Asinelli e la Torre Garisenda di Bologna sono infatti soggette da lungo tempo ad una attività di monitoraggio altimetrico con la tecnica della livellazione geometrica di precisione, oggi realizzata con strumentazione digitale. L’attività viene condotta dall’area di Geomatica del Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei Materiali (DICAM) dell’Università di Bologna in collaborazione con il Comune di Bologna. Scopo della tesi è illustrare gli aspetti teorici alla base della tecnica della livellazione geometrica e le operazioni che sono state eseguite sul campo ed in laboratorio, in affiancamento a quanto effettuato dal DICAM con il coordinamento del Prof. G. Bitelli. Nel Capitolo 1 viene descritta la metodologia di rilevamento mediante livellazione geometrica di precisione e la tecnica di elaborazione dei dati tramite la compensazione per osservazioni indirette secondo il principio dei minimi quadrati. Nel Capitolo 2 viene presentato il caso di studio e descritto il rilievo che è stato effettuato durante il periodo della tesi. Vengono illustrate le fasi operative sul campo e la successiva fase di predisposizione dei dati per la compensazione. Infine si illustra l’elaborazione numerica realizzata per la determinazione delle quote nel sistema di riferimento locale utilizzato.
Resumo:
Negli ultimi anni l'utilizzo di ciclotroni per la produzione di radionuclidi, impiegati nell'ambito della Medicina Nucleare, è diventato un processo sempre più diffuso e numerosi sono i modelli commercialmente disponibili. L'impiego di questo tipo di apparecchiature porta a considerare questioni rilevanti legate alla radioprotezione che coinvolgono una serie di aspetti complessi sia nella fase progettuale del sistema, sia nell'ottenimento delle necessarie autorizzazioni. In particolare, uno dei problemi radioprotezionistici da affrontare è legato alla dispersione in ambiente di aeriformi radioattivi, prodotti dall'interazione di flussi di particelle secondarie con l'aria. In questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria dell'Ospedale Sant'Orsola di Bologna, si è cercato di caratterizzare l'emissione di tali gas radioattivi considerando l'effetto del sistema di ventilazione. E' stata eseguita un'estesa campagna di misurazioni in diversi punti di campionamento, collocati lungo il percorso di estrazione dell'aria: dal bunker fino all'immissione in ambiente. Sono stati ideati e realizzati dei compatti sistemi di campionamento che hanno permesso di definire, attraverso un sistema di spettrometria gamma equipaggiato con rivelatore al HPGe, una sistematica procedura per la determinazione di concentrazione di attività. I risultati ottenuti mostrano come, durante la routine di produzione di 18F mediante ciclotrone, il processo più rilevante di attivazione dell'aria sia la produzione di 41Ar (T1/2=109.34 minuti), unico radionuclide identificato in tutte le misurazioni. Infine, sulla base dei dati sperimentali ottenuti, è stata effettuata una valutazione della dose rilasciata alla popolazione locale. Il risultato, pari a 0.19 µSv/anno, può essere considerato trascurabile rispetto alla soglia di "non rilevanza radiologica", a dimostrazione di come le tipiche procedure in ambito di Medicina Nucleare possano essere considerate del tutto giustificate.
Resumo:
Grazie alla costante evoluzione tecnologica, negli ultimi anni sempre più oggetti di vita quotidiana stanno accedendo ad Internet. Il proliferare dei dispositivi “smart” ha dato il via ad una nuova rivoluzione tecnologica: quella di Internet of Things (IoT), che sta portando nelle mani degli utenti un elevatissimo numero di informazioni in grado di offrire notevoli benefici alla vita di ogni giorno. Per poter accedere ai dati messi a disposizione risulterà necessario realizzare un servizio in grado di consentire la scoperta, l’accesso e l’interazione con i nodi della rete che si occuperanno della gestione delle informazioni. In letteratura sono già disponibili alcuni di questi meccanismi, ma essi presentano dei difetti che verrebbero ancor più accentuati dalle ridotte capacità computazionali dei terminali IoT. In questo progetto di tesi verrà presentato un servizio di discovery per gateway IoT Kura-based, pensato, grazie all’utilizzo del protocollo di messaggistica MQTT, per operare con terminali dalle performance limitate ed in situazioni di scarsa connettività. Il servizio realizzato prevede che degli smartphone Android richiedano a tutti i gateway in una determinata località i parametri per entrare nel loro network. La richiesta verrà inviata mediante un messaggio MQTT pubblicato in un topic location-specific su un broker remoto. I gateway che riceveranno il messaggio, se interessati alle caratteristiche del client, gli risponderanno comunicando i dati di accesso al network in modo che il dispositivo possa auto-configurarsi per accedervi. Ad accesso avvenuto client e gateway comunicheranno in modo diretto attraverso un broker locale. In fase di testing si valuteranno le performance del servizio analizzando i tempi di risposta e l’utilizzo di risorse lato gateway, e l’assorbimento di potenza lato client.