845 resultados para Gouvernance locale
Resumo:
Lo scopo del presente lavoro di tesi è l’implementazione di un metodo per la detezione automatica dei contorni dell’esofago in immagini ecografiche intracardiache acquisite durante procedure di ablazione transcatetere per il trattamento della fibrillazione atriale. Il progetto si è svolto in collaborazione con il laboratorio di elettrofisiologia, Unità Operativa di Cardiologia, Dipartimento Cardiovascolare, dell’ospedale ‘’ S. Maria delle Croci ’’ di Ravenna, Azienda Unità Sanitaria Locale della Romagna e si inserisce in un progetto di ricerca più ampio in cui sono stati sviluppati due differenti metodi per il tracciamento automatico della parete posteriore dell’atrio sinistro. L’obiettivo è consentire al clinico il monitoraggio della posizione dell’esofago rispetto all’atrio sinistro per ridurre il rischio di lesioni della parete esofagea. L’idea di base dell’algoritmo è di lavorare sull’immagine per linee di scansione orizzontali, valutando la distribuzione dei livelli di intensità di grigio. Una volta individuati i punti appartenenti alle pareti anteriore e posteriore dell’esofago, sono stati utilizzati dei polinomi rispettivamente del quarto e secondo ordine per interpolare i dati. Per assicurarsi che la detezione sia corretta è stato introdotto un check aggiuntivo che consente la correzione del risultato qualora il clinico non sia soddisfatto, basandosi su input manuale di due punti richiesto all’operatore. L’algoritmo è stato testato su 15 immagini, una per ogni paziente, e i contorni ottenuti sono stati confrontati con i tracciamenti manuali effettuati da un cardiologo per valutare la bontà del metodo. Le metriche di performance e l’analisi statistica attestano l’accuratezza del metodo. Infine sono state calcolate delle misure di interesse clinico, quali la distanza tra parete posteriore dell’atrio sinistro e parete anteriore dell’esofago e la larghezza media di quest’ultimo che risulta comparabile con quanto riportato in letteratura.
Resumo:
Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.
Resumo:
Il caranto è un celebre paleosuolo della laguna di Venezia. Esso si presenta come uno strato argilloso di alcuni metri di spessore, a profondità variabile tra 1 e 25 m, fortemente consolidato, al punto che, secondo la tradizione locale, sarebbe il livello sul quale si impostano i pali di fondazione della città di Venezia. Misure di microtremore sismico ambientale nell’area lagunare acquisite in precedenza hanno mostrato amplificazioni delle onde sismiche per risonanza stratigrafica a frequenze medio-alte (sopra 3 Hz), ricollegabili a riflettori sismici superficiali. Tali amplificazioni riguardano frequenze di interesse ingegneristico per le strutture della città lagunare e delle altre isole, in quanto a frequenze superiori a 3 Hz risuona la maggior parte degli edifici in muratura più bassi di 5 piani, come quelli della città. Questo li renderebbe particolarmente vulnerabili per fenomeni di doppia-risonanza in caso di terremoto. Attraverso misure di risonanza del sottosuolo eseguite ad hoc e reperite in letteratura, abbiamo cercato se esista una correlazione tra le frequenze misurate e le profondità stimate del caranto da dati di sondaggio. Abbiamo trovato che tale correlazione esiste ed è netta a patto di assumere che la velocità di propagazione delle onde di taglio nel sottosuolo sia diversa tra centro storico e zona dei litorali della laguna. Tale differenza di valori, oltre ad essere perfettamente in linea con la geologia locale, che prevede argille nella zona insulare e sabbie nelle zone litoranee, è confermata dalle risultanze di prove sismiche multicanale a onde di superficie effettuate in anni passati per la microzonazione sismica della provincia. Si propone infine una relazione tra unità geologiche e valori di velocità delle onde di taglio nelle stesse, che permette di stimare la profondità del caranto a partire da misure di risonanza, del tutto non invasive. I risultati ottenuti sono utili sia in senso geologico che in senso ingegneristico sismico, poiché identificano le frequenze di massima amplificazione sismica del terreno
Resumo:
Lo scopo di questa tesi è lo sviluppo di una protesi valvolare sensorizzata per la valutazione e il monitoraggio dei parametri funzionali della valvola e di conseguenza la realizzazione un prototipo di PHV (Prosthetic Heart Valve) che integri all’interno delle protesi valvolari in commercio una tecnologia utile alla realizzazione di queste specifiche. Il segnale di impedenza intravalvolare (IVI) è ottenuto grazie ad un sistema di elettrodi utili alla generazione di un campo elettrico locale e alla successiva registrazione della differenza di potenziale. Il lavoro sperimentale è stato suddiviso in due parti: una prima parte deputata alla scelta della posizione ottimale degli elettrodi rispetto ai lembi, al piano e all’anello valvolare, al fine di determinare due prototipi, ed una seconda parte in cui sono stati testati i prototipi in una situazione più fisiologica, cioè in un tratto di aorta bovina, ed è stata simulata una dinamica valvolare alterata. Il maggior segnale di impedenza riscontrato è stato ottenuto ponendo gli elettrodi ortogonalmente al cardine dei lembi valvolari e sovrapponendo elettrodo di eccitazione e ricezione al fine di ottenere un campo elettrico costante e ricezione puntuale della variazione del campo. Infine è stato riscontrato che il segnale di impedenza intravalvolare è in grado di riflettere alterazioni simulate dei lembi.
Resumo:
La nascita della Internet of Things, come conseguenza dell'aumento della capacità di calcolo e adozione di connettività in nuovi dispositivi, ha permesso l'apporto di nuove tecnologie negli oggetti di uso quotidiano e ha cambiano il modo in cui le persone utilizzano e interagiscono con questi oggetti. La Home Automation, da sempre orientata al controllo locale e remoto di apparecchiature domestiche, non ha mai raggiunto una grande diffusione per colpa del costo elevato, una controproducente chiusura rispetto ad altri sistemi e una certa difficoltà nella sua programmazione da parte dei possibili utenti. Le possibilità offerte dalla IoT e i limiti della Home Automation hanno suggerito lo sviluppo di un sistema in grado si superare queste limitazioni sfruttando le tecnologie più adatte a integrare Smart Object e sistemi, gli uni con gli altri, in maniera semplice e rapida. Il progetto e lo sviluppo di una soluzione reale di Home Automation basata su un impianto domotico commerciale ha permesso di dimostrare come strumenti opensource e tecnologie orientate alla IoT consentano, se opportunamente integrate, di migliorare sia la fruibilità dei sistemi domotici, attraverso la maggiore apertura verso altri sistemi, sia l'interazione con l'utente che sarà in grado di creare in modo semplice e diretto scenari di utilizzo sempre nuovi.
Resumo:
Questa tesi si propone di mettere in evidenza la forte spinta innovatrice che internet potrebbe dare allo sviluppo della democrazia, avendo abbattuto in maniera brutale i confini geo-politici, democratizzato addirittura all'esasperazione la libertà di parola e la possibilità di ognuno di far sentire la propria opinione ad un pubblico globale, rendendo sterile qualsivoglia regolamentazione locale e creando nuove e importanti problematiche di portata universale. Sulla rete viaggiano senza soluzione di continuità dati di ogni tipo, si concretizzano transazioni, si intrecciano relazioni, il tutto sorpassando agilmente le barriere fisiche dei confini nazionali, la distanza, le leggi, mettendo quindi l’umanità di fronte alla nuova sfida di armonizzare i vari ordinamenti giuridici, superare il concetto di sovranità nazionale e di creare un meccanismo democratico e partecipato di gestione della rete. La extraterritorialità della rete e il fatto che non si possa qualificare un "popolo sovrano" appartenente a questa entità, ha come vedremo posto l’umanità di fronte a nuove e ardue sfide: la necessità di regolare un mezzo così potente e diffuso ha portato negli anni ad un lungo dibattito, che vedremo, e che pone questioni di importanza capitale per la società di oggi così come la conosciamo: "si può esigere che l’evoluzione tecnologica della rete sia orientata al raggiungimento di obiettivi di interesse pubblico?", "chi deve gestire la rete?", "usufruire di internet è un diritto della persona?", "chi è il soggetto che ha possibilità e facoltà di intervenire efficacemente per la normazione della rete? I privati, lo Stato, gli utenti, o è necessario un quadro concertato che consideri tutti i pareri e gli interessi sulla questione?".
Resumo:
Dopo una breve introduzione sulla realtà aumentata (definizione, storia e stato dell’arte) viene effettuata un'analisi delle librerie esistenti per l’implementazione su dispositivi mobile. Considerando compatibilità con i recenti SO, frequenza degli aggiornamenti, costi per le licenze e funzionalità offerte viene scelta la libreria Vuforia, originariamente sviluppata da Qualcomm e poi acquistata da PTC inc. Si conviene poi che le apps basate su realtà aumentata creano il contenuto “aumentato” in due maniere: o tramite riconoscimento di una specifica immagine oppure tramite localizzazione GPS. Di questi due metodi descritti, il primo risulta molto più affidabile e per questo viene sviluppata una app che crea un contenuto in 3D (aumentato) riconoscendo una immagine: funzionalità di Image Targeting. Il progetto considera le seguenti varianti: l’immagine da riconoscere, chiamata “target”, può essere in un database locale oppure cloud mentre il contenuto in 3D aumentato può essere sia statico che animato. Durante la fase di implementazione vengono fornite anche alcuni nozioni di base di Computer Graphic per il rendering del modello 3D. La tesi si conclude con una panoramica di apps presenti sullo store che funzionano secondo questo principio di Image Targeting, i possibili utilizzi in ambito educativo/ludico ed i costi di realizzazione.
Resumo:
Il presente lavoro si riferisce ad una delle attività di monitoraggio topografico più diffuse e consolidate: il controllo altimetrico per mezzo della livellazione geometrica di precisione, finalizzato alla determinazione dei dislivelli – e della loro variazione nel tempo – tra capisaldi appositamente istituiti sulla struttura. Va ricordato infatti che in Topografia non è possibile determinare direttamente la quota assoluta di un punto, ma solamente il dislivello, ossia la differenza di quota fra punti della superficie fisica. Il caso di studio si riferisce nello specifico ad un oggetto di grandissimo interesse: le Due Torri di Bologna. La Torre degli Asinelli e la Torre Garisenda di Bologna sono infatti soggette da lungo tempo ad una attività di monitoraggio altimetrico con la tecnica della livellazione geometrica di precisione, oggi realizzata con strumentazione digitale. L’attività viene condotta dall’area di Geomatica del Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei Materiali (DICAM) dell’Università di Bologna in collaborazione con il Comune di Bologna. Scopo della tesi è illustrare gli aspetti teorici alla base della tecnica della livellazione geometrica e le operazioni che sono state eseguite sul campo ed in laboratorio, in affiancamento a quanto effettuato dal DICAM con il coordinamento del Prof. G. Bitelli. Nel Capitolo 1 viene descritta la metodologia di rilevamento mediante livellazione geometrica di precisione e la tecnica di elaborazione dei dati tramite la compensazione per osservazioni indirette secondo il principio dei minimi quadrati. Nel Capitolo 2 viene presentato il caso di studio e descritto il rilievo che è stato effettuato durante il periodo della tesi. Vengono illustrate le fasi operative sul campo e la successiva fase di predisposizione dei dati per la compensazione. Infine si illustra l’elaborazione numerica realizzata per la determinazione delle quote nel sistema di riferimento locale utilizzato.
Resumo:
Negli ultimi anni l'utilizzo di ciclotroni per la produzione di radionuclidi, impiegati nell'ambito della Medicina Nucleare, è diventato un processo sempre più diffuso e numerosi sono i modelli commercialmente disponibili. L'impiego di questo tipo di apparecchiature porta a considerare questioni rilevanti legate alla radioprotezione che coinvolgono una serie di aspetti complessi sia nella fase progettuale del sistema, sia nell'ottenimento delle necessarie autorizzazioni. In particolare, uno dei problemi radioprotezionistici da affrontare è legato alla dispersione in ambiente di aeriformi radioattivi, prodotti dall'interazione di flussi di particelle secondarie con l'aria. In questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria dell'Ospedale Sant'Orsola di Bologna, si è cercato di caratterizzare l'emissione di tali gas radioattivi considerando l'effetto del sistema di ventilazione. E' stata eseguita un'estesa campagna di misurazioni in diversi punti di campionamento, collocati lungo il percorso di estrazione dell'aria: dal bunker fino all'immissione in ambiente. Sono stati ideati e realizzati dei compatti sistemi di campionamento che hanno permesso di definire, attraverso un sistema di spettrometria gamma equipaggiato con rivelatore al HPGe, una sistematica procedura per la determinazione di concentrazione di attività. I risultati ottenuti mostrano come, durante la routine di produzione di 18F mediante ciclotrone, il processo più rilevante di attivazione dell'aria sia la produzione di 41Ar (T1/2=109.34 minuti), unico radionuclide identificato in tutte le misurazioni. Infine, sulla base dei dati sperimentali ottenuti, è stata effettuata una valutazione della dose rilasciata alla popolazione locale. Il risultato, pari a 0.19 µSv/anno, può essere considerato trascurabile rispetto alla soglia di "non rilevanza radiologica", a dimostrazione di come le tipiche procedure in ambito di Medicina Nucleare possano essere considerate del tutto giustificate.
Resumo:
Grazie alla costante evoluzione tecnologica, negli ultimi anni sempre più oggetti di vita quotidiana stanno accedendo ad Internet. Il proliferare dei dispositivi “smart” ha dato il via ad una nuova rivoluzione tecnologica: quella di Internet of Things (IoT), che sta portando nelle mani degli utenti un elevatissimo numero di informazioni in grado di offrire notevoli benefici alla vita di ogni giorno. Per poter accedere ai dati messi a disposizione risulterà necessario realizzare un servizio in grado di consentire la scoperta, l’accesso e l’interazione con i nodi della rete che si occuperanno della gestione delle informazioni. In letteratura sono già disponibili alcuni di questi meccanismi, ma essi presentano dei difetti che verrebbero ancor più accentuati dalle ridotte capacità computazionali dei terminali IoT. In questo progetto di tesi verrà presentato un servizio di discovery per gateway IoT Kura-based, pensato, grazie all’utilizzo del protocollo di messaggistica MQTT, per operare con terminali dalle performance limitate ed in situazioni di scarsa connettività. Il servizio realizzato prevede che degli smartphone Android richiedano a tutti i gateway in una determinata località i parametri per entrare nel loro network. La richiesta verrà inviata mediante un messaggio MQTT pubblicato in un topic location-specific su un broker remoto. I gateway che riceveranno il messaggio, se interessati alle caratteristiche del client, gli risponderanno comunicando i dati di accesso al network in modo che il dispositivo possa auto-configurarsi per accedervi. Ad accesso avvenuto client e gateway comunicheranno in modo diretto attraverso un broker locale. In fase di testing si valuteranno le performance del servizio analizzando i tempi di risposta e l’utilizzo di risorse lato gateway, e l’assorbimento di potenza lato client.
Resumo:
La catalogazione è la tecnica per costruire, mantenere e aggiornare un catalogo. L’utilizzo del catalogo diventa strettamente necessario quando la raccolta dei documenti viene fuori da un ambito locale e si riferisce ad un pubblico che vuole beneficiare delle informazioni possedute dalla biblioteca. Il passo successivo è aderire ad un sistema in cui ciascuna biblioteca contribuisce alla costruzione del catalogo, trasmettendo i propri dati e le informazioni relative ai documenti in proprio possesso. Per effettuare questa progressione è necessario aderire allo standard catalografico del sistema. La Biblioteca dello Studentato per le Missioni ha deciso di passare da un catalogo bibliografico cumulativo, realizzato con il software CDS/ISIS e l’interfaccia web IBISWEB, ad un sistema più vasto e strutturato, quale l’OPAC CEIBib: per aderire al sistema è necessario effettuare una conversione di formato dei dati bibliografici della banca dati. Lo scopo di questa tesi, dunque, è quello di realizzare un tool di conversione di formato dei dati bibliografici, passando dal formato di catalogazione CDS/ISIS, basato su UNIMARC, al formato MARC 21. La struttura della tesi è organizzata come segue. Il primo capitolo racconta, in breve, la nascita della Biblioteca dello Studentato per le Missioni e del fondo librario di cui dispongono. Il secondo capitolo introduce alla catalogazione, approfondendo diversi aspetti tra cui il catalogo, i formati di catalogazione e i diversi sistemi. Il terzo capitolo tratta il formato di rappresentazione dei metadati MARC 21, adottato dall’OPAC CEIBib come formato bibliografico per la catalogazione. Il quarto capitolo descrive il software di catalogazione CDS/ISIS. In particolare, la creazione dei record CDS/ISIS e l’esportazione degli stessi nel formato ISO 2709. Il quinto capitolo mostra l’implementazione del tool di conversione di formato di dati bibliografici realizzato per la conversione della banca dati della Biblioteca.
Resumo:
In questa tesi si presenta la realizzazione di un data-set ad alta risoluzione (30 secondi d'arco) di precipitazioni mensili (per il periodo 1921-2014), per la regione del Trentino-Alto Adige. Esso è basato su una densa rete di stazioni con osservazioni di lunga durata, sottoposte ai necessari controlli di qualità. La tecnica di interpolazione si basa sull'assunzione che la configurazione spazio-temporale del campo di una variabile meteorologica su una certa area possa essere descritta con la sovrapposizione di due campi: i valori normali relativi a un periodo standard (1961-1990), ossia le climatologie, e le deviazioni da questi, ossia le anomalie. Le due componenti possono venire ricostruite tramite metodologie diverse e si possono basare su data-set indipendenti. Per le climatologie bisogna avere un elevato numero di stazioni (anche se disponibili per un lasso temporale limitato); per le anomalie viceversa la densità spaziale ha un rilievo minore a causa della buona coerenza spaziale della variabilità temporale, mentre è importante la qualità dei dati e la loro estensione temporale. L'approccio utilizzato per le climatologie mensili è la regressione lineare pesata locale. Per ciascuna cella della griglia si stima una regressione lineare pesata della precipitazione in funzione dell'altitudine; si pesano di più le stazioni aventi caratteristiche simili a quelle della cella stessa. Invece le anomalie mensili si ricavano, per ogni cella di griglia, grazie a una media pesata delle anomalie delle vicine stazioni. Infine la sovrapposizione delle componenti spaziale (climatologie) e temporale (anomalie) consente di ottenere per ogni nodo del grigliato una serie temporale di precipitazioni mensili in valori assoluti. La bontà dei risultati viene poi valutata con gli errori quadratici medi (RMSE) e i coefficienti di correlazione di Pearson delle singole componenti ricostruite. Per mostrare le potenziali applicazioni del prodotto si esaminano alcuni casi studio.
Resumo:
In this article, I explore how immigrants from the West African nation of Guinea-Bissau living in Portugal use mobile phones in their daily lives in Lisbon. Whereas one might assume that mobile phones and other new information technologies facilitate transnational communication between Africa and Portugal, the ethnographic fieldwork that I conducted in Lisbon from 1999 to 2003 revealed a different scenario. Instead, mobile phones as imagined and used by the Guinean immigrants I met in Lisbon revealed less about transnationalism and globalization than they did about constructing community and identity in a new locale. As Guinean immigrants in Portugal reconfigured their relationship to their former colonizers and struggled to make their way in a new, multicultural Europe, they used their mobile phones to engage local networks, shape local identities, and transform Lisbon's sprawl into an African migrant village. Here, I highlight the gendered dimensions of this process and contend that Guinean men's and women's varied uses of mobile phones in Lisbon underscore contrasting experiences of migration, mobility, and belonging.
Resumo:
In this article, I explore how immigrants from the West African nation of Guinea-Bissau living in Portugal use mobile phones in their daily lives in Lisbon. Whereas one might assume that mobile phones and other new information technologies facilitate transnational communication between Africa and Portugal, the ethnographic fieldwork that I conducted in Lisbon from 1999 to 2003 revealed a different scenario. Instead, mobile phones as imagined and used by the Guinean immigrants I met in Lisbon revealed less about transnationalism and globalization than they did about constructing community and identity in a new locale. As Guinean immigrants in Portugal reconfigured their relationship to their former colonizers and struggled to make their way in a new, multicultural Europe, they used their mobile phones to engage local networks, shape local identities, and transform Lisbon's sprawl into an African migrant village. Here, I highlight the gendered dimensions of this process and contend that Guinean men's and women's varied uses of mobile phones in Lisbon underscore contrasting experiences of migration, mobility, and belonging.
Resumo:
Colloidal Nano-apatite Particles with Active Luminescent and Magentic Properties for Biotechnology Applications. The synthesis of functional nano-materials is a burgeoning field that has produced remarkable and consistent breakthroughs over the last two decades. Individual particles have become smaller and shown potential for well defined functionality. However, there are still unresolved problems, a primary one being the loss of functionality and novelty due to uncontrolled aggregation driven by surface energy considerations. As such the first design criteria to harness the true potential of nanoparticles is to prevent unwanted agglomeration by: (1) improving, and, if possible, (2) controlling aggregation behavior. This requires specific knowledge of the chemistry of the immediate locale of the intended application; especially for biologically relevant applications. The latter criterion is also application driven but should be considered, generally, to diversify the range of functional properties that can be achieved. We have now reason to believe that such a novel system with multifunctional capabilities can be synthesized rather conveniently and have far reaching impact in biotechnology and other applications in the near future. We are presently experimenting with the syntheses of spheroidal, metal-doped, colloidal apatite nano-particles (~10 nm) for several potential biomedical applications.