168 resultados para Italia, Germania, migrazione, immigrazione, integrazione, diritti, cittadinanza, politica
Resumo:
Studio ed analisi delle principali tecniche in ambito di Social Data Analysis. Progettazione e Realizzazione di una soluzione software implementata con linguaggio Java in ambiente Eclipse. Il software realizzato permette di integrare differenti servizi di API REST, per l'estrazione di dati sociali da Twitter, la loro memorizzazione in un database non-relazionale (realizzato con MongoDB), e la loro gestione. Inoltre permette di effettuare operazioni di classificazione di topic, e di analizzare dati complessivi sulle collection di dati estratti. Infine permette di visualizzare un albero delle "ricondivisioni", partendo da singoli tweet selezionati, ed una mappa geo-localizzata, contenente gli utenti coinvolti nella catena di ricondivisioni, e i relativi archi di "retweet".
Resumo:
In questo elaborato, abbiamo tentato di modellizzare i processi che regolano la presenza dei domini proteici. I domini proteici studiati in questa tesi sono stati ottenuti dai genomi batterici disponibili nei data base pubblici (principalmente dal National Centre for Biotechnology Information: NCBI) tramite una procedura di simulazione computazionale. Ci siamo concentrati su organismi batterici in quanto in essi la presenza di geni trasmessi orizzontalmente, ossia che parte del materiale genetico non provenga dai genitori, e assodato che sia presente in una maggiore percentuale rispetto agli organismi più evoluti. Il modello usato si basa sui processi stocastici di nascita e morte, con l'aggiunta di un parametro di migrazione, usato anche nella descrizione dell'abbondanza relativa delle specie in ambito delle biodiversità ecologiche. Le relazioni tra i parametri, calcolati come migliori stime di una distribuzione binomiale negativa rinormalizzata e adattata agli istogrammi sperimentali, ci induce ad ipotizzare che le famiglie batteriche caratterizzate da un basso valore numerico del parametro di immigrazione abbiano contrastato questo deficit con un elevato valore del tasso di nascita. Al contrario, ipotizziamo che le famiglie con un tasso di nascita relativamente basso si siano adattate, e in conseguenza, mostrano un elevato valore del parametro di migrazione. Inoltre riteniamo che il parametro di migrazione sia direttamente proporzionale alla quantità di trasferimento genico orizzontale effettuato dalla famiglia batterica.
Resumo:
Scopo della tesi è illustrare l'origine della nozione di logaritmo nei suoi primi decenni dalla nascita, partendo dalle opere di J. Napier (Nepero, 1550-1617) fino a B. Cavalieri (1598-1647), che insieme a J. Keplero (1571-1630) concludono la cosiddetta età pioneristica. Nel primo capitolo sono esposti alcuni mezzi di calcolo usati nel XVI secolo, come i "bastoncini di Nepero"; e il confronto della progressione geometrica con quella aritmetica, che con la conoscenza delle leggi esponenziali, porterà all'invenzione dei logaritmi. Il secondo capitolo è dedicato interamente a Napier (fatto salvo un cenno all'opera di Burgi), con lo scopo di illustrare i suoi due maggiori trattati sui logaritmi: il primo fu sostanzialmente una tavola di numeri da lui inizialmente chiamati "numeri artificiali" e successivamente definiti "logaritmi"; il secondo, curato e pubblicato dal figlio, è un trattato nel quale giustifica il nuovo concetto da lui ottenuto ed i metodi usati per il calcolo delle tavole. Con Henry Briggs (capitolo III) la teoria del logaritmo giunge a maturazione. Egli stesso definì una propria funzione logaritmica Bl_1 che, in seguito, mutò dopo un paio di incontri con Napier. Nelle tavole di Briggs il logaritmo da lui introdotto avrà base 10 e il logaritmo di 1 sarà nullo, definendo così il nostro usuale logaritmo decimale. Nel quarto capitolo mi occupo della diffusione in Italia e in Germania delle nozioni di logaritmo, da parte, rispettivamente di B. Cavalieri e J. Keplero. Cavalieri scrisse parecchio sui logaritmi, pubblicando anche proprie tavole, ma non sembra che abbia raggiunto risultati di grande rilevanza nel campo, tuttavia seppe usare la teoria dei logaritmi in campo geometrico giungendo a formule interessanti. La parte storica della tesi si conclude con alcune notizie sul contributo di Keplero e la diffusione della nozione dei logaritmi neperiani in Germania. La mia esposizione si conclude con qualche notizia sull'uso dei logaritmi e sul regolo calcolatore dalla fine del XIX secolo fin verso gli anni ’70 del secolo scorso.
Resumo:
La ricerca ha l’intento di cercare di comprendere come l'architetto giapponese Tadao Ando, proveniente da una formazione autodidatta, da una cultura orientale e da una realtà in cui solo architetti con una specifica formazione possono intervenire su architetture vincolate dalla locale Legge sulla Tutela dei Beni Culturali, si approcci ad una materia di certo per lui nuova, realizzando progetti su edifici dichiarati di interesse dal Ministero dei Beni Culturali o da istituzioni equivalenti. Quindi comprendere, in modo specifico, con quale spirito e/o con quale filosofia Tadao Ando ha approcciato i progetti di restauro su edifici esistenti e quale sforzo interiore ha dovuto affrontare per adeguare la sua idea istintiva ai vincoli storici, culturali, paesaggistici e urbanistici, propri della nostra nazione. Operando, inoltre, in un Paese nel quale l’architettura costituisce una parte cospicua della memoria solida dell’umanità e il recupero dell’esistente patrimonio architettonico è uno degli elementi fondamentali che lega la comunità al territorio, il passato al presente, garantendo a quest’ultimo il futuro; in un Paese nel quale le architetture contemporanee devono, o avrebbero dovuto, dialogare in modo armonico con il preesistente. Per analizzare il suo “modus operandi” si studiano e analizzano tutte le opere che l’architetto ha realizzato o sta realizzando in Italia su edifici di interesse storico-architettonico, tenendo sempre presenti, oltre agli aspetti culturali, anche gli obiettivi della committenza, lo stato di fatto delle architetture oggetto di intervento, l'analisi delle scelte progettuali iniziali, l'indagine di tutti i cambiamenti avvenuti nel corso della progettazione e dell’esecuzione dell’opera e i rapporti che intercorrono tra l’architetto e le Soprintendenze, al fine di comprendere le circostanze in base alle quali Tadao Ando abbia avviato le sue riflessioni progettuali su edifici “antichi”; sulle quali egli è stato in grado di relazionare la sua architettura con l’architettura l’"antica".
Resumo:
L’autore tedesco Erich Kästner è noto al pubblico italiano soprattutto per la narrativa per ragazzi, ma tende ad essere dimenticato quando si affronta la letteratura del dopoguerra. Anch’egli, infatti, diede un contributo fondamentale alla Trümmerliteratur, ovvero la letteratura delle macerie, un movimento letterario nato in Germania nel secondo dopoguerra e che si poneva come obiettivo quello di testimoniare la crudezza della seconda guerra mondiale. Scopo dell’elaborato è quindi quello di fare luce sul contributo di Kästner alla Trümmerliteratur mediante la proposta di traduzione dal tedesco all’italiano di due testi tratti dalla raccolta Der tägliche Kram [Le cianfrusaglie di tutti i giorni]. Dopo una breve introduzione all’autore, al movimento letterario e all’opera in questione, vengono analizzati più attentamente i due testi, definendone la tipologia e la funzione testuale, aspetti fondamentali ai fini traduttivi. Nel quarto capitolo si trovano le traduzioni italiane affiancate dal testo originale tedesco in modo da facilitarne il confronto. L’affiancamento dei testi è inoltre necessario per un riconoscimento più immediato delle strategie traduttive, che vengono approfondite nel quinto capitolo.
Resumo:
This dissertation is divided into four chapters and combines the study of the European Green Capital Award with a terminology research on small wind turbines, a technical subject in the macro-area of sustainable cities. Chapter I aims at giving an overview of the development of environmental policies and treaties both at the international and European level. Then, after highlighting the crucial role of cities for the global environment, the chapter outlines the urban dimension of the EU environmental policies and defines the vision of a sustainable city promoted by the European Union. Chapter II contains an in-depth analysis of the European Green Capital Award and illustrates its aims, the entire designation process, its communication campaign and its evolution. Chapter III focuses on applicant, finalist and winning cities in order to study the aspect of participation in the competition. It also contains a detailed analysis of two European Green Capitals, i.e. Nantes and Bristol, who respectively won the title in 2013 and 2015. Based on a variety of sources, this chapter examines the successful aspects of their bids and communication campaigns during their year as Green Capitals. Chapter IV presents the terminology research in the field of small wind turbines and the resulting bilingual glossary in English and Italian. The research was carried out using two terminology tools: TranslatorBank and InterpretBank. The former is composed by two software programmes, CorpusCreator and MiniConcordancer DB, which were used to semi-automatically create specialized corpora from the Web and then extract terminology and occurrences of terms from the collected texts. The latter is a software which has been specifically designed for interpreters in order to help them optimize their professional workflow, from gathering information and creating glossaries on a specific subject to the actual interpreting task at a conference. InterpretBank’s tool TermMode was used to create a glossary with term equivalents and additional information such as definitions and the contexts of use.
Resumo:
Il saggio descrive in modo approfondito le politiche dell'Unione Europea e degli stati dell'Europa meridionale (Spagna, Grecia e Italia) volte a contrastare l'immigrazione clandestina. Offre inoltre spunti di riflessione sull'attuale gestione dei flussi migratori.
Resumo:
Il documento illustra il lavoro di analisi dei requisiti, progettazione, implementazione e valutazione di un sistema per l’autenticazione degli utenti delle workstation della sede di Scienze del Dipartimento di Informatica — Scienza ed Ingegneria (DISI) che si integri al sistema di autenticazione d’Ateneo. Il sistema descritto è entrato in produzione il 24 settembre 2014 ed è tuttora operante. Il lavoro percorre le modalità di gestione degli account utente in uso presso il DISI e le nuove modalità di organizzazione del DSA d’Ateneo discutendo le motivazioni per cui le soluzioni standard non possono essere adottate nel caso esposto. Analizzato il processo di login dei sistemi Unix e le librerie coinvolte verrà esposto il nuovo progetto, le particolarità dello sviluppo delle nuove librerie PAM e di Name Service Switch e la loro modalità di funzionamento e configurazione all’interno del cluster Unix. In conclusione vengono presentate una serie di valutazioni che mostrano i vantaggi e il rispetto dei requisiti della nuova implementazione.
Resumo:
Le immagini termiche all’ infrarosso sono utilizzate da molte decadi per monitorare la distribuzione di temperatura della pelle umana. Anormalità come infiammazioni ed infezioni causano un aumento locale della temperatura, visibile sulle immagini sotto forma di hot spot. In tal senso la termografia ad infrarossi può essere utilizzata nel campo ortopedico per rilevare le zone sovra-caricate dalla protesi. Per effettuare una valutazione precisa dell’interfaccia moncone-invasatura può essere utile combinare i dati termografici e i dati antropometrici (superficie tridimensionale del moncone), relativi ai singoli pazienti. Di ciò si occupa tale studio, che dopo aver fornito una panoramica sulla termografia e sulla reverse engineering, sperimenta delle tecniche semplici e low-cost per combinare i dati termici e i dati antropometrici. Buoni risultati si riescono ad ottenere utilizzando un Kinect come scanner e un software open-source per il texture mapping. I termogrammi 3D ricreati costituiscono un ottimo strumento di valutazione, per medici e tecnici ortopedici, circa il design dell’invasatura.
Resumo:
L'obiettivo di questo studio è quello di mettere in luce i diversi fattori che, negli ultimi anni, hanno portato ad un impiego sempre più diffuso della PET in ambito clinico, in Italia e all'estero. La recente integrazione delle informazioni funzionali della PET con le informazioni morfologiche di una TC, mediante tomografi ibridi PET/CT, ha radicalmente cambiato l’approccio alla stadiazione e al follow-up dei pazienti, rendendo questa tecnica una delle massime espressioni della moderna diagnostica per immagini, al giorno d'oggi utilizzata principalmente in campo oncologico. Nei primi capitoli, dopo un breve richiamo alla struttura della materia, ai concetti di radiazione e decadimento radioattivo, si analizzano le apparecchiature e i principi di funzionamento della tecnica PET/TC. Successivamente, nel capitolo 4 sono illustrati i diversi tipi di radiofarmaci e le loro applicazioni, con un’attenzione particolare al PSMA, impiegato principalmente nei tumori alla prostata, reni, tiroide e mammella. Proprio alla cura e alla diagnosi del tumore alla prostata è dedicato il capitolo 5, con un breve confronto tra l’ormai accreditata PET/CT con 18F-Colina e l’innovativa Ga-PSMA PET/CT. Nel capitolo 6 si prendono in considerazione le procedure e i protocolli da seguire durante un esame PET/TC, le misure di preparazione, prevenzione e le precauzioni che pazienti e personale sanitario devono osservare. Nel capitolo 7, infine, un breve cenno alle ultime innovazioni tecnologiche: imaging ibrido PET/MRI e fotomoltiplicatori SiPM. Le fonti bibliografiche citate constano principalmente di articoli in lingua inglese pubblicati sul portale PubMed. Parte della documentazione relativa alla progettazione dell'apparecchiatura PET/CT e al suo utilizzo è, invece, stata fornita da personale dell'arcispedale Santa Maria Nuova di Reggio Emilia.
Resumo:
Questo elaborato vuole illustrare l’importanza del gas naturale liquefatto, attraverso l’analisi della Strategia Energetica Nazionale e del Bilancio Energetico Nazionale, sostenendo la necessità di costruire ulteriori rigassificatori sul suolo italiano per permettere al nostro Paese, in previsione di una futura ripresa economica, di svincolarsi dalla quasi totale dipendenza di importazioni attraverso “pipeline” che vincolano in modo rigido e monopolistico il Paese importatore a quello esportatore e ai Paesi che vengono attraversati dalla condotta stessa
Resumo:
Il presente lavoro ha come obiettivo la descrizione dello studio del degassamento diffuso di CO2 (acquisizione dei dati e loro trattazione) effettuato nell'area vulcanica dei Campi Flegrei (NA), nello specifico nell'area della Solfatara di Pozzuoli. Questo infatti rappresenta attualmente il punto di massimo rilascio di fluidi ed energia dell'intero Distretto Vulcanico Flegreo attraverso attività quali fumarole e degassamento diffuso dal suolo, nonché deformazioni del terreno (bradisismo). Tramite l'acquisizione dei valori di flusso diffuso e delle temperature dei primi 10 cm di suolo, attraverso una trattazione dei dati statistica e geostatistica, è stato possibile distinguere e caratterizzare le sorgenti di CO2 (biologica o vulcanica), la realizzazione di sviluppo di mappe di probabilità e di flusso medio e la quantificazione dell'output totale giornaliero di CO2. Il lavoro è stato suddiviso in due fasi principali: 1. La prima fase ha riguardato l'acquisizione dei dati sul campo nei giorni 19 e 20 marzo 2015, tramite l'utilizzo di una camera d'accumulo ed un termometro munito di sonda, in 434 punti all'interno del cratere della Solfatara e nelle aree circostanti. 2. Nella seconda fase sono stati elaborati i dati, utilizzando il metodo statistico GSA (Graphical Statistic Approach) ed il metodo geostatistico della simulazione sequenziale Gaussiana (sGs). Tramite il GSA è stato possibile ripartire i dati in popolazioni e definire una media (con relativa varianza) per ognuna di esse. Con la sGs è stato possibile trattare i dati, considerando la loro distribuzione spaziale, per simulare valori per le aree prive di misurazioni; ciò ha permesso di generare delle mappe che mostrassero l'andamento dei flussi e la geometria della struttura del degassamento diffuso (Diffuse Degassing Structure, DDS; Chiodini et al., 2001). Infine i dati ottenuti sono stati confrontati con i risultati di precedenti studi e si è messo in relazione la geometria e l'intensità di degassamento con la geologia strutturale dell'area flegrea indagata.
Resumo:
L’idea del presente elaborato è nata da una curiosità ed interesse personale di un corso svolto in Erasmus presso la Fachhochschule Köln. Ho subito pensato di approfondire il tema dell’interprete giudiziario e giuridico come figura determinante sia nel processo penale che nella società. Per dare un quadro generale della situazione ho deciso di dividere la tesi in tre capitoli. Nel primo capitolo spiegherò il concetto di interpretazione, attività interlinguistica tesa a creare una comunicazione tra persone di diverse lingue, presentando le varie tipologie e facendo un accenno alla figura del mediatore linguistico-interculturale. Nel secondo capitolo, porrò l’attenzione sul diritto all’assistenza linguistica dell’imputato e della vittima alloglotta durante il processo penale con l’obiettivo di evidenziare le tutele linguistiche europee e in particolar modo italiane. Mi concentrerò, inoltre, sulla mancanza di una formazione adeguata della professione, in Italia, con lo scopo di delineare la necessità di agire di fronte a una situazione di diritti negati, di ruoli misconosciuti, di assenza di consapevolezza e di conoscenza. Nel terzo ed ultimo capitolo mi soffermerò sull’interpretazione giuridica analizzando il video pedagogico di un interrogatorio della questura di Forlì-Cesena, tratto dal progetto europeo ImPLI - Improving Police and Legal Interpreting, per mettere in evidenza le tecniche di interrogatorio utilizzate e le difficoltà che si presentano nel mediare per le indagini di polizia.
Resumo:
Internet of Things (IoT): tre parole che sintetizzano al meglio come la tecnologia abbia pervaso quasi ogni ambito della nostra vita. In questa tesi andrò a esplorare le soluzioni hardware e soprattutto software che si celano dietro allo sviluppo di questa nuova frontiera tecnologica, dalla cui combinazione con il web nasce il Web of Things, ovvero una visione globale, accessibile da qualsiasi utente attraverso i comuni mezzi di navigazione, dei servizi che ogni singolo smart device può offrire. Sarà seguito un percorso bottom-up partendo dalla descrizione fisica dei device e delle tecnologie abilitanti alla comunicazione thing to thing ed i protocolli che instaurano fra i device le connessioni. Proseguendo per l’introduzione di concetti quali middleware e smart gateway, sarà illustrata l’integrazione nel web 2.0 di tali device menzionando durante il percorso quali saranno gli scenari applicativi e le prospettive di sviluppo auspicabili.
Resumo:
Lo scopo che questa tesi ha è di inserirsi nell’ambito della Smart Mobility, in particolare nell'ambito dell’accessibilità urbana. Obiettivo primario è di offrire un software capace di adattarsi alle capacità dell’utente nel muoversi nell’ambiente urbano, in particolare riguardo alle barriere architettoniche che lo ostacolano. Quello che il programma deve fare è offrire percorsi per l’utente, personalizzati rispetto alle sue richieste. Affinché sia possibile tutto ciò, sono necessarie delle fondamenta, nella fattispecie una fonte di dati geografici e uno strumento che permetta di ricercare percorsi da essi e di essere modificato per includere le modifiche volute. La fonte di dati geografici scelta è stata OpenStreetMap, un progetto di crowdsourcing che punta a creare una mappa globale completamente accessibile fino al suo livello più basso e utilizzabile da chiunque, purché sia rispettata la sua licenza. Da questa scelta, derivano i software utilizzabili per calcolare i percorsi: la tesi ne esplorerà in particolare due GraphHopper e OpenTripPlanner, entrambi progetti open source. L’ultimo, ma non meno importante, scopo della tesi è effettivamente implementare un algoritmo di routing capace di considerare le preferenze degli utenti. Queste preferenze, infatti, non devono solo permettere di escludere percorsi con una barriera/architettonica cui l’utente non può accedere, ma anche di favorire percorsi con le facility che l’utente preferisce e di sfavorire quelli con facility che l’utente non preferisce.