631 resultados para Miccoli, Giovanni: I dilemmi e i silenzi di Pio XII
Resumo:
Realizzazione di un database semantico in Java a partire da una sua versione in tecnologia OSGI. La trattazione è organizzata come segue: nel primo capitolo verranno introdotte nozioni generali sullo scenario di rilevanza e le tecnologie. Nel secondo capitolo si parlerà della SIB-O, introducendone l’architettura e le funzionalità. Il terzo capitolo descriverà il lavoro svolto ed infine il quarto capitolo riporterà i risultati di test di performance allo scopo di validare il lavoro svolto e caratterizzare l’efficienza dei prodotti software realizzati.
Resumo:
Il primo obiettivo di questo lavoro di tesi è quello di sviluppare il primo modello matematico di potenziale d'azione pacemaker umano: è vero che gli studi elettrofisiologici pubblicati sull'uomo non hanno ancora raggiunto la mole di risultati ottenuti, invece, sugli altri mammiferi da laboratorio, ma i tempi possono ritenersi "maturi", in quanto i dati disponibili in letteratura sono sufficienti e adeguati allo scopo. Il secondo obiettivo di questo lavoro di tesi nasce direttamente dall'esigenza clinica di definire le relazioni causa-effetto tra la mutazione T78M della proteina caveolina-3 e le varie forme di aritmie cardiache riscontrate, ad essa associate. Lo scopo è quello di stabilire quale sia il link tra genotipo della mutazione e fenotipo risultante, ovvero colmare il gap esistente tra i dati sperimentali in vitro in possesso ed i meccanismi di alterazione delle correnti ioniche affette, per arrivare a osservare l'effetto che ne deriva sull'attività elettrica delle cellule. Proprio in relazione a quest'ultimo punto, i due obiettivi del lavoro convergono: l'analisi degli effetti indotti dalla mutazione T78M è, infatti, effettuata sul modello di potenziale d'azione di nodo senoatriale umano sviluppato (oltre che su altri modelli atriali).
Resumo:
È impossibile implementare sorgenti autenticamente casuali su hardware digitale. Quindi, storicamente, si è fatto ampio uso di generatori di numeri pseudo-casuali, evitando così i costi necessari per la progettazione di hardware analogico dedicato. Tuttavia, le sorgenti pseudo-casuali hanno proprietà (riproducibilità e periodicità) che si trasformano in vulnerabilità, nel caso in cui vengano adottate in sistemi di sicurezza informatica e all’interno di algoritmi crittografici. Oggi la richiesta di generatori di numeri autenticamente casuali è ai suoi massimi storici. Alcuni importanti attori dell’ICT sviluppato proprie soluzioni dedicate, ma queste sono disponibili solo sui sistemi moderni e di fascia elevata. È quindi di grande attualità rendere fruibili generatori autenticamente casuali per sistemi già esistenti o a basso costo. Per garantire sicurezza e al tempo stesso contenere i costi di progetto è opportuno pensare ad architetture che consentano di riusare parti analogiche già disponibili. Particolarmente interessanti risultano alcune architetture che, grazie all’utilizzo di dinamiche caotiche, consentono di basare buona parte della catena analogica di elaborazione su ADC. Infatti, tali blocchi sono ampiamente fruibili in forma integrata su architetture programmabili e microcontrollori. In questo lavoro, si propone un’implementazione a basso costo ed elevata flessibilità di un architettura basata su un ADC, inizialmente concepita all’Università di Bologna. La riduzione di costo viene ottenuta sfruttando il convertitore già presente all’interno di un microcontrollore. L’elevata flessibilità deriva dal fatto che il microcontrollore prescelto mette a disposizione una varietà di interfacce di comunicazione, tra cui quella USB, con la quale è possibile rendere facilmente fruibili i numeri casuali generati. Quindi, l’intero apparato comprende solo un microcontrollore e una minima catena analogica di elaborazione esterna e può essere interfacciato con estrema facilità ad elaboratori elettronici o sistemi embedded. La qualità della proposta, in termini di statistica delle sequenze casuali generate, è stata validata sfruttando i test standardizzati dall’U.S. NIST.
Resumo:
La costituzione dell’Unione Europea nel 1993 pose la questione del dover aiutare le regioni svantaggiate in essa contenute, allo scopo di promuovere i principi di eguaglianza appena stipulati. Allo stesso tempo si dovette cercare uno strumento per facilitare la collaborazione fra le regioni appartenenti all’Unione stessa. Tale strumento sono i Fondi Strutturali Europei, un sistema di autofinanziamento utilizzato per promuovere progetti lavorativi, di cultura o di ricerca in tutta Europa. La distribuzione dei fondi avviene secondo delle regole specifiche e spesso i temi verso cui i fondi vengono rivolti sono scelti di comune accordo tra i Paesi membri. Le amministrazioni regionali hanno quindi la possibilità di usufruire di una notevole quantità di denaro, giustificando in modo appropriato la destinazione d’uso dei fondi e stilando dei piani che ne descrivano la loro suddivisione nei vari progetti. In seguito all’evoluzione tecnologica degli anni ’60 e ’70 nacquero nuovi strumenti a favore delle aziende: i DSS (Decision Support System), descritti come “sistemi informatici a supporto del processo decisionale”. L’uso di questa nuova tecnologia permise una facilitazione dei compiti decisionali, oltre ad un miglioramento delle prestazioni negli ambiti di applicazione. Da tali premesse nascono diversi progetti che puntano ad utilizzare strumenti di supporto alle decisioni nei campi più diversi: amministrativo, medico, politico, culturale. In particolare, l’area d’applicazione politica vive un grande fermento negli ultimi anni, grazie a strumenti in grado di aiutare la classe politica in decisioni su più livelli di scelta e su una grosse mole di dati. Un esempio fra gli altri è la redazione del Programma Operativo Regionale, il quale fa affidamento sui finanziamenti dei Fondi Strutturali Europei per potersi sostentare. Negli ultimi anni la Regione Emilia-Romagna ha puntato molto sull’uso di strumenti informatici e automatizzati come aiuto nella compilazione di progetti, piani operativi e preventivi di spesa, sviluppando delle collaborazioni con diversi Enti ed Università, tra le quali l’Università degli Studi di Bologna. L’ultimo progetto realizzato in collaborazione con la Regione, e qui esposto, riguarda la realizzazione di uno strumento di supporto alle decisioni politiche per la ripartizione dei Fondi Europei, in particolare quelli destinati al Programma Operativo Regionale (POR).
Resumo:
Un problema classico in matematica, che presenta numerose applicazioni anche al di fuori di tale disciplina, è la ricerca delle radici di un polinomio. Per quanto riguarda i polinomi di grado minore o uguale a 4 ci sono delle formule per determinare le radici a partire dai coefficienti, mentre per il generico polinomio di grado maggiore o uguale a 5 formule simili non esistono. È possibile, però, determinare in modo approssimato le radici di un polinomio, o stimare il numero di radici reali di un polinomio reale in un dato intervallo, o ancora localizzare nel piano complesso gli zeri di un polinomio a coefficienti complessi.
Resumo:
I moderni sistemi computazionali hanno reso applicazioni e dispositivi sempre più complessi e versatili, integrando in essi un numero crescente di funzioni. Da qui si avverte la necessità di un design d’interfaccia utente efficace e pratico che renda il rapporto uomo/macchina semplice ed intuitivo. Negli ultimi anni questo proposito è stato accolto da sviluppatori e progettisti che si sono affacciati nel mondo della “Realtà Aumentata”, una nuova visione d’insieme nel rapporto tra mondo reale e virtuale. Augmented Reality (AR), propone infatti di sviluppare nuove interfacce uomo-computer, che invece di mostrare le informazioni digitali su display isolati, immergano i dati stessi nell’ambiente concreto. Sfuma così una distinzione marcata tra il reale e il virtuale, ma anzi si cerca di combinare in modo naturale la coesistenza di quest’ultimi, permettendo la creazione di interfacce utente semplici e intuitive anche per applicazioni complesse. Il proposito che la tesi vuole andare ad affrontare è proprio quello di indagare lo sviluppo di nuove applicazioni basate su questa tecnologia. Nel primo capitolo verrà analizzatala storia, i campi di applicazione, i device più importanti sui quali è implementata e le varie tecniche di Tracciamento. Nella seconda parte della tesi andremo a interessarci del sistema vero e proprio sul quale regge questa tecnologia. Quindi nel successivo capitolo vedremo esempi di architetture e di piattaforme che offrono questa realtà di sviluppo, soffermandoci su un particolare caso di studio: Metaio; di cui nel terzo e ultimo capitolo indagheremo framework, SDK e API messe a disposizione.
Resumo:
La presente tesi si concentra sulla traduzione di parti scelte di Übersetzungstheorien. Eine Einführung, manuale di carattere saggistico ad opera della nota linguista tedesca Radegundis Stolze contenente una spiegazione esaustiva, chiara e dettagliata delle più note teorie divenute oggetto di studio della scienza della traduzione dalla nascita della disciplina fino ai giorni nostri. Punto di partenza dell’elaborato sarà l’analisi del saggio, in cui si tracciano le caratteristiche testuali del genere, sia per quanto riguarda il testo originale tedesco, sia per quanto riguarda quello italiano, in modo da notare le differenze e mettere in evidenza le principali tecniche da prendere in considerazione per la trasmissione del messaggio da un modello all’altro. In seguito sarà effettuata un’analisi del testo di partenza secondo i criteri di Brinker (2010) e Nord (2009) con particolare interesse all’aspetto grammaticale e tematico , al rapporto autore-lettore e agli aspetti interni ed esterni al testo. Sulla base di questa analisi verranno poi indicati gli aspetti più significativi a cui prestare attenzione durante la traduzione e si procederà alla traduzione vera e propria. Questa consta di due testi particolarmente significativi per la teoria della traduzione, rispettivamente il discorso sulla traduzione delle Sacre Scritture di Nida e la spiegazione della Teoria dello skopos di Vermeer e Rice. Alla traduzione vera e propria seguiranno un commento riguardante le principali problematiche incontrate e le tecniche utilizzate di volta in volta per risolverle e un paragrafo conclusivo a riassumere i risultati ottenuti.
Resumo:
Questa tesi presenta i risultati di una ricerca qualitativa condotta presso la scuola primaria Diego Fabbri di Forlì. Si è voluto indagare sul fenomeno della mediazione linguistica ad opera di bambini in relazione con la scelta del sistema scolastico italiano di impartire un’educazione di tipo interculturale. Ci si è quindi concentrati sul percorso di accoglienza riservato agli alunni stranieri neo-arrivati. In particolare si sono analizzate le strategie messe in atto dall’istituto e dagli insegnanti per favorire l’integrazione all’interno di classi multiculturali, nonché il ruolo riservato ai compagni, sia italiani che stranieri. La prima parte del testo costituisce un quadro teorico indirizzato a meglio comprendere gli obiettivi e i risultati dello studio. Il primo capitolo verte sulle tematiche dell’immigrazione e dell’integrazione. Vengono qui esposti i principali modelli di acculturazione sviluppati dai vari paesi del mondo e in diverse epoche storiche, con particolare riferimento al contesto europeo e alle scelte operate dall’Italia nei confronti degli stranieri presenti sul suo territorio. Il secondo capitolo presenta poi il tema dell’educazione interculturale. A partire da una riflessione concettuale e terminologica sulla dicotomia fra multicultura e intercultura, si analizza la linea di pensiero seguita dalla scuola italiana nella gestione della crescente diversità etnica e culturale all’interno delle classi. Il terzo capitolo affronta il fenomeno del child language brokering o mediazione linguistica ad opera di bambini. Ne sono valutati aspetti positivi e negativi, soffermandosi specialmente sulle particolarità del contesto scolastico e dell’interazione fra pari. Gli ultimi due capitoli riguardano invece la parte operativa del lavoro di ricerca. Nel quarto capitolo è presentata la metodologia applicata, con un approfondimento sulla combinazione delle tecniche dell’osservazione e dell’intervista e la conduzione di una ricerca con i bambini. Infine, nel quinto capitolo, sono analizzati i dati raccolti sul campo.
Resumo:
Il seguente elaborato si propone di fornire un esempio di traduzione del film Brat 2 di Aleksej Balabanov, che possa fungere da base per un eventuale sottotitolaggio. Il lavoro è suddiviso in quattro sezioni: in primo luogo, una breve nota alla traduzione, pensata per favorire una lettura diretta delle battute, in cui ci si soffermerà su alcuni aspetti della lingua e della cultura russe. Le linee orizzontali demarcano i cambi di scena, ovvero il passaggio da un ambiente ad un altro. La seconda sezione si concentra in parte sull'analisi di alcuni temi e caratteristiche del film in questione (anche in relazione con il suo antecedente Brat), in parte sul regista e sull'attore protagonista Sergej Badrov. La terza sezione fornirà invece una breve delucidazione riguardo la traduzione audiovisiva. Infine, la quarta sezione è composta da una tabella a due colonne, all'interno della quale sono inserite le battute tradotte con testo a fronte. La scelta è ricaduta sull'opera in questione data la sua rilevanza all'interno del panorama cinematografico russo, ma soprattutto, data la sua originalità. Brat 2 [Fratello 2] ha la capacità di mostrare, con poche ed efficaci pennellate, le immagini di un'America diversa da quella che si è soliti rappresentare sugli schermi occidentali.
Resumo:
In quest'elaborato si affronterà l'analisi dell'interprete nelle zone di conflitto, una figura che è sempre più al centro dell'interesse di media internazionali, studenti e professori. Dopo un'introduzione al ruolo e alle funzioni dell'interprete, si analizzerà la tipologia dell'interpretazione di comunità e, successivamente, si punteranno i riflettori sull'interprete nelle aree instabili del pianeta. Particolare rilievo verrà dato a come muti la sua immagine a seconda delle varie parti in guerra e quanto la sua vita sia molto spesso in pericolo. In conclusione, si analizzeranno i progetti di alcune università di interpretazione che hanno risposto piuttosto prontamente alla necessità di una formazione professionalizzante per le figure di interpreti e mediatori interculturali nelle aree sensibili della terra, senza dimenticare le iniziative internazionali volte alla loro protezione.
Resumo:
Nelle smart cities moderne, la mobilità di veicoli elettrici (EV) è considerata un fattore determinante nella riduzione del consumo di combustibili fossili e conseguenti emissioni inquinanti. Tuttavia, nonostante gli interessi e investimenti a livello globale, l'accettazione da parte degli utenti è ancora bassa, principalmente a causa della mancanza di infrastrutture e servizi a supporto dei guidatori di EV. Queste mancanze sono la causa principale della cosiddetta range anxiety (timore che il veicolo non abbia autonomia sufficiente per raggiungere la destinazione) e hanno portato al preconcetto che gli EV siano adatti alla sola percorrenza di brevi tragitti. Per contrastare questi problemi, in questo documento è proposta un'applicazione di route planning che supporti mobilità di EV anche su percorsi medio-lunghi, mediante utilizzo di un modello di predizione del consumo energetico e considerazione dell'eventuale necessità di ricarica. Saranno descritte tecniche per determinare il tragitto che un EV sia in grado di percorrere per arrivare a destinazione, in considerazione di restrizioni energetiche, fattore altimetrico del percorso ed eventuali operazioni di ricarica necessarie. Il modello di consumo e l'algoritmo che determina il miglior percorso (dal punto di vista energetico) sono implementati da un web service che interagisce con i servizi di Google Maps (per ottenere indicazioni stradali, dati altimetrici e informazioni in tempo reale sul traffico) e con servizi che offrono informazioni sulle stazioni di ricarica e relative posizioni. Dopo aver descritto il modello di consumo e l'algoritmo per la ricerca del percorso, sarà presentata l'architettura del servizio implementato. Sarà quindi fornita una valutazione del servizio, analizzandone performance e scalabilità, nonché l'efficacia nel supporto di percorsi di EV all'interno di scenari su larga scala (nello specifico la regione Emilia Romagna), attraverso tecniche di simulazione.
Resumo:
Questa tesi si occupa dello studio delle sorgenti radio extragalattiche. Il presente lavoro è divisibile in due parti distinte. La prima parte descrive la morfologia e la struttura delle varie tipologie degli oggetti AGN, i fenomeni relativistici riguardo al moto delle radiosorgenti, il modello unificato, che consiste nel descrivere tutti i tipi di radiosorgenti presentati come la stessa tipologia di oggetto. La seconda parte vede l'analisi di due campioni: uno di radiogalassie, l'altro di BL Lacs. L'obiettivo consiste nel confrontare i valori di core dominance(rapporto tra potenza osservata e attesa) dei due campioni e dimostrare come la core domincance degli oggetti BL Lacertae sia maggiore di quella delle radiogalassie, al fine di mettere in evidenza un fattore a sostegno della teoria dei modelli unificati. Infine sono state inserite due appendici:l'una descrive un importante meccanismo di emissione come la radiazione di sincrotrone, l'altra presenta la tecnica di interferometria VLBI.
Resumo:
Al giorno d'oggi una pratica molto comune è quella di eseguire ricerche su Google per cercare qualsiasi tipo di informazione e molte persone, con problemi di salute, cercano su Google sintomi, consigli medici e possibili rimedi. Questo fatto vale sia per pazienti sporadici che per pazienti cronici: il primo gruppo spesso fa ricerche per rassicurarsi e per cercare informazioni riguardanti i sintomi ed i tempi di guarigione, il secondo gruppo invece cerca nuovi trattamenti e soluzioni. Anche i social networks sono diventati posti di comunicazione medica, dove i pazienti condividono le loro esperienze, ascoltano quelle di altri e si scambiano consigli. Tutte queste ricerche, questo fare domande e scrivere post o altro ha contribuito alla crescita di grandissimi database distribuiti online di informazioni, conosciuti come BigData, che sono molto utili ma anche molto complessi e che necessitano quindi di algoritmi specifici per estrarre e comprendere le variabili di interesse. Per analizzare questo gruppo interessante di pazienti gli sforzi sono stati concentrati in particolare sui pazienti affetti dal morbo di Crohn, che è un tipo di malattia infiammatoria intestinale (IBD) che può colpire qualsiasi parte del tratto gastrointestinale, dalla bocca all'ano, provocando una grande varietà di sintomi. E' stato fatto riferimento a competenze mediche ed informatiche per identificare e studiare ciò che i pazienti con questa malattia provano e scrivono sui social, al fine di comprendere come la loro malattia evolve nel tempo e qual'è il loro umore a riguardo.
Resumo:
Keying e composizione sono da sempre tecniche ampiamente utilizzate in contesti multimediali, quali produzione cinematografica e televisiva; il chroma keying è in particolare la tecnica più popolare, ma presenta una serie di limiti e problematiche. In questo elaborato viene proposta una tecnica alternativa di estrazione, basata sull'uso della profondità, operante in tempo reale e che sfrutta il device Kinect di Microsoft. Sono proposti una serie di algoritmi, basati su tecniche di edge detection, utilizzati per il miglioramento della depth map lungo i bordi di estrazione; viene infine testato il risultato ottenuto dall'implementazione del sistema e proposta una possibile applicazione nell'ambito del teatro multimediale.
Resumo:
L'oggetto di studio di questa tesi e' l'analisi degli ammassi di galassie (galaxy clusters) e delle loro proprieta', attraverso un introduttiva analisi morfologica e dinamica, considerazioni sulle proprieta' termiche (con caratteristiche collegate direttamente dalla temperatura), ed infine l'ispezione dei meccanismi che generano le emissioni non termiche e le loro sorgenti. Cercheremo delle relazioni fra le une e le altre. In particolare studieremo specifiche conformazioni del mezzo intergalattico (ICM, intracluster medium) all'interno degli ammassi, quali Aloni, Relitti e Mini Aloni, attraverso le radiazioni che essi sprigionano nella banda dei raggi X e onde radio. Le prime osservazioni sugli ammassi di galassie sono state effettuate gia' alla fine del '700 da Charles Messier, che, al fine di esaminare il cielo alla ricerca di comete, forni un catalogo di 110 oggetti cosmici che, pur apparendo nebulosi per via della limitatezza di risoluzione dei telescopi di allora, non erano sicuramente comete. Fra questi oggetti vi erano anche ammassi di galassie. I primi studi approfonditi si ebbero soltanto con il rapido incremento tecnologico del XX secolo che permise di capire che quelle formazioni confuse altro non erano che agglomerati di galassie. Telescopi piu' grandi, e poi interferometri, radiotelescopi osservazioni agli X hanno sostanzialmente aperto il mondo dell'astrofisica. In particolare Abell stabili' nel primo dopoguerra il primo catalogo di ammassi su determinazione morfologica. Altri astronomi ampliarono poi i parametri di classificazione basandosi su caratteristiche ottiche e meccaniche. Le analisi piu' recenti infine basano le loro conclusioni sullo studio delle bande non ottiche dello spettro, principalmente i raggi X e onde Radio.