76 resultados para clostridium difficile


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nonostante l’importanza crescente degli scrittori latinos caraibici all’interno della letteratura nordamericana, le loro opere sono ancora poco conosciute in Italia. Lo scopo di questa tesi è di presentare il filone degli scrittori caraibici che scrivono e pubblicano negli Stati Uniti attraverso la traduzione di alcuni capitoli tratti dal romanzo How the García girls lost their accents della scrittrice newyorchese di origini dominicane Julia Álvarez. L’elaborato è diviso in cinque capitoli: il primo inizia fornendo una breve panoramica del contesto storico e letterario in cui si inseriscono gli autori latinos, per poi proseguire con la descrizione delle caratteristiche principali di questo filone; una breve parentesi verrà dedicata anche alla sua difficile collocazione letteraria. Nel secondo capitolo viene presentata l’autrice e la sua opera. Il terzo capitolo si focalizza sulla struttura e i temi principali del romanzo e su una descrizione più dettagliata dei capitoli scelti per la traduzione. Nel quarto capitolo vengono riportate le mie proposte di traduzione per quattro dei capitoli del romanzo. Infine, l’ultimo capitolo è composto da un’analisi dettagliata del processo di traduzione che include alcune riflessioni preliminari sul testo, la descrizione di alcune delle teorie più recenti dei Translation Studies e delle strategie messe in atto durante il processo di traduzione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel corso degli ultimi decenni la fisica sperimentale ha raggiunto notevoli traguardi nel campo della manipolazione di sistemi di atomi freddi, riaccendendo l'interesse della ricerca su sistemi a lungo studiati teoricamente, ma fino a poco tempo fa impossibili da realizzare sperimentalmente. Questa riaccesa attenzione ha permesso di sfruttare le moderne capacità di calcolo per studiare sistemi quantistici che ancora risultano di difficile realizzazione. In questo contesto si inserisce il rinnovato interesse per i sistemi quantistici monodimensionali caratterizzati dalla presenza di potenziale disordinato. Questi presentano proprietà di trasporto particolari e sotto particolari condizioni sono oggetto di una transizione di localizzazione. La maggior parte degli studi in questo campo rivolgono la loro attenzione a sistemi di particelle fermioniche interagenti. In questo lavoro di tesi analizziamo, invece, sistemi quantistici fermionici non interagenti, mettendo in luce quanto già noto e proponendo strumenti di analisi derivati dallo studio dei sistemi interagenti. In particolare, proponiamo un'analisi statistica dei livelli energetici e poniamo le basi per futuri studi a riguardo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’avanzamento tecnologico degli ultimi anni ha portato ad un aumento sostanziale dei dati generati giornalmente. L’analisi di queste ingenti quantità di dati si è rivelata essere troppo complessa per i sistemi tradizionali ed è stato pertanto necessario sviluppare nuovi approcci basati sul calcolo distribuito. I nuovi strumenti sviluppati in seguito a queste nuove necessità sono framework di calcolo parallelo basati sul paradigma del MapReduce, un modello di programmazione sviluppato da Google, e sistemi di gestione di basi di dati fluidi, in grado di trattare rapidamente grandi quantità di dati non strutturati. Lo scopo alla base di entrambi è quello di costruire sistemi scalabili orizzontalmente e utilizzabili su hardware di largo consumo. L’utilizzo di questi nuovi strumenti può comunque portare alla creazione di sistemi poco ottimizzati e di difficile gestione. Nathan Marz propone un’architettura a livelli che utilizza i nuovi strumenti in maniera congiunta per creare sistemi semplici e robusti: questa prende il nome di Lambda-Architecture. In questa tesi viene introdotto brevemente il concetto di Big Data e delle nuove problematiche ad esso associate, si procede poi ad illustrare i principi su cui si basano i nuovi strumenti di calcolo distribuito sviluppati per affrontarle. Viene poi definita l’Architettura Lambda di Nathan Marz, ponendo particolare attenzione su uno dei livelli che la compone, chiamato Batch Layer. I principi della Lambda Architecture sono infine applicati nella costruzione di un Batch Layer, utilizzato per l’analisi e la gestione di dati climatici con fini statistici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'identificazione di un blazar è molto difficile, questo è un oggetto molto particolare e che ha un'attività molto ricca. Nella pratica l'identificazione di un blazar avviene confrontando la sua emissione in banda radio con la sua emissione in banda gamma, che sono entrambe proprie dei blazar. Il problema è che non si dispone di un telescopio in grado di rivelare con estrema precisione entrambe le bande, quindi si procede utilizzando i dati radio provenienti da un dato radiotelescopio e i dati in banda gamma provenienti da un altro telescopio. Quando le emissioni nelle due bande presentano, ad esempio, una variabilità simultanea, l'identificazione è certa. Ma questa minoranza di casi non è molto frequente e quindi spesso si procede con un'analisi probabilistica basata sulle posizioni delle sorgenti. Il lancio di Fermi nel 2008 ha portato ad un fortissimo aumento del numero di sorgenti gamma note e, fra queste, la maggior parte sono blazar. Una significativa frazione di queste sorgenti Fermi (circa il 30%) rimane non identificata. In questo lavoro vengono inizialmente caratterizzate le proprietà radio dei blazar e in particolare dei blazar gamma noti finora. In seguito verrà approfondita l'analisi delle sorgenti Fermi non identificate per stabilire una possibile compatibilità con le proprietà dei blazar e quindi per cercare di capire se queste sorgenti possano essere a loro volta dei blazar non ancora riconosciuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro riguarda lo studio delle colate detritiche, fenomeno che rappresenta un importante argomento di studio sia per la sua caratterizzazione e analisi a livello scientifico che per attuare una corretta pianificazione e gestione del territorio. Nell’ambiente alpino, ed in particolare nell’area Dolomitica, le colate detritiche rappresentano un fenomeno complesso, le cui caratteristiche di velocità ed intensità, congiuntamente alla difficile previsione temporale, determinano l’alto grado di pericolosità che espone a rischi elevati infrastrutture e persone. Il monitoraggio delle colate detritiche assume quindi una notevole importanza nella determinazione delle condizioni idrologiche e morfologiche che inducono la generazione e la propagazione di tali fenomeni. Il presente lavoro ha come obiettivo la caratterizzazione della risposta idrologica nella zona d’innesco di un canale detritico, localizzato nella Conca Ampezzana. La caratterizzazione è stata definita attraverso l’analisi dei dati ottenuti dal monitoraggio eseguito mediante una stazione di rilevamento appositamente progettata e realizzata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'ambito dell'Intelligenza Artificiale uno dei problemi aperti e piu difficile da risolvere e la comprensione del linguaggio naturale. La complessita sintattica e la conoscenza che bisogna avere per comprendere riferimenti, relazioni e concetti impliciti rendono questo problema molto interessante e la sua risoluzione di grande importanza per lo sviluppo di applicazioni che possano interagire in modo diretto con le persone. Questo lavoro di tesi non pretende di studiare e trovare una soluzione completa al suddetto problema, ma si prefigge come obiettivo quello di comprendere e risolvere problemi matematici di tipo logico ed aritmetico scritti in lingua inglese. La difficolta del lavoro si riduce in quanto non si devono considerare gli infiniti ambiti conoscitivi e puo concentrarsi su un'unica interpretazione del testo: quella matematica. Nonostante questa semplificazione il problema da affrontare rimane di grande difficolta poiche e comunque necessario confrontarsi con la complessita del linguaggio naturale. Esempi di problemi matematici che si intende risolvere si possono trovare presso il sito web dell'Universita della Bocconi nella sezione dei Giochi Matematici. Questi problemi richiedono la conoscenza di concetti di logica, insiemistica e di algebra lineare per essere risolti. Il modello matematico che descrive questi problemi non e complesso ed una volta dedotto correttamente e di facile risoluzione tramite un risolutore automatico. La difficolta consiste nel comprendere correttamente il testo ed estrapolarne il giusto modello. Il lavoro che si andra ad esporre nel seguito parte dall'analisi del testo ed arriva fino alla risoluzione del quesito matematico. Si parte quindi da un'analisi del testo con scopo generale seguita da un'analisi semantica volta alla costruzione del modello matematico che andra poi risolto da un risolutore automatico che ne restituira il risultato finale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Proposta di traduzione della prima parte della raccolta di poesie "Tenebra" dell'autore catalano David Castillo. L'elaborato, oltre al commento alla traduzione, propone un'analisi sulla metodologia di traduzione di componimenti poetici: chi può tradurre poesia? Il talento traduttivo può prescindere da quello poetico? Cosa distingue un traduttore da un poeta? Tradurre poesia è un'operazione difficile; più di tutto, è una sfida, non facile da vincere. Quale sia la vittoria, poi, è tutto da vedere. E del resto, se tradurre fosse facile, non sarebbe poi così bello.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è mettere a confronto due tecniche di sottotitolaggio presenti sul mercato, sottotitolando uno spezzone del film “This is England”. Il primo approccio è il sottotitolaggio tradizionale, ovvero la creazione di sottotitoli in una data lingua a partire dall’audio e dallo script nella lingua dei dialoghi originali. Il secondo metodo è il pivot subtitling, che consiste nella creazione di sottotitoli in una determinata lingua a partire da sottotitoli esistenti in una lingua diversa da quella dei dialoghi originali. Questa tesi nasce dalla curiosità di sperimentare personalmente le due tecniche e formare una mia opinione critica al riguardo. Così è seguita la scelta di un film. Il film “This is England”, di difficile comprensione a causa di accenti particolarmente marcati di alcuni protagonisti, della densità di alcuni dialoghi e dei riferimenti culturali alla sottocultura inglese skinhead nata a fine anni ‘60. La parte principale del lavoro è stata la creazione dei sottotitoli. Nel primo capitolo introdurrò il film, spiegherò la prima fase del lavoro, ovvero come ho svolto il processo del sottotitolaggio tradizionale, successivamente seguiranno nozioni sui pivot subtitles e il secondo processo di creazione di quelli italiani. Il secondo capitolo spiegherà il concetto di qualità dei sottotitoli. Successivamente seguiranno i commenti ai sottotitoli: si tratterà di mettere a confronto i sottotitoli ottenuti con le due diverse tecniche per la medesima battuta o scena. Per finire analizzerò le differenze che emergono dalle due tecniche, l’impatto sul pubblico, i vantaggi e gli svantaggi di ognuna e i motivi per cui una viene utilizzata più dell’altra. Queste considerazioni serviranno per dare una risposta alla questione della tesi: in cosa consiste la differenza fra le due tecniche? Sono accettabili entrambi i risultati seppur diversi?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella seguente tesi viene affrontato il problema dell'applicabilità di sorgenti laser nella saldatura dell'ottone; questo materiale risulta difficile da saldare poiché nella lega è presente lo zinco, un elemento altamente volatile. La presenza dello zinco comporta la realizzazione di cordoni di saldatura non ottimali, caratterizzati da inclusioni e porosità. Nell'elaborato viene prima descritto il laser con le sue applicazioni industriali; poi seguono in ordine una descrizione del laser Nd:YAG, una panoramica sull'ottone OT 63 (CuZn37) trattato ed una descrizione dettagliata sul sistema laser usato per le prove in laboratorio (sistema SISMA SWA-300). Infine viene trattata in maniera molto approfondita la parte relativa alle prove effettuate sull'ottone, mettendo in evidenza i parametri usati e commentando i risultati ottenuti, in modo da avere un'idea circa l'effettiva applicabilità dei processi di saldatura laser sul materiale in oggetto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell’ultima decade abbiamo assistito alla transizione di buona parte dei business da offline ad online. Istantaneamente grazie al nuovo rapporto tra azienda e cliente fornito dalla tecnologia, molti dei metodi di marketing potevano essere rivoluzionati. Il web ci ha abilitato all’analisi degli utenti e delle loro opinioni ad ampio spettro. Capire con assoluta precisione il tasso di conversione in acquisti degli utenti fornito dalle piattaforme pubblicitarie e seguirne il loro comportamento su larga scala sul web, operazione sempre stata estremamente difficile da fare nel mondo reale. Per svolgere queste operazioni sono disponibili diverse applicazioni commerciali, che comportano un costo che può essere notevole da sostenere per le aziende. Nel corso della seguente tesi si punta a fornire una analisi di una piattaforma open source per la raccolta dei dati dal web in un database strutturato

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il traguardo più importante per la connettività wireless del futuro sarà sfruttare appieno le potenzialità offerte da tutte le interfacce di rete dei dispositivi mobili. Per questo motivo con ogni probabilità il multihoming sarà un requisito obbligatorio per quelle applicazioni che puntano a fornire la migliore esperienza utente nel loro utilizzo. Sinteticamente è possibile definire il multihoming come quel processo complesso per cui un end-host o un end-site ha molteplici punti di aggancio alla rete. Nella pratica, tuttavia, il multihoming si è rivelato difficile da implementare e ancor di più da ottimizzare. Ad oggi infatti, il multihoming è lontano dall’essere considerato una feature standard nel network deployment nonostante anni di ricerche e di sviluppo nel settore, poiché il relativo supporto da parte dei protocolli è quasi sempre del tutto inadeguato. Naturalmente anche per Android in quanto piattaforma mobile più usata al mondo, è di fondamentale importanza supportare il multihoming per ampliare lo spettro delle funzionalità offerte ai propri utenti. Dunque alla luce di ciò, in questa tesi espongo lo stato dell’arte del supporto al multihoming in Android mettendo a confronto diversi protocolli di rete e testando la soluzione che sembra essere in assoluto la più promettente: LISP. Esaminato lo stato dell’arte dei protocolli con supporto al multihoming e l’architettura software di LISPmob per Android, l’obiettivo operativo principale di questa ricerca è duplice: a) testare il roaming seamless tra le varie interfacce di rete di un dispositivo Android, il che è appunto uno degli obiettivi del multihoming, attraverso LISPmob; e b) effettuare un ampio numero di test al fine di ottenere attraverso dati sperimentali alcuni importanti parametri relativi alle performance di LISP per capire quanto è realistica la possibilità da parte dell’utente finale di usarlo come efficace soluzione multihoming.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi verte sulla traduzione di ricette scritte a mano o tramandate oralmente da diverse generazioni di alcune famiglie russe. Anche tali ricette, e non solo quelle riportate nei libri di cucina stampati, contengono preziose informazioni sulle abitudini alimentari dei russi, nonché sulla loro vita quotidiana e sulla storia del loro paese. Ho intervistato alcuni membri di queste famiglie e inviato un questionario online ad altri. Ho fotografato o chiesto di mandarmi fotografie delle ricette trascritte a mano da loro stessi o da alcuni familiari su libri o fogli conservati in casa. Alcune di queste ricette sono state scritte decenni fa, altre sono rielaborazioni più recenti di ricette tradizionali della famiglia o invenzioni delle ultime generazioni. Nella prima parte della mia tesi ho analizzato le tappe fondamentali della letteratura culinaria russa e i processi con cui le ricette tradizionali vengono tramandate alle generazioni successive, sia sotto forma di libri di cucina scritti da chef e autorità nel campo, sia in ambito familiare, trascritte a mano su fogli e quaderni oppure insegnate direttamente, in forma orale. In seguito sono riportate le traduzioni delle ricette: dal boršč della mamma di Kristina, una mia compagna di università alla Moscow State Univesity, alle antiche ricette della bisnonna della mia professoressa Maria Arapova, ancora scritte con l’ortografia prerivoluzionaria, alle specialità di Marzhan, 15 anni, ma già abilissima ai fornelli. Le ricette sono precedute da una breve introduzione sulla storia del piatto oppure da memorie e aneddoti familiari legati ad esso che mi sono stati raccontati durante le interviste o nelle risposte al questionario. Segue un’analisi dei principali problemi affrontati durante la traduzione. In primo luogo, quelli legati al genere testuale: la ricetta è un testo prescrittivo, il che rende l’efficacia della traduzione un aspetto cruciale, ed è anche una tipologia testuale ricca di elementi culturally specific, ad esempio ingredienti e unità di misura. In secondo luogo, vengono analizzate le difficoltà legate al tipo particolare di ricette tradotte: testi ad uso domestico e familiare, ricchi di omissioni e spesso scritti in una grafia difficile da decifrare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi si inserisce in un progetto di ricerca internazionale denominato “Venice Time Machine” dove collaborano fianco a fianco l’Ecole Polytechnique Fédérale de Lausanne e l’Università Cà Foscari di Venezia. Grazie al coinvolgimento dell’Archivio di Stato di Venezia, decine di chilometri di documenti verranno digitalizzati e indicizzati, al fine di creare un database open access da utilizzare per la ricerca e l’istruzione. Molti di questi documenti tuttavia sono particolarmente fragili oppure, come nel caso di diversi testamenti, non sono mai stati aperti, per cui le tecniche tradizionali di digitalizzazione non sono applicabili. Di qui deriva l’interesse per sperimentare nuove tecniche non invasive al fine di digitalizzare e quindi rendere fruibili al pubblico anche questi documenti altrimenti inaccessibili. Lo scopo dell’analisi tomografica è quello di creare un modello 3D del documento, su cui effettuare successive elaborazioni al fine di ottenere una separazione virtuale delle pagine e quindi permetterne la lettura anche se il manoscritto è chiuso e non può essere aperto. In particolare in questo lavoro di tesi sono stati analizzati due testamenti: un testamento del 1679, usato come campione di prova per verificare la migliore sorgente di raggi X ai fini della ricostruzione tomografica e anche per valutare l’efficacia della tecnica, e il testamento Alchier-Spiera (dai nomi dei testatori), datato 1634, di maggiore interesse poiché ancora chiuso. I risultati ottenuti sono molto soddisfacenti, poiché elaborando le ricostruzioni tomografiche è possibile la lettura virtuale sia di parole che di intere frasi. Questo risultato porta nuova linfa al progetto che, di base, si pone l’obiettivo di convertire in formato digitale decine di km di testi conservati in Archivio, ma che ha trovato, in questo tipo di testamenti chiusi, un ostacolo molto difficile da superare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'ambito della meccanica quantistica è stato sviluppato uno strumento di calcolo al fine di studiare sistemi per i quali è troppo difficile risolvere il problema di Schrödinger. Esso si basa sull'idea di considerare un sistema semplice, totalmente risolvibile, e perturbarlo fino ad ottenere un'Hamiltoniana simile a quella che si vuole studiare. In questo modo le soluzioni del sistema più complicato sono le soluzioni note del problema semplice corrette da sviluppi in serie della perturbazione. Nonostante il grande successo della Teoria perturbativa, essendo una tecnica di approssimazione, presenta delle limitazioni e non può essere usata in ogni circostanza. In questo lavoro di tesi è stata valutata l'efficacia della Teoria perturbativa ricercando la compatibilità tra le soluzioni trovate col metodo analitico e quelle esatte ottenute numericamente. A tale scopo è stato usato il sistema fisico dell'oscillatore anarmonico, ovvero un oscillatore armonico standard sottoposto ad una perturbazione quartica. Per l'analisi numerica invece è stato utilizzato il programma Wolfram Mathematica. La trattazione seguita ha dimostrato che la Teoria perturbativa funziona molto bene in condizioni di bassa energia e di piccole perturbazioni. Nel momento in cui il livello energetico aumenta e l'intensità della perturbazione diventa significativa, i risultati analitici cominciano a divergere da quelli ottenuti numericamente.