460 resultados para Ancora
Resumo:
Il mio lavoro di tesi affronta la tematica del popolo Guaraní, situato nella città di Buenos Aires. La tesi si basa su una serie di interviste raccolte durante una ricerca sul campo e ha come obiettivo quello di fornire una visione generale di questa situazione, così come quello di smentire pregiudizi e stereotipi legati all’argomento e ancora molto diffusi. In prima istanza, abbiamo fornito un contesto storico e normativo. Per quanto riguarda l’aspetto storico, abbiamo ripercorso la storia della lingua guaraní e del territorio di Buenos Aires a partire dall’epoca precolombiana fino all’indipendenza, soffermandoci sull’importanza dell’evangelizzazione gesuitica nello sviluppo e nella preservazione della lingua e della cultura guaranì. Per quando riguarda l’aspetto normativo, partendo dal concetto di diritto umano abbiamo presentato la situazione legislativa argentina dal punto di vista linguistico, senza perdere di vista i riconoscimenti di cui la lingua guaraní gode anche in Paraguay e mettendo in rilievo i temi della comunicazione audiovisiva e dell’educazione nazionale. Successivamente, abbiamo trattato tutta una serie di tematiche relazionate con l’attuale presenza guaraní sul territorio di Buenos Aires: l’evoluzione del termine indio, il tema dell’indigenismo, il problema della discriminazione, la questione delle migrazioni e il tema dei censimenti con le sue limitazioni. Infine, sulla base delle analisi effettuate, abbiamo descritto l’attuale presenza di suddetta popolazione a Buenos Aires non solamente da un punto di vista linguistico, ma anche politico e sociale, classificando le varietà di lingua guaraní e le tipologie di parlanti presenti sull’area di studio. Nel descrivere la situazione attuale, ci siamo soffermati in particolare sull’insegnamento della lingua guaraní nel Laboratorio de Idiomas dell’Università di Buenos Aires e sulla forte presenza delle comunità indigene urbane nell’Area Metropolitana della capitale argentina.
Resumo:
L'obiettivo della tesi è progettare un'architettura abilitante per scenari smart health, concentrandosi sulla parte end-user (non sulla parte server-cloud), ossia sperimentando l'ambito dei wearable devices e facendo riferimento al binomio fitness-Apple Watch, comodo perchè presente nell'azienda FitStadium che ci fornisce motivazioni, requisiti e goals. Nel primo capitolo si analizzeranno le soluzioni offerte attualmente dal mercato per la realizzazione di servizi legati al fitness, focalizzandosi in particolare sulle architetture proposte e come quest'ultime possano convivere con l'ecosistema FitStadium. Il secondo capitolo è riservato invece all'approfondimento delle tecnologie Apple, che verranno utilizzate concretamente per la realizzazione del caso di studio. Ancora una volta si farà attenzione alle possibilità architetturali offerte da queste tecnologie. Nel terzo capitolo viene trattato nella sua interezza il caso di studio, analizzandone in particolare lo stato pre e post tesi. Verrà cioè descritta l'applicazione implementata insieme alla presentazione di un'architettura abilitante anche per gli scenari smart health. Infine, all'interno del capito 4 viene descritto più precisamente il concetto di smart health e il percorso che ha condotto alla sua definizione.
Resumo:
La Fibrillazione Atriale (FA) è una delle aritmie più frequentemente riscontrate nella pratica clinica, ma i meccanismi che la generano e che la sostengono non sono ancora oggi ben chiari. L’obiettivo di questo lavoro di tesi è indagare il substrato aritmogeno della FA con particolare attenzione al legame tra rimodellamento elettrico e strutturale. La tecnica di riferimento per la valutazione della fibrosi è la risonanza magnetica con iniezione di mezzo di contrasto e acquisizione ritardata. Tipicamente, però, la presenza di fibrosi viene valutata durante la procedura di ablazione transcatetere mediante l’analisi dei potenziali elettrici rilevati, considerando le zone a basso potenziale indicative della presenza di alterazioni strutturali. In questo lavoro sono stati elaborati dati di Risonanza Magnetica (RM), in particolare sequenze Angio-RM e DE-RM. Dalle sequenze Angio-RM è stato ricostruito un modello 3D paziente-specifico dell’atrio, mentre dalle sequenze DE-RM sono state ricavate informazioni relative alla presenza di tessuto atriale fibrotico. Al modello 3D è stata poi sovrapposta l’informazione sull’intensità di grigio del dato DE-RM per poter visualizzare la localizzazione delle zone di fibrosi sulla superficie 3D dell’atrio. Sono stati anche esportati dal sistema di mappaggio elettroanatomico EnSite NavX (St. Jude Medical) i dati relativi alla geometria dell’atrio e ai potenziali registrati durante lo svolgimento della procedura di ablazione. Da questi dati è stato possibile ricostruire in ambiente Matlab le mappe di voltaggio raffiguranti i potenziali registrati durante la procedura. Per poter studiare e valutare il legame esistente tra rimodellamento elettrico e strutturale, sono state confrontate le mappe di voltaggio e le superfici raffiguranti fibrosi. Questo lavoro di tesi è stato svolto in collaborazione con l’U.O. di Cardiologia dell’Ospedale Bufalini di Cesena e la St. Jude Medical.
Resumo:
I segnali biopotenziali cardiaci e neurali nelle forme di elettroencefalogramma (EEG) ed elettrocardiogramma (ECG) sono due indicatori fisiologici molto importanti che ben si prestano ad un monitoraggio sanitario wireless a lungo termine. Nonostante gli innumerevoli progressi compiuti nel campo della tecnologia wireless e della microelettronica, l’utilizzo dell'EEG/ECG risulta essere ancora limitato dai disagi e dalle scomodità dovute all’impiego di elettrodi a contatto bagnato (wet contact electrodes). Gli elettrodi adesivi ad uso clinico sono spesso percepiti dai pazienti su cui vengono applicati come irritanti e scomodi, riducendo notevolmente l’accondiscendenza ad un loro utilizzo costante nell'ambiente domestico, ovvero al di fuori dello stretto controllo medico-sanitario. Come alternativa si ricorre all’uso di elettrodi a secco (dry electrodes), questi però, in mancanza della capacità di conduzione del gel, sono molto più sensibili alle condizioni della pelle e pertanto suscettibili agli artefatti legati al movimento. Questa tesi si ripropone di illustrare in maniera il più possibile organica e precisa il principio di funzionamento degli elettrodi senza contatto, con particolare attenzione al ruolo rivestito dai segnali EEG ed ECG. L’analisi intende inoltre mettere in evidenza l’entità dei vantaggi derivanti dall’impiego degli elettrodi senza contatto rispetto a quelli tradizionali.
Resumo:
La portata media cardiaca, (cardiac output “CO”) è un parametro essenziale per una buona gestione dei pazienti o per il monitoraggio degli stessi durante la loro permanenza nell’unità di terapia intensiva. La stesura di questo elaborato prende spunto sull’articolo di Theodore G. Papaioannou, Orestis Vardoulis, and Nikos Stergiopulos dal titolo “ The “systolic volume balance” method for the non invasive estimation of cardiac output based on pressure wave analysis” pubblicato sulla rivista American Journal of Physiology-Heart and Circulatory Physiology nel Marzo 2012. Nel sopracitato articolo si propone un metodo per il monitoraggio potenzialmente non invasivo della portata media cardiaca, basato su principi fisici ed emodinamici, che usa l’analisi della forma d’onda di pressione e un metodo non invasivo di calibrazione e trova la sua espressione ultima nell’equazione Qsvb=(C*PPao)/(T-(Psm,aorta*ts)/Pm). Questa formula è stata validata dagli autori, con buoni risultati, solo su un modello distribuito della circolazione sistemica e non è ancora stato validato in vivo. Questo elaborato si pone come obiettivo quello di un’analisi critica di questa formula per la stima della portata media cardiaca Qsvb. La formula proposta nell'articolo verrà verificata nel caso in cui la circolazione sistemica sia approssimata con modelli di tipo windkessel. Dallo studio svolto emerge il fatto che la formula porta risultati con errori trascurabili solo se si approssima la circolazione sistemica con il modello windkessel classico a due elementi (WK2) e la portata aortica con un’onda rettangolare. Approssimando la circolazione sistemica con il modello windkessel a tre elementi (WK3), o descrivendo la portata aortica con un’onda triangolare si ottengono risultati con errori non più trascurabili che variano dal 7%-9% nel caso del WK2 con portata aortica approssimata con onda triangolare ad errori più ampi del 20% nei i casi del WK3 per entrambe le approssimazioni della portata aortica.
Resumo:
Il problema dell'acidificazione degli oceani, conseguente ai cambiamenti climatici, è un processo ancora poco conosciuto. Per comprendere questo fenomeno, possono essere utilizzati degli ambienti naturalmente acidificati, considerati laboratori a cielo aperto. Lo scopo di questo lavoro di tesi è stato quello di utilizzare le fumarole presenti nell'isola di Ischia, per approfondire le dinamiche dei processi di acidificazione e per analizzare l'eventuale interazione tra pH e condizioni meteorologiche. I dati utilizzati, forniti dalla Stazione Zoologica “Anton Dohrn” di Napoli, erano serie di pH e di vento rilevate in continuo, in due aree, nord e sud rispetto all'isolotto del Castello Aragonese, e in tre stazioni lungo un gradiente di acidificazione. Tutto il lavoro è stato svolto a step, dove il risultato di un'analisi suggeriva il tipo e il metodo analitico da utilizzare nelle analisi successive. Inizialmente i dati delle due serie sono stati analizzati singolarmente per ottenere i parametri più salienti delle due serie. In seguito i dati sono stati correlati fra loro per stimare l'influenza del vento sul pH. Globalmente è stato possibile evidenziare come il fenomeno dell'acidificazione sia correlato con il vento, ma la risposta sembra essere sito-specifica, essendo risultato dipendente da altri fattori interagenti a scala locale, come la geomorfologia del territorio, le correnti marine e la batimetria del fondale. È però emersa anche la difficoltà nel trovare chiare correlazioni fra le due serie indagate, perché molto complesse, a causa sia della numerosa quantità di zeri nella serie del vento, sia da una forte variabilità naturale del pH, nelle varie stazioni esaminate. In generale, con questo lavoro si è dimostrato come utilizzare tecniche di analisi delle serie storiche, e come poter utilizzare metodi di regressione, autocorrelazione, cross-correlation e smoothing che possono integrare i modelli che prendono in considerazione variabili esogene rispetto alla variabile di interesse.
Resumo:
L’incremento dell’istallazione di collettori solari termici e panelli solari ibridi nell’ultimo decennio ha spinto il mercato settoriale alla ricerca di nuovi sistemi di accumulo termico da implementare a tali impianti, al fine di poter sfruttare l’energia derivante dal sole con una efficienza termica maggiore. I dispositivi oggigiorno in commercio, nonostante le tecnologie impiantistiche risultino essere state migliorate, non hanno subito un’evoluzione ed ancora oggi il principale materiale d’accumulo è l’acqua, ottenendo così dispositivi con efficienze molto ridotte, di dimensioni elevate e collocabili in zone interne abitabili. L’utilizzo di fluido a cambiamento di stato come mezzo di accumulo può essere una valida alternativa al fine di incrementare l’efficienza dal punto di vista energetico e la riduzione degli ingombri, data l’elevata energia interna posseduta dal materiale durante il cambiamento di fase. Nel seguente elaborato di tesi, si è posto come obbiettivo quello di effettuare uno studio sulla possibilità di accumulare energia termica mediante l’utilizzo di un fluido a cambiamento di fase a base organica, tramite un’analisi sperimentale ed energetica dei meccanismi di fusione attorno ad un ramo dello scambiatore di calore, al fine di valutare la conformazione migliore che permetta la sottrazione di energia termica latente durante la fase di solidificazione. Questo ha comportato, oltre alla scelta del PCM ottimale per l’accumulo, la progettazione e realizzazione del prototipo e l’attrezzatura sperimentale.
Resumo:
Il presente elaborato vuole illustrare alcuni risultati matematici di teoria della misura grazie ai quali si sono sviluppate interessanti conseguenze nel campo della statistica inferenziale relativamente al concetto di statistica sufficiente. Il primo capitolo riprende alcune nozioni preliminari e si espone il teorema di Radon-Nikodym, sulle misure assolutamente continue, con conseguente dimostrazione. Il secondo capitolo dal titolo ‘Applicazioni alla statistica sufficiente’ si apre con le definizioni degli oggetti di studio e con la presentazione di alcune loro proprietà matematiche. Nel secondo paragrafo si espongono i concetti di attesa condizionata e probabilità condizionata in relazione agli elementi definiti nel paragrafo iniziale. Si entra nel corpo di questo capitolo con il terzo paragrafo nel quale definiamo gli insiemi di misura, gli insiemi di misura dominati e il concetto di statistica sufficiente. Viene qua presentato un importante teorema di caratterizzazione delle statistiche sufficienti per insiemi dominati e un suo corollario che descrive la relativa proprietà di fattorizzazione. Definiamo poi gli insiemi omogenei ed esponiamo un secondo corollario al teorema, relativo a tali insiemi. Si considera poi l’esempio del controllo di qualità per meglio illustrare la nozione di statistica sufficiente osservando una situazione più concreta. Successivamente viene introdotta la nozione di statistica sufficiente a coppie e viene enunciato un secondo teorema di caratterizzazione in termini di rapporto di verosimiglianza. Si procede quindi ad un confronto tra questi due tipi di sufficienza. Tale confronto viene operato in due situazioni differenti e porta a risultati diversi per ogni caso. Si conclude dunque l’elaborato marcando ancora l’effettiva bontà di una statistica sufficiente in termini di informazioni contenute al suo interno.
Resumo:
Per “effetto domino” si intende uno scenario incidentale in cui un evento primario si propaga ad apparecchiature contigue tramite un vettore di impatto, con innesco di eventi incidentali secondari ed amplificazione delle conseguenze finali dell’incidente. Nei casi di maggior gravità gli effetti di scenari incidentali di questo tipo possono danneggiare contemporaneamente più impianti appartenenti allo stesso stabilimento oppure addirittura coinvolgere più stabilimenti. Gli incidenti dovuti ad effetto domino sono tra i più severi e complessi che possono avere luogo nell’industria di processo; la complessità che contraddistingue l’effetto domino influenza anche la definizione stessa del fenomeno e ne rende difficoltosa l’individuazione delle caratteristiche principali. È comunque condivisa l’idea che, perché uno scenario incidentale evolva con effetto domino, sia necessario l’elemento “propagazione”, ovvero lo sviluppo di uno o più scenari secondari causati dall’incidente iniziale con un aggravio dell’area di danno rispetto a quella connessa allo scenario incidentale iniziale. L’effetto domino è un argomento di grande interesse nell’ambito della valutazione del rischio di incidente rilevante, sia a causa dell’elevato rischio connesso alla sequenza di eventi incidentali che esso comporta, sia dell’indeterminazione ancora presente nelle metodologie di analisi e di valutazione del fenomeno stesso. La Direttiva Europea 2012/18/UE (la cosiddetta Direttiva Seveso III) ed il suo recente recepimento italiano, il D.Lgs. 105/2015, stabiliscono la necessità di valutare l’effetto domino tra stabilimenti, in particolare in aree industriali ad elevata concentrazione di attività a rischio di incidente rilevante. Tuttavia anche la valutazione dell’effetto domino all’interno dei singoli stabilimenti è importante, potendo essa rappresentare, da un certo punto di vista, il completamento dell’analisi di sicurezza dello stabilimento. In un contesto come quello dell’analisi del rischio di incidente rilevante, in corrispondenza dell’aggiornamento quinquennale del Rapporto di Sicurezza di stabilimento richiesto dalle norme di legge, nel presente lavoro di tesi è stata effettuata la valutazione dell’effetto domino intra-stabilimento per un sito a rischio di incidente, applicando la metodologia proposta nell’Allegato E del D.Lgs. 105/2015.
Resumo:
Una delle immagini iconiche del nostro pensiero è un noto quadro di Giorgio De Chirico: “Archeologi”. Manichini antropomorfi, freddi e sgradevoli sono i custodi di quell’antichità d’oro rappresentata in questo caso dagli elementi dell’architettura classica. La nostra generazione impersona oggi l’essenza di quei manichini raccontati da De Chirico: a cambiare è il contenuto architettonico e storico che portano con sè, ma l’esigenza umana di ricordare il passato e valorizzarlo resta immutata. Figli dell’epoca industriale e del consumismo, ora tocca a noi ripiantare le radici storiche del tempo che fu, che ancora oggi hanno tanta influenza sulla vita di tutti. L’ordine dei templi classici è stato sovvertito da quello delle grandi industrie abbandonate, i luoghi del culto e della preghiera pagana hanno lasciato il posto alle sale dei “rituali” fordisti e del sudore del lavoro. Siamo architetti di archeologie sommerse dall’ignoranza della nostra epoca e, attraverso di esse, tentiamo di ricucire le città dalle ferite che noi stessi le abbiamo causato.
Resumo:
Poiché i processi propri del sistema nervoso assumono una funzione fondamentale nello svolgimento della vita stessa, nel corso del tempo si è cercato di indagare e spiegare questi fenomeni. Non solo infatti il suo ruolo è di primaria importanza, ma le malattie che lo colpiscono sono altamente invalidanti. Nell’ultimo decennio, al fine di far luce su questi aspetti profondamente caratterizzanti la vita dell’uomo, hanno avuto luogo diversi studi aventi come strumento d’esame la stimolazione transcranica a corrente continua. In particolare questo lavoro si propone di analizzare gli ambiti di interesse dell’applicazione della tDCS, soffermandosi sulla capacità che ha questa metodica di indagare i meccanismi propri del cervello e di proporre terapie adeguate qualora questi meccanismi fossero malfunzionanti. L’utilizzo di questa stimolazione transcranica unitamente ai più moderni metodi di neuroimaging permette di costruire, o quanto meno cercare di delineare, un modello delle strutture di base dei processi cognitivi, quali ad esempio il linguaggio, la memoria e gli stati di vigilanza. A partire da questi primi promettenti studi, la tDCS è in grado di spostare le proprie ricerche nell’ambito clinico, proponendo interessanti e innovative terapie per le malattie che colpiscono il cervello. Nonostante patologie quali il morbo di Parkinson, l’Alzheimer, la dislessia ed l’afasia colpiscano una grande percentuale della popolazione non si è ancora oggi in grado di garantire ai pazienti dei trattamenti validi. E’ in questo frangente che la tDCS assume un ruolo di primaria importanza: essa si presenta infatti come una tecnica alternativa alle classiche cure farmacologie e allo stesso tempo non invasiva, sicura e competitiva sui costi.
Resumo:
L’azoto è uno dei prodotti principali dell’industria chimica, utilizzato principalmente per assicurare un sicuro stoccaggio di composti infiammabili. Generatori con sistemi PSA sono spesso più economici della tradizionale distillazione criogenica. I processi PSA utilizzano una colonna a letto fisso, riempita con materiale adsorbente, che adsorbe selettivamente un componente da una miscela gassosa. L’ossigeno diffonde molto più velocemente dell'azoto nei pori di setacci molecolari carboniosi. Oltre ad un ottimo materiale adsorbente, anche il design è fondamentale per la performance di un processo PSA. La fase di adsorbimento è seguita da una fase di desorbimento. Il materiale adsorbente può essere quindi riutilizzato nel ciclo seguente. L’assenza di un simulatore di processo ha reso necessario l’uso di dati sperimentali per sviluppare nuovi processi. Un tale approccio è molto costoso e lungo. Una modellazione e simulazione matematica, che consideri tutti i fenomeni di trasporto, è richiesta per una migliore comprensione dell'adsorbente sia per l'ottimizzazione del processo. La dinamica della colonna richiede la soluzione di insiemi di PDE distribuite nel tempo e nello spazio. Questo lavoro è stato svolto presso l'Università di Scienze Applicate - Münster, Germania. Argomento di questa tesi è la modellazione e simulazione di un impianto PSA per la produzione di azoto con il simulatore di processo Aspen Adsorption con l’obiettivo di permettere in futuro ottimizzazioni di processo affidabili, attendibili ed economiche basate su computazioni numeriche. E' discussa l’ottimizzazione di parametri, dati cinetici, termodinamici e di equilibrio. Il modello è affidabile, rigoroso e risponde adeguatamente a diverse condizioni al contorno. Tuttavia non è ancora pienamente soddisfacente poiché manca una rappresentazione adeguata della cinetica ovvero dei fenomeni di trasporto di materia. La messa a punto del software permetterà in futuro di indagare velocemente nuove possibilità di operazione.
Resumo:
In questo elaborato viene presentata l'analisi cinematica delle regioni centrali di NGC 6441, uno degli ammassi globulari più massivi (M ~10^6 Msol) della nostra Galassia. L'ammasso è stato selezionato, insieme ad altri 18, all'interno dell'ESO Large Program “Unveiling the kinematics in the core of high-density globular clusters with SINFONI" (PI: Ferraro) per cercare evidenze di buchi neri di massa intermedia (IMBH), la cui esistenza è ancora controversa. Poichè la misura della dispersione di velocità da spettri integrati può essere affetta dalla contaminazione di poche stelle brillanti, in questo lavoro si sono misurate le velocità radiali (RV) di stelle individuali, utilizzando lo spettrografo IFU SINFONI dell'ESO, dotato di un sistema di ottiche adattive. Sono state misurate le RV di 709 stelle giganti nei primi 17" dal centro, da cui è stato estratto un sotto-campione di alta qualità di circa 200 stelle. Queste misure sono state poi combinate con un campione di RV nelle regioni più esterne dell'ammasso, ottenute con gli spettrografi multi-oggetto KMOS e FLAMES dell'ESO. Tali dati sono stati utilizzati per il calcolo del profilo di dispersione di velocità e per la ricerca di rotazione lungo l'intera estensione radiale nell'ammasso. I risultati ottenuti sembrano escludere sia l'esistenza di un IMBH, che la presenza di forte rotazione interna. Inoltre hanno evidenziato una significativa decrescita della dispersione di velocita` nelle regioni centrali (parzialmente confermata anche da misure di moti propri ottenute con HST), che potrebbe suggerire la presenza di anisotropia tangenziale nel centro del sistema. Un simile comportamento (sebbene di minore entita`) e’ stato evidenziato in altri ammassi, suggerendo che potrebbe trattarsi di una caratteristica comune in questi sistemi stellari.
Resumo:
Ai nostri giorni le aree costiere risultano particolarmente sensibili perché sottoposte ad alcune fonti di stress, quali la salinizzazione degli acquiferi e la naturale ed antropica modificazione del territorio costiero. Questo lavoro indaga gli effetti dell’incendio del 2012 nella Pineta costiera di Lido di Dante (Ravenna) sull’acquifero costiero superficiale. Sono stati effettuati i rilievi in campo della tavola d’acqua, della conduttitivà elettrica e del pH nei mesi di novembre 2014 e luglio 2015. I campioni di acqua sono stati prelevati grazie alla tecnologia dei minifiltri, un sistema di campionamento multilivello molto preciso e rapido. Il campionamento comprende 3 transetti di minifiltri ubicati nella zona bruciata della pineta e un transetto di controllo nella zona verde della pineta, dove la vegetazione è intatta. Dall’elaborazione grafica di questi valori sono state ottenute delle isolinee rappresentative di valori soglia per le acque dolci, salmastre, salate, a pH 7.5 tipico delle acque meteoriche e a pH 8 tipico dell’acqua di mare. I valori di conduttività elettrica rapportati alla topografia e alla tavola d’acqua mostrano la formazione di lenti di acqua dolce nella zona dove la vegetazione è scomparsa a causa dell’incendio. Acque dolci assenti nella zona verde a causa della vegetazione e della sua attività evapotraspirativa. Le isolinee ottenute dal pH spiegano invece l’effetto delle ceneri dell’incendio dilavate dalle acque meteoriche e le differenze con la zona ancora ricoperta da vegetazione. I parametri analizzati risultano determinanti nella valutazione dello stato di salute della risorsa acquifera della costiera romagnola minacciata dalla salinizzazione e dalla modificazione del pH.
Resumo:
Nonostante l’importanza crescente degli scrittori latinos caraibici all’interno della letteratura nordamericana, le loro opere sono ancora poco conosciute in Italia. Lo scopo di questa tesi è di presentare il filone degli scrittori caraibici che scrivono e pubblicano negli Stati Uniti attraverso la traduzione di alcuni capitoli tratti dal romanzo How the García girls lost their accents della scrittrice newyorchese di origini dominicane Julia Álvarez. L’elaborato è diviso in cinque capitoli: il primo inizia fornendo una breve panoramica del contesto storico e letterario in cui si inseriscono gli autori latinos, per poi proseguire con la descrizione delle caratteristiche principali di questo filone; una breve parentesi verrà dedicata anche alla sua difficile collocazione letteraria. Nel secondo capitolo viene presentata l’autrice e la sua opera. Il terzo capitolo si focalizza sulla struttura e i temi principali del romanzo e su una descrizione più dettagliata dei capitoli scelti per la traduzione. Nel quarto capitolo vengono riportate le mie proposte di traduzione per quattro dei capitoli del romanzo. Infine, l’ultimo capitolo è composto da un’analisi dettagliata del processo di traduzione che include alcune riflessioni preliminari sul testo, la descrizione di alcune delle teorie più recenti dei Translation Studies e delle strategie messe in atto durante il processo di traduzione.