990 resultados para Luce Irigaray
Resumo:
Il 17 agosto 1999 un violento terremoto di Mw 7,4 (terremoto di Izmit) ha interessato l’area del Golfo di Izmit, dove il segmento settentrionale della Faglia Nord-Anatolica (FNA) entra nel Mare di Marmara. Oltre a causare enormi danni e un numero di vittime altissimo (oltre 20000), la dislocazione orizzontale di oltre 5 metri in prossimità dell’epicentro ha caricato tettonicamente il segmento della FNA verso Istanbul. Da qui, l’importanza di un modello geologico-strutturale condiviso dalla comunità scientifica per questo ramo della Faglia Nord Anatolica, per la formulazione dei modelli di stima del rischio sismico in una zona della Turchia molto densamente popolata (oltre 12 milioni di persone). I numerosi studi di geologia e geofisica marina condotti nel Golfo di Izmit e più in generale nel Mare di Marmara, hanno avuto un grosso impulso in concomitanza del terremoto del 1999 e negli anni successivi, quando il Mare di Marmara è stato inserito tra i siti di importanza strategica. Nonostante la grande mole di dati raccolti e le pubblicazioni di lavori importanti che hanno contribuito a portare nuova luce sulla geologia di questo territorio complesso, permangono ancora incertezze e controversie sui rapporti le tra la formazione del bacino di Marmara e la FNA. Questo lavoro di tesi ha lo scopo di esaminare la cinematica della FNA nell’area del Mare di Marmara, in generale, ed in particolare lungo i vari bacini allineati lungo il ramo settentrionale: da Est verso Ovest, il Bacino di Cinarcik, il Bacino di Kumburgaz, il Bacino Centrale ed il Bacino di Tekirdag. Analizzeremo la natura e il grado di attività dei segmenti individuati da zone di trasferimento (bending o overstep) e tenteremo di cartografare la geometria, lo stile strutturale e la lunghezza di ciascun segmento, per effettuare una stima del potenziale sismogenetico di ciascun ramo utilizzando relazioni empiriche.
Resumo:
La mole di reperti e manufatti definiti, al momento, dalla legge come “bene culturale” è immensa e in continua espansione. La definizione di bene culturale copre un'infinità di oggetti, di variabili datazioni, materiali e dimensioni ed è ovvio immaginare che la quantità di manufatti da conservare e restaurare andrà, col tempo, ampliandosi essendo logico supporre che, con l'evolversi del genere umano, gli oggetti attualmente di uso e consumo andranno ad aggiungersi a quanto già viene conservato e tutelato diventando anch'essi reperti storici. La necessità di conoscere quanto più possibile del bene e di massimizzarne la durata mantenendo al contempo la sua integrità e una sua accessibilità al pubblico ha portato alla ricerca di soluzioni sempre più efficaci per adempiere allo scopo. Il fortunato evolversi della tecnologia ha ben risposto a questa richiesta permettendo l'utilizzo di una grande quantità di strumenti per far fronte alle più varie necessità del restauratore, dello studioso e del conservatore che cercano risposte sull'oggetto in esame volendo al contempo incidere il meno possibile sul bene stesso. Al momento di questa trattazione ci troviamo di fronte ad un'enorme quantità di dati ottenibili dalle più svariate forme di indagine. Ciò che tuttavia accomuna molti degli strumenti di indagine non distruttiva utilizzati da chi lavora nel campo dello studio, della conservazione e del restauro è il basarsi sull'impiego delle onde elettromagnetiche nelle diverse bande spettrali. Questa trattazione ha quindi lo scopo di fare il punto su quali tipologie, con quali metodi e con quali risultati le onde elettromagnetiche rispondono alle esigenze della conservazione e dello studio dei beni culturali.
Resumo:
Il mondo di Internet ha vissuto un radicale e inarrestabile processo di rinnovamento nel corso dell'ultimo decennio. Nel giro di pochi anni, i siti che popolano il World Wide Web si sono evoluti divenendo vere e proprie applicazioni in grado di fornire un livello di interattività e di coinvolgimento fino ad allora impensabile. Il mondo del Web è mutato, e con esso quello dei browser, i quali assumono sempre più le conformazioni di "sistemi operativi nei sistemi operativi": si sono tramutati in complesse piattaforme di sviluppo in grado di fornire a programmatori e web designer potenti librerie e API relative a qualsiasi ambito, nonché avanzati strumenti di debugging. Numerosi standard che governano l'ecosistema di Internet hanno raggiunto la maturità in questo contesto: fra tutti HTML5, il quale ha arricchito enormemente le potenzialità di un browser introducendo nuovi strumenti orientati alla multimedialità e alla classificazione semantica delle risorse. Altri standard altrettanto importanti hanno visto la luce in questi anni, affermandosi e conquistando, nel giro di pochissimi anni, l'interesse di un'ampia platea di sviluppatori. E' il caso di WebGL, una potente e flessibile libreria grafica derivata dal mondo di OpenGL che ha aperto le porte al rendering di scene tridimensionali all'interno di un qualsiasi browser moderno. WebGL ha rappresentato un punto di svolta abbattendo un'ulteriore barriera tra il mondo del web che vive all'interno di un browser e la dimensione delle applicazioni native che popolano un sistema operativo, consolidando il già affermato concetto di web app che lentamente sta seppellendo l'idea di "sito" così come era stato concepito all'inizio del nuovo millennio. Scopo di questo elaborato è quello di fornire una panoramica delle principali funzionalità offerte dalla libreria WebGL (con una particolare attenzione per il supporto cross browser) e di analizzare le possibilità che essa offre, studiando e implementando i principali modelli di illuminazione e le tecniche di applicazione texture per definire un ambiente tridimensionale esplorabile e il più possibile realistico all'interno della dimensione del web.
Resumo:
Gli squali bianchi sono tra i più importanti predatori dei Pinnipedi (Klimley et al., 2001; Kock, 2002). La loro principale strategia di caccia consiste nel pattugliare le acque circostanti ad una colonia di otarie e nell’attaccarle quando queste sono in movimento, mentre si allontanano o avvicinano all’isola (Klimley et al., 2001; Kock, 2002). Tuttavia, la strategia e la dinamica della predazione osservate anche in relazione al ciclo riproduttivo della preda e le tattiche comportamentali messe in atto dalla preda per ridurre la probabilità di predazione, e quindi diminuire la sua mortalità, sono ancora poco conosciute. Con questo studio, effettuato nell’area di Seal Island all’interno della baia di Mossel Bay in Sud Africa, abbiamo cercato di definire proprio questi punti ancora poco conosciuti. Per studiare la strategia e le dinamica di predazione dello squalo bianco abbiamo utilizzato il sistema di monitoraggio acustico, in modo da poter approfondire le conoscenze sui loro movimenti e quindi sulle loro abitudini. Per dare un maggiore supporto ai dati ottenuti con la telemetria acustica abbiamo effettuato anche un monitoraggio visivo attraverso l’attrazione (chumming) e l’identificazione fotografica degli squali bianchi. Per comprendere invece i loro movimenti e le tattiche comportamentali messi in atto dalle otarie orsine del capo per ridurre la probabilità di predazione nella baia di Mossel Bay, abbiamo utilizzato il monitoraggio visivo di 24 ore, effettuato almeno una volta al mese, dalla barca nell’area di Seal Island. Anche se gli squali bianchi sono sempre presenti intorno all’isola i dati ottenuti suggeriscono che la maggior presenza di squali/h si verifica da Maggio a Settembre che coincide con l’ultima fase di svezzamento dei cuccioli delle otarie del capo, cioè quando questi iniziano a foraggiare lontano dall'isola per la prima volta; durante il sunrise (alba) durante il sunset (tramonto) quando il livello di luce ambientale è bassa e soprattutto quando la presenza delle prede in acqua è maggiore. Quindi possiamo affermare che gli squali bianchi a Seal Island prendono delle decisioni che vanno ad ottimizzare la loro probabilità di catturare una preda. I risultati preliminari del nostro studio indicano anche che il numero di gruppi di otarie in partenza dall'isola di notte sono di gran lunga maggiori di quelle che partono durante il giorno, forse questo potrebbe riflettere una diminuzione del rischio di predazione; per beneficiare di una vigilanza condivisa, le otarie tendono in media a formare gruppi di 3-5 o 6-9 individui quando si allontanano dall’isola e questo probabilmente le rende meno vulnerabili e più attente dall’essere predate. Successivamente ritornano all’isola da sole o in piccoli gruppi di 2 o 3 individui. I gruppi più piccoli probabilmente riflettono la difficoltà delle singole otarie a riunirsi in gruppi coordinati all'interno della baia.
Resumo:
La rivelazione dei neutroni gioca un ruolo fondamentale sia nel campo della fisica nucleare di base che in diversi ambiti applicativi quali la produzione di energia in reattori a fissione, la sicurezza nazionale alle frontiere, la terapia e la diagnostica mediche. Negli anni passati la rivelazione di neutroni di bassa energia (nell'intervallo termico) si è basata principalmente sull'utilizzo di contatori proporzionali a $^3$He. Il grosso vantaggio di questi strumenti è la loro quasi totale inefficienza nella rivelazione di radiazione elettromagnetica, consentendo una caratterizzazione pulita dei flussi neutronici di bassa energia, anche quando, come spesso succede, sono accompagnati da un intenso fondo di raggi X e raggi gamma. La scarsa disponibilità di $^3$He ed il conseguente incremento del suo costo hanno stimolato, negli ultimi anni, numerosi programmi di sviluppo di nuovi rivelatori per neutroni termici in grado di rimpiazzare i troppo costosi contatori a $^3$He. In questo contesto si sono sviluppati da una parte il progetto ORIONE/HYDE dell'Istituto Nazionale di Fisica Nucleare (INFN), che punta allo sviluppo di scintillatori organici a matrice siliconica in grado di rivelare sia neutroni veloci che termici, dall'altra l'applicazione di tali sviluppi ad attività connesse con il Progetto SPES nell'ambito del PRIN intitolato Sviluppo di Rivelatori e tecniche d'analisi per la sperimentazione con i fasci radioattivi dei Laboratori Nazionali dell'INFN, con particolare riferimento a SPES. All'interno di una matrice scintillante organica (ricca quindi di nuclei di Idrogeno e Carbonio) opportunamente drogata per favorire il processo di scintillazione, viene disperso un ulteriore dopante ad alta sezione d'urto di cattura neutronica (tipicamente $^{10}$B o $^6$Li). Questo scintillatore risulta sensibile alla radiazione neutronica veloce che viene rivelata tramite i processi di urto elastico ed il successivo rinculo dei nuclei che causa l'emissione di luce di scintillazione. Inoltre grazie alle grandi sezioni d'urto dei processi di cattura neutronica da parte del materiale dopante e la successiva emissione di particelle cariche anche la sensibilità ai neutroni di bassa energia (lenti e termici) viene garantita. La matrice utilizzata (polifenil-dimetil silossano) ha ottime proprietà meccaniche e, a differenza di altri materiali utilizzati per la realizzazione di scintillatori per neutroni, non risulta tossica o dannosa per l'ambiente. Inoltre il costo del materiale utilizzato è notevolmente competitivo rispetto alle alternative attualmente in commercio. In questo lavoro di tesi verranno caratterizzati alcuni di questi nuovi scintillatori drogati con $^6$Li. Verrà analizzata la loro risposta in termini di resa di luce quando esposti a flussi di particelle cariche e raggi gamma e a flussi neutronici di bassa energia. I risultati verranno paragonati a quelli ottenuti con uno scintillatore commerciale standard a matrice vetrosa.
Resumo:
Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.
Resumo:
Negli ultimi anni si è imposto il concetto di Ubiquitous Computing, ovvero la possibilità di accedere al web e di usare applicazioni per divertimento o lavoro in qualsiasi momento e in qualsiasi luogo. Questo fenomeno sta cambiando notevolmente le abitudini delle persone e ciò è testimoniato anche dal fatto che il mercato mobile è in forte ascesa: da fine 2014 sono 45 milioni gli smartphone e 12 milioni i tablet in circolazione in Italia. Sembra quasi impossibile, dunque, rinunciare al mobile, soprattutto per le aziende: il nuovo modo di comunicare ha reso necessaria l’introduzione del Mobile Marketing e per raggiungere i propri clienti ora uno degli strumenti più efficaci e diretti sono le applicazioni. Esse si definiscono native se si pongono come traguardo un determinato smartphone e possono funzionare solo per quel sistema operativo. Infatti un’app costruita, per esempio, per Android non può funzionare su dispositivi Apple o Windows Phone a meno che non si ricorra al processo di porting. Ultimamente però è richiesto un numero sempre maggiore di app per piattaforma e i dispositivi presenti attualmente sul mercato presentano differenze tra le CPU, le interfacce (Application Programming Interface), i sistemi operativi, l’hardware, etc. Nasce quindi la necessità di creare applicazioni che possano funzionare su più sistemi operativi, ovvero le applicazioni platform-independent. Per facilitare e supportare questo genere di lavoro sono stati definiti nuovi ambienti di sviluppo tra i quali Sencha Touch e Apache Cordova. Il risultato finale dello sviluppo di un’app attraverso questi framework è proprio quello di ottenere un oggetto che possa essere eseguito su qualsiasi dispositivo. Naturalmente la resa non sarà la stessa di un’app nativa, la quale ha libero accesso a tutte le funzionalità del dispositivo (rubrica, messaggi, notifiche, geolocalizzazione, fotocamera, accelerometro, etc.), però con questa nuova app vi è la garanzia di un costo di sviluppo minore e di una richiesta considerevole sul mercato. L’obiettivo della tesi è quello di analizzare questo scenario attraverso un caso di studio proveniente da una realtà aziendale che presenta proprio la necessità di sviluppare un’applicazione per più piattaforme. Nella prima parte della tesi viene affrontata la tematica del mobile computing e quella del dualismo tra la programmazione nativa e le web app: verranno analizzate le caratteristiche delle due diverse tipologie cercando di capire quale delle due risulti essere la migliore. Nella seconda parte sarà data luce a uno dei più importanti framework per la costruzione di app multi-piattaforma: Sencha Touch. Ne verranno analizzate le caratteristiche, soffermandosi in particolare sul pattern MVC e si potrà vedere un confronto con altri framework. Nella terza parte si tratterà il caso di studio, un app mobile per Retail basata su Sencha Touch e Apache Cordova. Nella parte finale si troveranno alcune riflessioni e conclusioni sul mobile platform-independent e sui vantaggi e gli svantaggi dell’utilizzo di JavaScript per sviluppare app.
Resumo:
L’uso dei materiali compositi è andato aumentando negli ultimi decenni per la loro elevata rigidezza, la resistenza specifica e il possibile risparmio, notevole in termini di peso dell’intera struttura. Tali materiali introducono però nuove problematiche riguardanti le modalità di danneggiamento e il comportamento a fatica. Mentre questi fenomeni sono relativamente ben compresi nei materiali metallici, per una struttura in composito non esistono ancora modelli in grado di predire con sufficiente affidabilità l’evoluzione del danneggiamento. Negli ultimi anni la ricerca si è focalizzata sullo sviluppo di sistemi in grado di rilevare la presenza e l’evoluzione del danno, definiti Structural Health Monitoring Systems, ovvero sistemi di monitoraggio strutturale. Il danneggiamento strutturale può così essere individuato e identificato per mezzo di sensori distribuiti integrati nella struttura stessa, aventi la possibilità di trasmettere queste informazioni a un sistema di analisi esterno permettendo di valutare lo stato di degrado della struttura in tempo reale. In questo contesto si inseriscono le attività di ricerca sulle strutture intelligenti che, inglobando al loro interno opportune tipologie di sensori e attuatori, sono in grado di monitorare l’ambiente fisico operativo, raccoglierne e interpretarne le informazioni per poi rispondere ai cambiamenti della struttura in modo appropriato attraverso gli attuatori. L’impiego di sensori e attuatori inglobati nelle strutture offre molteplici vantaggi rispetto ai sistemi di trasduzione e attuazione convenzionali. L’attività di ricerca condotta in questa tesi è rivolta all’indagine di tecniche di SHM per mezzo di sensori a fibra ottica. Essi presentano molteplici peculiarità che li rendono i candidati ideali per queste applicazioni. Esistono diversi tipi di sensori che utilizzano le fibre ottiche. Nel presente lavoro si sono utilizzati sensori di deformazione basati sui reticoli di Bragg (FBG) chirped. Questi sensori sono costituiti da un reticolo inscritto all’interno della fibra, che ha l’effetto di riflettere solo alcune lunghezze d’onda della luce incidente. Se le proprietà geometriche del reticolo cambiano per effetto di una deformazione, cambia anche la forma dello spettro riflesso. Inoltre, con il tipo di sensore usato, è possibile correlare lo spettro con la posizione di eventuali danneggiamenti interni al materiale. Gli obbiettivi di questa ricerca sono di verificare gli effetti della presenza di una fibra ottica sulle caratteristiche meccaniche di un laminato e di trovare un legame tra la risposta in frequenza del sensore FBG e lo stato tensionale e il grado di danneggiamento di un componente in composito.
Resumo:
In questo lavoro analizzeremo la generalizzazione ad oligonucleotidi della seconda regola di Chargaff. Ripercorreremo gli approcci matematico-statistici più significativi per quantificare la simmetria reverse-complement all'interno di sequenze genomiche, presenteremo le prove della trasversalità di tale fenomeno e cercheremo di far luce sulle origini evolutive di questa simmetria nascosta nei nostri geni.
Resumo:
Questa tesi ha l’obiettivo di analizzare lo stretto rapporto esistente tra innovazione tecnologica ed innovazione strategica al fine di comprenderne le dinamiche di relazione. Il lavoro è suddiviso in due parti: una prima parte prettamente teorica in cui verranno trattati gli aspetti delle due diverse tipologie di innovazione e le sinergie che si innescano tra di esse, ed una seconda parte in cui, alla luce degli argomenti teorici delineati nella prima, si illustrerà il percorso di Apple dalla sua fondazione, ponendo l’enfasi su quei prodotti l’hanno portata ad essere l’azienda simbolo di innovazione, qualità e design che tutti noi oggi conosciamo.
Resumo:
Negli anni recenti, lo sviluppo dell’elettronica organica ha condotto all’impiego di materiali organici alla base di numerosi dispositivi elettronici, quali i diodi ad emissione di luce, i transistor ad effetto di campo, le celle solari e i rivelatori di radiazione. Riguardo quest’ultimi, gli studi riportati in letteratura si riferiscono per la maggiore a dispositivi basati su materiali organici a film sottile, che tuttavia presentano problemi relativi ad instabilità e degradazione. Come verrà illustrato, l’impiego di singoli cristalli organici come materiali alla base di questi dispositivi permette il superamento delle principali limitazioni che caratterizzano i rivelatori basati su film sottili. In questa attività sperimentale, dispositivi basati su cristalli organici semiconduttori verranno caratterizzati in base alle principali figure di merito dei rivelatori. Tra i campioni testati, alcuni dispositivi basati su singoli cristalli di 6,13-bis (triisopropylsilylethynyl)-pentacene (TIPS-Pentacene) e 5,6,11,12-tetraphenyltetracene (Rubrene) hanno mostrato interessanti proprietà e sono stati quindi maggiormente studiati.
Resumo:
Questa tesi di laurea curriculare si propone come una lettura critica del percorso formativo universitario, attraverso l’analisi di tre diverse esperienze progettuali che affrontano il tema dell’architettura come processo di modificazione e conseguente rigenerazione della realtà urbana esistente. Nella prima parte viene descritto come il “costruire nel costruito” attribuisca notevole importanza ai valori del luogo e della storia, ignorati dal movimento moderno. Vengono trattati i caratteri principali dell’orientamento e la sua affermazione dalla metà degli anni Ottanta ad oggi, mediante l’analisi di tre fonti principali: Casabella- “Architettura come Modificazione”, “Costruire nel Costruito” di Renato De Fusco e l’omonimo libro di Rafael Moneo. Il terzo capitolo descrive tre opere di modificazione che trattano differenti problematiche a scale diverse: la conservazione e il riuso, il vuoto urbano e la riqualificazione del waterfront. L’analisi dei progetti dimostra come la specificità dei casi dia vita a soluzioni particolari, rispettose del contesto, ed evidenzia come sia possibile far coesistire l’invenzione e la preesistenza. Il quarto capitolo esamina il tema dell’architettura come processo di modificazione confrontando i tre casi studio con i lavori svolti all’interno del Laboratorio di Restauro (Prof. Pretelli M.), del Laboratorio di Progettazione Architettonica III (Prof. Gonçalves F.) e del Laboratorio di Progettazione IV(Prof.ssa Barnstone D.A.). La risoluzione delle diverse questioni mette in luce i distinti approcci sperimentati.
Resumo:
La tesina si occupa dell’adattamento di una commedia scritta in napoletano, Grisù, Giuseppe e Maria di Gianni Clementi, in dialetto veronese da parte di Daniele Marchesini. Si cercherà di mettere in luce i tratti caratteristici dell’originale e di descrivere e motivare la scelta del dialetto da parte dell’autore (in particolare il ruolo del dialetto rispetto alle altre “lingue” presenti nella commedia e di come queste lingue caratterizzino i personaggi) e di vedere come l’adattamento veronese riproponga, utilizzando un altro dialetto e altri riferimenti culturali, il medesimo rapporto fra dialetto e lingua italiana e in generale le altre lingue presenti nel testo originale.
Resumo:
L'elaborato consiste in una proposta di traduzione delle didascalie dell'opera teatrale La casa degli uomini zoppi o Edipo liberato, interpretata dal Laboratorio teatro (In)stabile. Il primo capitolo ripercorre la nascita, l'affermazione e i principali riconoscimenti ottenuti dal collettivo teatrale (In)stabile, soffermandosi in particolar modo sull'ideazione e sul percorso di realizzazione dello spettacolo La casa degli uomini zoppi o Edipo liberato. Seguirà poi un capitolo incentrato sulla comparsa delle didascalie, la loro evoluzione nel corso dei secoli e la loro funzione attuale, concentrandosi sulle varianti esistenti e il problema del doppio destinatario del testo teatrale. Il terzo capitolo presenta la proposta di traduzione delle didascalie dell'opera. Il capitolo che segue è dedicato, a completare il precedente, al commento della traduzione. Verranno messi in luce i problemi incontrati nella resa in lingua straniera e le strategie utilizzate per giungere alla soluzione più appropriata, con l'obiettivo di mantenere quanto più possibile inalterati il significato e lo stile del testo di partenza. Per concludere, saranno presentati i commenti e le riflessioni scaturiti dal lavoro di traduzione dell'opera.
Resumo:
L’autore tedesco Erich Kästner è noto al pubblico italiano soprattutto per la narrativa per ragazzi, ma tende ad essere dimenticato quando si affronta la letteratura del dopoguerra. Anch’egli, infatti, diede un contributo fondamentale alla Trümmerliteratur, ovvero la letteratura delle macerie, un movimento letterario nato in Germania nel secondo dopoguerra e che si poneva come obiettivo quello di testimoniare la crudezza della seconda guerra mondiale. Scopo dell’elaborato è quindi quello di fare luce sul contributo di Kästner alla Trümmerliteratur mediante la proposta di traduzione dal tedesco all’italiano di due testi tratti dalla raccolta Der tägliche Kram [Le cianfrusaglie di tutti i giorni]. Dopo una breve introduzione all’autore, al movimento letterario e all’opera in questione, vengono analizzati più attentamente i due testi, definendone la tipologia e la funzione testuale, aspetti fondamentali ai fini traduttivi. Nel quarto capitolo si trovano le traduzioni italiane affiancate dal testo originale tedesco in modo da facilitarne il confronto. L’affiancamento dei testi è inoltre necessario per un riconoscimento più immediato delle strategie traduttive, che vengono approfondite nel quinto capitolo.