917 resultados para depurazione biologica, efficienza energetica, sistemi di aerazione, controllo


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The object of this work has been the analysis of natural processes controlling the geological evolution of the Montenegro and Northern Albania Continental Margin (MACM) during the Late Quaternary. These include the modern sediment dispersal system and oceanographic regime, the building and shaping of the shelf margin at the scale of 100 kyr and relative to the most recent transition between glacial and interglacial periods. The analysis of the new data shows that the MACM is a shelf-slope system formed by a suite of physiographic elements, including: an inner and an outer continental shelf, separated by two tectonically-controlled morphological highs; a lobated drowned mid-shelf paleodelta, formed during the last sea level fall and low stand; an upper continental slope, affected by gravity-driven instability and a system of extensional faults with surficial displacement, featuring an orientation coherent with the regional tectonics. The stratigraphic study of the MACM shows a clear correspondence between the Late Pleistocene/Holocene mud-wedge and the low reflectivity sectors of the inner shelf. Conversely, most of the outer shelf and part of the continental slope expose deposits from the last sea level low stand, featuring a general sediment starving condition or the presence of a thin postglacial sediments cover. The MACM shows uplift in correspondence of the Kotor and Bar ridges, and subsidence in the outer shelf and upper slope sectors. In fact, seaward of these tectonic ridges, the sparker seismic profile show the presence of four well-defined seismo-stratigraphic sequences, interpreted as forced regression deposits, formed during the last four main glacial phases. In this way, the MACM records the 100 kyr scale sea level fluctuations on its seismo-stratigraphic architecture over the last 350 kyr. Over such time range, through the identification of the paleoshoreline deposits, we estimated an average subsidence rate of about 1.2 mm/yr.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il monitoraggio dei rilasci può essere indoor o outdoor; l’attenzione del presente lavoro è rivolta a sistemi di monitoraggio di gas infiammabili e/o tossici in ambienti esterni di stabilimenti onshore. L’efficacia dei sistemi di Gas Detection è profondamente influenzata dalla disposizione dei sensori nelle aree di rischio. Esistono codici e standard che forniscono informazioni molto dettagliate per la progettazione dei sistemi di Fire Detection e linee guida per la scelta, l’installazione ed il posizionamento ottimale dei sensori di incendio. La stessa affermazione non si può fare per i sistemi di Gas Detection, nonostante dall’individuazione tempestiva di un rilascio dipendano anche le successive azioni antincendio. I primi tentativi di sviluppare linee guida per il posizionamento dei sensori di gas sono stati effettuati per le applicazioni off-shore, dove l’elevato livello di congestione e il valore delle apparecchiature utilizzate richiedono un efficiente sistema di monitoraggio dei rilasci. Per quanto riguarda gli impianti on-shore, i criteri di posizionamento dei rilevatori di gas non sono ufficialmente ed univocamente definiti: il layout dei gas detectors viene in genere stabilito seguendo criteri di sicurezza interni alle compagnie affiancati da norme di “buona tecnica” e regole empiriche. Infatti, nonostante sia impossibile garantire l’individuazione di ogni rilascio, vi sono linee guida che propongono strategie di posizionamento dei gas detectors in grado di massimizzare la probabilità di successo del sistema di monitoraggio. Il presente lavoro è finalizzato alla verifica del corretto posizionamento dei gas detectors installati presso l’impianto pilota SF2 dello stabilimento Basell Poliolefine Italia di Ferrara.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi muove da tematiche relative alla sicurezza IT e risulta dagli otto mesi di lavoro all’interno della funzione Technical Security di Telecom Italia Information Technology. Il compito primario di questa unità di business è ridurre il rischio informatico dei sistemi di Telecom Italia per mezzo dell’attuazione del processo di ICT Risk Management, che coinvolge l’intera organizzazione ed è stato oggetto di una riprogettazione nel corso del 2012. Per estendere tale processo a tutti i sistemi informatici, nello specifico a quelli caratterizzati da non conformità, all’inizio del 2013 è stato avviato il Programma Strutturato di Sicurezza, un aggregato di quattro progetti dalla durata triennale particolarmente articolato e complesso. La pianificazione di tale Programma ha visto coinvolto, tra gli altri, il team di cui ho fatto parte, che ha collaborato con Telecom Italia assolvendo alcune delle funzioni di supporto tipiche dei Project Management Office (PMO).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi è stato svolto presso Datalogic ADC, azienda attiva nel campo dell'automazione industriale. La divisione presso cui mi sono recato per 6 mesi ha sede a Pasadena (California, USA) e si occupa principalmente di sistemi di visione e riconoscimento oggetti, con particolare applicazione al settore della grande distribuzione. L'azienda ha in catalogo diversi prodotti finalizzati ad automatizzare e velocizzare il processo di pagamento alle casse da parte dei clienti. In questo contesto, al mio arrivo, era necessario sviluppare un software che permettesse di riconoscere i comuni carrelli per la spesa quando sono inquadrati dall'alto, con posizione verticale della camera. Mi sono quindi occupato di sviluppare ed implementare un algoritmo che permetta di riconoscere i carrelli della spesa sotto ben precise ipotesi e dati iniziali. Come sarà spiegato più dettagliatamente in seguito, è necessario sia individuare la posizione del carrello sia il suo orientamento, al fine di ottenere in quale direzione si stia muovendo. Inoltre, per i diversi impieghi che si sono pensati per il software in oggetto, è necessario che l'algoritmo funzioni sia con carrelli vuoti, sia con carrelli pieni, anche parzialmente. In aggiunta a ciò il programma deve essere in grado di gestire immagini in cui siano presenti più di un carrello, identificando correttamente ciascuno di essi. Nel Capitolo 1 è data una più specifica introduzione al problema e all'approccio utilizzato per risolverlo. Il Capitolo 2 illustra nel dettaglio l'algoritmo utilizzato. Il Capitolo 3 mostra i risultati sperimentali ottenuti e il procedimento seguito per l'analisi degli stessi. Infine il Capitolo 4 espone alcuni accorgimenti che sono stati apportati all'algoritmo iniziale per cercare di velocizzarlo in vista di un possibile impiego, distinguendo i cambiamenti che introducono un leggero degrado delle prestazioni da quelli che non lo implicano. Il Capitolo 5 conclude sinteticamente questa trattazione ricordando i risultati ottenuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro è volto allo studio di soluzioni di rinforzo strutturale di edifici storici in muratura mediante materiali compositi innovativi a matrice inorganica FRCM (Fiber Reinforced Cementitious Matrix). E' stato effettuato un confronto tra due sistemi di rinforzo con compositi SRG (Steel Reinforced Grout) in fibre d'acciaio ad altissima resistenza, nell'ottica di un progetto di miglioramento sismico del teatro Pavarotti di Modena, in particolare della parete di fondo retrostante il palcoscenico. Ipotizzati alcuni meccanismi di collaso della parete, la vulnerabilità sismica della stessa, nei confronti di ciascun meccanismo, è stata valutata attraverso l'analisi cinematica lineare. Successivamente per ogni meccanismo è stato studiato un sistema di rinforzo SRG al fine di incrementare la capacità sismica della parete e il moltiplicatore di collasso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In molti sistemi di distribuzione idrici una percentuale significativa di acqua viene persa passando dagli impianti di trattamento alle utenze, a causa di danneggiamenti nei diversi componenti delle reti. Le perdite idriche sono un problema costoso, non solo in termini di spreco di una preziosa risorsa naturale, ma anche in termini economici. L’obiettivo principale di questo lavoro è stato quello di identificare possibili sviluppi per le attrezzature e metodi già esistenti al fine di rilevare in modo automatico perdite idriche in condotte in plastica. A questo proposito è stata studiata l’efficacia di metodi basati sull’analisi di vibrazioni e suoni. In particolare ci si è concentrati sull’uso di accelerometri e idrofoni e, successivamente, sull’uso di sensori di emissioni acustiche. Dopo una prima fase di ricerca approfondita sulla dinamica dei fenomeni vibro-acustici che si verificano nelle condotte, sulla teoria delle emissioni acustiche, sulla caratterizzazione di segnali di perdita in condotte in plastica e sulle principali attrezzature usate attualmente per l’individuazione delle perdite, si è passati alla fase sperimentale. La fase sperimentale può essere distinta in due parti. La prima ha avuto come obiettivo il confronto tra segnali acquisiti da accelerometro e idrofono relativamente all’efficacia nell’individuazione di perdite idriche mediante apposito algoritmo ed ha coinvolto numerosi test sul campo, eseguiti sotto condizioni controllate in un impianto di rilevamento perdite sperimentale, appositamente costruito, adiacente alla sede della Divisione Reti R & S di Hera a Forlì. La seconda fase, invece, ha avuto come obiettivo la determinazione dell’efficacia del metodo delle emissioni acustiche per l’individuazione di perdite idriche ed ha visto l’esecuzione di altrettanti test, eseguiti sotto condizioni controllate, in un impianto sperimentale più semplice del precedente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’intelligenza artificiale, ovvero lo studio e la progettazione di sistemi intelligenti, mira a riprodurre alcuni aspetti dell’intelligenza umana, come il linguaggio e il ragionamento deduttivo, nei computer. La robotica, invece, cerca spesso di ricreare nei robot comportamenti adattativi, come l’abilità di manipolare oggetti o camminare, mediante l’utilizzo di algoritmi in grado di generare comportamenti desiderati. Una volta realizzato uno di questi algoritmi specificamente per una certa abilità, si auspica che tale algoritmo possa essere riutilizzato per generare comportamenti più complessi fino a che il comportamento adattativo del robot non si mostri ad un osservatore esterno come intelligente; purtroppo questo non risulta sempre possibile e talvolta per generare comportamenti di maggiore complessità è necessario riscrivere totalmente gli algoritmi. Appare quindi evidente come nel campo della robotica l’attenzione sia incentrata sul comportamento, perché le azioni di un robot generano nuove stimolazioni sensoriali, che a loro volta influiscono sulle sue azioni future. Questo tipo di intelligenza artificiale (chiamata propriamente embodied cognition) differisce da quella propriamente detta per il fatto che l’intelligenza non emerge dall’introspezione ma dalle interazioni via via più complesse che la macchina ha con l’ambiente circostante. Gli esseri viventi presenti in natura mostrano, infatti, alcuni fenomeni che non sono programmati a priori nei geni, bensì frutto dell’interazione che l’organismo ha con l’ambiente durante le varie fasi del suo sviluppo. Volendo creare una macchina che sia al contempo autonoma e adattativa, si devono affrontare due problemi: il primo è relativo alla difficoltà della progettazione di macchine autonome, il secondo agli ingenti costi di sviluppo dei robot. Alla fine degli anni ’80 nasce la robotica evolutiva che, traendo ispirazione dall’evoluzione biologica, si basa sull’utilizzo di software in grado di rappresentare popolazioni di robot virtuali e la capacità di farli evolvere all’interno di un simulatore, in grado di rappresentare le interazioni tra mente e corpo del robot e l’ambiente, per poi realizzare fisicamente solo i migliori. Si utilizzano algoritmi evolutivi per generare robot che si adattano, anche dal punto di vista della forma fisica, all’ambiente in cui sono immersi. Nel primo capitolo si tratterà di vita ed evoluzione artificiali, concetti che verranno ripresi nel secondo capitolo, dedicato alle motivazioni che hanno portato alla nascita della robotica evolutiva, agli strumenti dei quali si avvale e al rapporto che ha con la robotica tradizionale e le sue declinazioni. Nel terzo capitolo si presenteranno i tre formalismi mediante i quali si sta cercando di fornire un fondamento teorico a questa disciplina. Infine, nel quarto capitolo saranno mostrati i problemi che ancora oggi non hanno trovato soluzione e le sfide che si devono affrontare trattando di robotica evolutiva.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi ho voluto descrivere il Timing Attack al sistema crittografico RSA, il suo funzionamento, la teoria su cui si basa, i suoi punti di forza e i punti deboli. Questo particolare tipo di attacco informatico fu presentato per la prima volta da Paul C. Kocher nel 1996 all’“RSA Data Security and CRYPTO conferences”. Nel suo articolo “Timing Attacks on Implementations of Diffie-Hellman, RSA, DSS, and Other Systems” l’autore svela una nuova possibile falla nel sistema RSA, che non dipende da debolezze del crittosistema puramente matematiche, ma da un aspetto su cui nessuno prima di allora si era mai soffermato: il tempo di esecuzione delle operazioni crittografiche. Il concetto è tanto semplice quanto geniale: ogni operazione in un computer ha una certa durata. Le variazioni dei tempi impiegati per svolgere le operazioni dal computer infatti, necessariamente dipendono dal tipo di algoritmo e quindi dalle chiavi private e dal particolare input che si è fornito. In questo modo, misurando le variazioni di tempo e usando solamente strumenti statistici, Kocher mostra che è possibile ottenere informazioni sull’implementazione del crittosistema e quindi forzare RSA e altri sistemi di sicurezza, senza neppure andare a toccare l’aspetto matematico dell’algoritmo. Di centrale importanza per questa teoria diventa quindi la statistica. Questo perché entrano in gioco molte variabili che possono influire sul tempo di calcolo nella fase di decifrazione: - La progettazione del sistema crittografico - Quanto impiega la CPU ad eseguire il processo - L’algoritmo utilizzato e il tipo di implementazione - La precisione delle misurazioni - Ecc. Per avere più possibilità di successo nell’attaccare il sistema occorre quindi fare prove ripetute utilizzando la stessa chiave e input differenti per effettuare analisi di correlazione statistica delle informazioni di temporizzazione, fino al punto di recuperare completamente la chiave privata. Ecco cosa asserisce Kocher: “Against a vulnerable system, the attack is computationally inexpensive and often requires only known ciphertext.”, cioè, contro sistemi vulnerabili, l’attacco è computazionalmente poco costoso e spesso richiede solo di conoscere testi cifrati e di ottenere i tempi necessari per la loro decifrazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel 2011, circa 5 milioni di persone usavano regolarmente applicativi mobi-le basati su qualche forma di realtà aumentata. Secondo alcune previsioni entro il 2020 servizi che sfruttano questa tecnologia avranno una base di utenti che rasenta un settimo della popolazione mondiale, rendendo di fatto la realtà aumentata l’ottavo mezzo di comunicazione di massa dopo la stampa, l’audio registrato, il cinema, la radio, la televisione, internet ed infine i servizi multimediali mobile. La tesi si propone di illustrare le caratteristiche di questa tecnologia distinguendo varie tecniche e strumenti a disposizione degli sviluppatori per costruire l’esperienza di augmented reality. Entrando nel merito dello sviluppo software si analizza una architettura di riferimento proposta per sistemi di realtà aumentata e pattern per lo sviluppo dei diversi componenti. Infine vengono confrontati gli SDK oggi più diffusi cercando di evidenziarne caratteristiche comuni e peculiarità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

È impossibile implementare sorgenti autenticamente casuali su hardware digitale. Quindi, storicamente, si è fatto ampio uso di generatori di numeri pseudo-casuali, evitando così i costi necessari per la progettazione di hardware analogico dedicato. Tuttavia, le sorgenti pseudo-casuali hanno proprietà (riproducibilità e periodicità) che si trasformano in vulnerabilità, nel caso in cui vengano adottate in sistemi di sicurezza informatica e all’interno di algoritmi crittografici. Oggi la richiesta di generatori di numeri autenticamente casuali è ai suoi massimi storici. Alcuni importanti attori dell’ICT sviluppato proprie soluzioni dedicate, ma queste sono disponibili solo sui sistemi moderni e di fascia elevata. È quindi di grande attualità rendere fruibili generatori autenticamente casuali per sistemi già esistenti o a basso costo. Per garantire sicurezza e al tempo stesso contenere i costi di progetto è opportuno pensare ad architetture che consentano di riusare parti analogiche già disponibili. Particolarmente interessanti risultano alcune architetture che, grazie all’utilizzo di dinamiche caotiche, consentono di basare buona parte della catena analogica di elaborazione su ADC. Infatti, tali blocchi sono ampiamente fruibili in forma integrata su architetture programmabili e microcontrollori. In questo lavoro, si propone un’implementazione a basso costo ed elevata flessibilità di un architettura basata su un ADC, inizialmente concepita all’Università di Bologna. La riduzione di costo viene ottenuta sfruttando il convertitore già presente all’interno di un microcontrollore. L’elevata flessibilità deriva dal fatto che il microcontrollore prescelto mette a disposizione una varietà di interfacce di comunicazione, tra cui quella USB, con la quale è possibile rendere facilmente fruibili i numeri casuali generati. Quindi, l’intero apparato comprende solo un microcontrollore e una minima catena analogica di elaborazione esterna e può essere interfacciato con estrema facilità ad elaboratori elettronici o sistemi embedded. La qualità della proposta, in termini di statistica delle sequenze casuali generate, è stata validata sfruttando i test standardizzati dall’U.S. NIST.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this work, the well-known MC code FLUKA was used to simulate the GE PETrace cyclotron (16.5 MeV) installed at “S. Orsola-Malpighi” University Hospital (Bologna, IT) and routinely used in the production of positron emitting radionuclides. Simulations yielded estimates of various quantities of interest, including: the effective dose distribution around the equipment; the effective number of neutron produced per incident proton and their spectral distribution; the activation of the structure of the cyclotron and the vault walls; the activation of the ambient air, in particular the production of 41Ar, the assessment of the saturation yield of radionuclides used in nuclear medicine. The simulations were validated against experimental measurements in terms of physical and transport parameters to be used at the energy range of interest in the medical field. The validated model was also extensively used in several practical applications uncluding the direct cyclotron production of non-standard radionuclides such as 99mTc, the production of medical radionuclides at TRIUMF (Vancouver, CA) TR13 cyclotron (13 MeV), the complete design of the new PET facility of “Sacro Cuore – Don Calabria” Hospital (Negrar, IT), including the ACSI TR19 (19 MeV) cyclotron, the dose field around the energy selection system (degrader) of a proton therapy cyclotron, the design of plug-doors for a new cyclotron facility, in which a 70 MeV cyclotron will be installed, and the partial decommissioning of a PET facility, including the replacement of a Scanditronix MC17 cyclotron with a new TR19 cyclotron.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I sistemi di intelligenza artificiale vengono spesso messi a confronto con gli aspetti biologici riguardanti il cervello umano. L’interesse per la modularità è in continua crescita, che sta portando a risultati davvero interessanti attraverso l’utilizzo di sistemi artificiali intelligenti, come le reti neuronali. Molte reti, sia biologiche sia artificiali sono organizzate in moduli, i quali rappresentano cluster densi di parti interconnesse fra loro all’interno di una rete complessa. Nel campo dell’ingegneria, si usano design modulari per spiegare come una macchina è costituita da parti separate. Lo studio della struttura e delle funzioni di organismi/processi complessi si basa implicitamente su un principio di organizzazione modulare, vale a dire si dà per acquisito il fatto che siano modulari, cioè composti da parti con forma e/o funzioni diverse. Questo elaborato si propone di esporre gli aspetti fondamentali riguardanti la modularità di reti neuronali, le sue origini evolutive, le condizioni necessarie o sufficienti che favoriscono l’emergere dei moduli e relativi vantaggi. Il primo capitolo fornisce alcune conoscenze di base che permettono di leggere gli esperimenti delle parti successive con consapevolezza teorica più profonda. Si descrivono reti neuronali artificiali come sistemi intelligenti ispirati alla struttura di reti neurali biologiche, soffermandosi in particolare sulla rete feed-forward, sull’algoritmo di backpropagation e su modelli di reti neurali modulari. Il secondo capitolo offre una visione delle origini evolutive della modularità e dei meccanismi evolutivi riguardanti sistemi biologici, una classificazione dei vati tipi di modularità, esplorando il concetto di modularità nell’ambito della psicologia cognitiva. Si analizzano i campi disciplinari a cui questa ricerca di modularità può portare vantaggi. Dal terzo capitolo che inizia a costituire il corpo centrale dell’elaborato, si dà importanza alla modularità nei sistemi computazionali, illustrando alcuni casi di studio e relativi metodi presenti in letteratura e fornendo anche una misura quantitativa della modularità. Si esaminano le varie possibilità di evoluzione della modularità: spontanea, da specializzazione, duplicazione, task-dependent, ecc. passando a emulare l’evoluzione di sistemi neurali modulari con applicazione al noto modello “What-Where” e a vari modelli con caratteristiche diverse. Si elencano i vantaggi che la modularità produce, soffermandosi sull’algoritmo di apprendimento, sugli ambienti che favoriscono l’evoluzione della modularità con una serie di confronti fra i vari tipi, statici e dinamici. In ultimo, come il vantaggio di avere connessioni corte possa portare a sviluppare modularità. L’obiettivo comune è l’emergere della modularità in sistemi neuronali artificiali, che sono usati per applicazioni in numerosi ambiti tecnologici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work presents first a study of the national and international laws in the fields of safety, security and safeguards. The international treaties and the recommendations issued by the IAEA as well as the national regulations in force in France, the United States and Italy are analyzed. As a result of this, a comparison among them is presented. Given the interest of the Japan Atomic Energy Agency for the aspects of criminal penalties and monetary, also the Japanese case is analyzed. The main part of this work was held at the JAEA in the field of proliferation resistance (PR) and physical protection (PP) of a GEN IV sodium fast reactor. For this purpose the design of the system is completed and the PR & PP methodology is applied to obtain data usable by designers for the improvement of the system itself. Due to the presence of sensitive data, not all the details can be disclosed. The reactor site of a hypothetical and commercial sodium-cooled fast neutron nuclear reactor system (SFR) is used as the target NES for the application of the methodology. The methodology is applied to all the PR and PP scenarios: diversion, misuse and breakout; theft and sabotage. The methodology is applied to the SFR to check if this system meets the target of PR and PP as described in the GIF goal; secondly, a comparison between the SFR and a LWR is performed to evaluate if and how it would be possible to improve the PR&PP of the SFR. The comparison is implemented according to the example development target: achieving PR&PP similar or superior to domestic and international ALWR. Three main actions were performed: implement the evaluation methodology; characterize the PR&PP for the nuclear energy system; identify recommendations for system designers through the comparison.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dal 1936 al 1939 la Spagna dovette fare i conti con gli orrori di una guerra che aveva diviso in due il paese, sia ideologicamente che geograficamente, facendogli vivere una tragedia ancora oggi tangibile nel tessuto sociale e politico della penisola iberica. Questo conflitto, che aveva suscitato l’interesse di molti, raggiunse un livello tale di sperimentazione, sia in campo militare, sia in quello civile, da essere considerato un banco di prova per la seconda guerra mondiale. Il progetto di tesi, attraverso l’analisi e il sottotitolaggio di due documentari, uno anarchico e l’altro franchista, intende presentare una ricerca che ha come focus primario lo studio della propaganda cinematografica durante il periodo della guerra civile spagnola. Il cinema che, proprio negli anni Trenta, si era definitivamente affermato anche grazie all’introduzione del sonoro, fu presto considerato un potente mezzo di comunicazione divenendo un’arma di persuasione della quale, entrambi gli schieramenti con tempistiche diverse, si servirono per indottrinare la popolazione e giustificare la propria azione militare. Il cinema, pertanto, fu messo al servizio della guerra. Nel primo capitolo di questo elaborato verrà presentato il quadro storico di riferimento con la definizione delle cause, dell’evoluzione e delle ideologie in campo durante il conflitto. Il secondo capitolo si concentrerà sull’analisi dei due sistemi di propaganda, quella repubblicana e quella nazionalista, con un’attenzione principale nei confronti della propaganda cinematografica e delle sue diverse espressioni politiche nella penisola iberica. In questo capitolo si farà, inoltre, accenno alla produzione cinematografica internazionale riferita al conflitto spagnolo durante gli anni della guerra e in quelli immediatamente successivi. Infine, nel terzo e ultimo capitolo, si prenderanno in analisi i due documentari sottotitolati (“Los Aguiluchos de la FAI por tierras de Aragón, Reportaje nº1, Estampas de la revolución antifascista” e “La Liberación de Madrid”, con la presentazione dell’analisi tecnica e contenutistica degli stessi. Per concludere, verranno indicate le strategie traduttive impiegate durante la fase di traduzione e riportati esempi concreti ad esse riferite.