742 resultados para Tecnologia additiva, modellazione per deposizione di filamento fuso
Resumo:
Tesi svolta in collaborazione con Officine Maccaferri S.p.A e con il LIDR (Laboratorio di Ingegneria Idraulica) dell’Università di Bologna. Descrive caratteristiche tecniche di condotte in acciaio, polietilene ad alta densità (PEAD) e resina poliestere rinforzata con fibre di vetro (PRFV), evidenziando vantaggi/svantaggi del loro impiego. Fornisce una descrizione delle modalità di posa delle condotte in relazione ai fattori che condizionano la scelta della tecnica più idonea. Affronta il problema della stabilizzazione e protezione delle condotte soggette all’azione idrodinamica di onde e correnti nelle zona sotto costa e a possibili fattori di rischio esterni. Descrive tecniche di protezione delle condotte sottomarine: interramento (trenching), ricoprimento con materiale roccioso (rock dumping), stabilizzazione con elementi puntuali di appesantimento (concrete collars).Sono descritte le soluzioni di protezione offerte da Officine Maccaferri: materassi articolati in blocchi di calcestruzzo (ACBM) e materassi in geotessuto riempiti di materiale bituminoso (SARMAC). Essi vengono posati sopra la condotta, in posizione longitudinale o trasversale al suo asse, e hanno duplice scopo: (i) incrementarne il peso e la stabilità ai carichi idrodinamici esercitati da onde e correnti e (ii) proteggere la condotta da urti. Partendo dai risultati del modello sperimentale descritto in Gaeta et al. (2012) che evidenziano problemi di erosione localizzata intorno a condotta posata su fondale mobile protetta con materasso ACBM dovuti alla discontinuità materiale del mezzo si valuta, attraverso uno studio numerico, la opportunità di modificare il materasso, ponendo sotto i blocchetti un geotessile. Utilizzando un modello numerico, COBRAS, per la simulazione 2DV del campo idrodinamico si analizza l’effetto di smorzamento del campo di velocità e di vorticità indotto dall’aggiunta del geotessuto simulato come mezzo poroso. I dati sono stati elaborati con MATLAB per ricavare le mappature attorno alla condotta. I test numerici riguardano 3 configurazioni: SARMAC, ACBM, GEO (ACBM+Geotessuto) poggiate su una condotta di diametro costante e sono state analizzate per 2 condizioni di onde regolari di diversa altezza e periodo. Dagli studi emerge che, per casi di condotta posata su fondo mobile, si consiglia l’utilizzo di materassi SARMAC o materassi ACBM modificati con aggiunta di geotessuto. Inoltre il geotessuto svolge anche funzione filtrante, per cui permette il passaggio dell’acqua ma allo stesso tempo trattiene il materiale solido movimentato, senza pericolo di erosione. La presenza dello strato di geotessile non incide sui parametri caratteristici di stabilità globale del materasso ACBM. Si è compiuta un’analisi comparativa tra SARMAC e ACBM per valutare la convenienza delle due soluzioni. Si propone un esempio di dimensionamento nel caso di protezione di un cavo sottomarino comparando caratteristiche tecniche dei materassi SARMAC e ACBM senza geotessile e facendo valutazioni economiche di massima da cui emerge la maggiore convenienza dei materassi ACBM.
Resumo:
Negli ultimi cinque anni, l’Emilia Romagna è stata interessata da 83 fenomeni temporaleschi, che hanno causato allagamenti, smottamenti e anche la perdita di vite umane a Sala Baganza l’11 giugno 2011 e a Rimini il 24 giugno 2013. Nonostante questi fenomeni siano protagonisti di eventi calamitosi, la loro previsione rimane ancora complessa poiché sono eventi localizzati, brevi e molto intesi. Il progetto di Tesi si inserisce in questo contesto e tratta due tematiche principali: la valutazione, quantitativa, della variazione di frequenza degli eventi intensi negli ultimi 18 anni (1995-2012), in relazione ad un periodo storico di riferimento, compreso tra il 1935 ed il 1989 e il confronto tra l’andamento spaziale delle precipitazioni convettive, ottenuto dalle mappe di cumulata di precipitazione oraria dei radar meteorologici e quello ottenuto mediante due tecniche di interpolazione spaziale deterministiche in funzione dei dati pluviometrici rilevati al suolo: Poligoni di Voronoi ed Inverse Distance Weighting (IDW). Si sono ottenuti risultati interessanti nella valutazione delle variazioni dei regimi di frequenza, che hanno dimostrato come questa sembrerebbe in atto per eventi di precipitazione di durata superiore a quella oraria, senza una direzione univoca di cambiamento. Inoltre, dal confronto degli andamenti spaziali delle precipitazioni, è risultato che le tecniche di interpolazione deterministiche non riescono a riprodurre la spazialità della precipitazione rappresentata dal radar meteorologico e che ogni cella temporalesca presenta un comportamento differente dalle altre, perciò non è ancora possibile individuare una curva caratteristica per i fenomeni convettivi. L’approfondimento e il proseguimento di questo ultimo studio potranno portare all’elaborazione di un modello che, applicato alle previsioni di Nowcasting, permetta di valutare le altezze di precipitazione areale, associate a delle celle convettive in formazione e stabilire la frequenza caratteristica dell’evento meteorico in atto a scala spaziale, fornendo indicazioni in tempo reale che possono essere impiegate nelle attività di Protezione Civile.
Resumo:
La stima degli indici idrometrici in bacini non strumentati rappresenta un problema che la ricerca internazionale ha affrontato attraverso il cosiddetto PUB (Predictions on Ungauged Basins – IAHS, 2002-2013). Attraverso l’analisi di un’area di studio che comprende 61 bacini del Sud-Est americano, si descrivono e applicano due tecniche di stima molto diverse fra loro: il metodo regressivo ai Minimi Quadrati Generalizzati (GLS) e il Topological kriging (TK). Il primo considera una serie di fattori geomorfoclimatici relativi ai bacini oggetto di studio, e ne estrae i pesi per un modello di regressione lineare dei quantili; il secondo è un metodo di tipo geostatistico che considera il quantile come una variabile regionalizzata su supporto areale (l’area del bacino), tenendo conto della dislocazione geografica e l’eventuale struttura annidata dei bacini d’interesse. L’applicazione di questi due metodi ha riguardato una serie di quantili empirici associati ai tempi di ritorno di 10, 50, 100 e 500 anni, con lo scopo di valutare le prestazioni di un loro possibile accoppiamento, attraverso l’interpolazione via TK dei residui GLS in cross-validazione jack-knife e con differenti vicinaggi. La procedura risulta essere performante, con un indice di efficienza di Nash-Sutcliffe pari a 0,9 per tempi di ritorno bassi ma stazionario su 0,8 per gli altri valori, con un trend peggiorativo all’aumentare di TR e prestazioni pressoché invariate al variare del vicinaggio. L’applicazione ha mostrato che i risultati possono migliorare le prestazioni del metodo GLS ed essere paragonabili ai risultati del TK puro, confermando l’affidabilità del metodo geostatistico ad applicazioni idrologiche.
Resumo:
Il sisma che ha colpito l’Emilia nel maggio 2012 è stato il punto di partenza per ripensare la campagna di Motta di Cavezzo. Questa necessità è nata dall’abbandono delle campagne emiliane da parte dei propri abitanti a causa della paura e dei crolli. In seguito al drammatico evento, il paesaggio è rimasto gravemente danneggiato, perdendo una buona parte degli edifici tipici della tradizione costruttiva locale, come case coloniche, stalle, fienili e ville di campagna. L’intervento progettuale mira a riportare l’attenzione sulla campagna ed a rivitalizzarla attraverso l’inserimento di un’attività produttiva (la cantina vinicola), un’attività commerciale (un mercato dei prodotti tipici) e funzioni rivolte alla conoscenza del territorio, rispettando sempre la tradizione costruttiva e tipologica locale. Attraverso interventi puntuali e non troppo invasivi, sono state ricongiunte tra loro le preesistenze storiche, ovvero la Chiesa di Santa Maria ad Nives e Villa Molza e allo stesso tempo sono state messe a sistema con il fiume Secchia e con il paesaggio circostante. Si è andato così a sviluppare quello che può essere un esempio tipo di intervento per un’area di campagna.
Resumo:
La maggior parte dei moderni dispositivi e macchinari, sia ad uso civile che industriale, utilizzano sistemi elettronici che ne supervisionano e ne controllano il funzionamento. All’ interno di questi apparati è quasi certamente impiegato un sistema di controllo digitale che svolge, anche grazie alle potenzialità oggi raggiunte, compiti che fino a non troppi anni or sono erano dominio dell’ elettronica analogica, si pensi ad esempio ai DSP (Digital Signal Processor) oggi impiegati nei sistemi di telecomunicazione. Nonostante l'elevata potenza di calcolo raggiunta dagli odierni microprocessori/microcontrollori/DSP dedicati alle applicazioni embedded, quando è necessario eseguire elaborazioni complesse, time-critical, dovendo razionalizzare e ottimizzare le risorse a disposizione, come ad esempio spazio consumo e costi, la scelta ricade inevitabilmente sui dispositivi FPGA. I dispositivi FPGA, acronimo di Field Programmable Gate Array, sono circuiti integrati a larga scala d’integrazione (VLSI, Very Large Scale of Integration) che possono essere configurati via software dopo la produzione. Si differenziano dai microprocessori poiché essi non eseguono un software, scritto ad esempio in linguaggio assembly oppure in linguaggio C. Sono invece dotati di risorse hardware generiche e configurabili (denominate Configurable Logic Block oppure Logic Array Block, a seconda del produttore del dispositivo) che per mezzo di un opportuno linguaggio, detto di descrizione hardware (HDL, Hardware Description Language) vengono interconnesse in modo da costituire circuiti logici digitali. In questo modo, è possibile far assumere a questi dispositivi funzionalità logiche qualsiasi, non previste in origine dal progettista del circuito integrato ma realizzabili grazie alle strutture programmabili in esso presenti.
Resumo:
La tomografia computerizzata (CT) è una metodica di diagnostica per immagini che consiste in una particolare applicazione dei raggi X. Essa, grazie ad una valutazione statistico-matematica (computerizzata) dell'assorbimento di tali raggi da parte delle strutture corporee esaminate, consente di ottenere immagini di sezioni assiali del corpo umano. Nonostante le dosi di radiazioni somministrate durante un esame siano contenute, questa tecnica rimane sconsigliata per pazienti sensibili, perciò nasce il tentativo della tomosintesi: ottenere lo stesso risultato della CT diminuendo le dosi somministrate. Infatti un esame di tomosintesi richiede poche proiezioni distribuite su un range angolare di appena 40°. Se da una parte la possibilità di una ingente diminuzione di dosi e tempi di somministrazione costituisce un grosso vantaggio dal punto di vista medico-diagnostico, dal punto di vista matematico esso comporta un nuovo problema di ricostruzione di immagini: infatti non è banale ottenere risultati validi come per la CT con un numero basso di proiezioni,cosa che va a infierire sulla mal posizione del problema di ricostruzione. Un possibile approccio al problema della ricostruzione di immagini è considerarlo un problema inverso mal posto e studiare tecniche di regolarizzazione opportune. In questa tesi viene discussa la regolarizzazione tramite variazione totale: verranno presentati tre algoritmi che implementano questa tecnica in modi differenti. Tali algoritmi verranno mostrati dal punto di vista matematico, dimostrandone ben posizione e convergenza, e valutati dal punto di vista qualitativo, attraverso alcune immagini ricostruite. Lo scopo è quindi stabilire se ci sia un metodo più vantaggioso e se si possano ottenere buoni risultati in tempi brevi, condizione necessaria per una applicazione diffusa della tomosintesi a livello diagnostico. Per la ricostruzione si è fatto riferimento a problemi-test cui è stato aggiunto del rumore, così da conoscere l'immagine originale e poter vedere quanto la ricostruzione sia ad essa fedele. Il lavoro principale dunque è stata la sperimentazione degli algoritmi su problemi test e la valutazione dei risultati, in particolare per gli algoritmi SGP e di Vogel, che in letteratura sono proposti per problemi di image deblurring.
Resumo:
Lo scopo della tesi è verificare se esiste nell’uomo una correlazione tra le velocità preferite di corsa\cammino e i parametri antropometrici, e inoltre dare un significato ai segnali acquisiti dall’analisi del passo tramite uno strumento in fase di sviluppo. Sono stati reclutati 20 soggetti mediamente allenati e suddivisi equamente per sesso. I soggetti sono stati sottoposti ad un protocollo di test motori su treadmill diviso in due parti. I dati del primo test sono stati acquisiti manualmente mentre i dati del secondo test sono stati acquisiti da uno strumento e inviati a remoto. L’elaborazione dei risultati di entrambi i test è stata effettuata utilizzando i software Microsoft Excell e Matlab R2010a. Dai dati è emerso un trend significativo per le velocità di corsa in funzione delle altezze, ma non per quelle di cammino. Per le seconde è stata invece riscontrata una netta differenza tra soggetti maschili e femminili che ha portato a classificare i due sessi separatamente. I parametri riguardanti l’analisi del passo del secondo test sono risultati qualitativamente accettabili e confrontabili con la letteratura, ma sarà necessaria una futura validazione sperimentale per la conferma scientifica.
Resumo:
Il presente elaborato ha lo scopo di descrivere le principali caratteristiche e applicazioni delle biomembrane lipidiche artificiali utilizzate nel campo biochimico e biomedico. Nel Capitolo 1. viene presentata una panoramica generale della membrana cellulare, descrivendo la sua struttura a “mosaico fluido” e i principali componenti che la costituiscono, cioè i lipidi e le proteine transmembrana. Viene quindi descritto uno dei ruoli fondamentali della membrana cellulare, ovvero il trasporto di soluti all’interno e all’esterno della cellula. Vengono schematizzate le tipologie di trasporto, attivo e passivo, e la funzione dei canali ionici, un particolare tipo di proteina transmembrana che permette il passaggio selettivo di ioni dall'esterno all'interno della cellula o viceversa. Il Capitolo 2. si focalizza sui principali modelli di biomembrane lipidiche artificiali. Infatti, a seconda del tipo di metodo e di materiale utilizzato, è possibile ottenere dei prototipi che differiscono per caratteristiche e funzionalità. Verranno illustrate le membrane lipidiche nere (BLM), i doppi strati lipidici (bilayer) con supporto solido (SLB), i bilayer lipidici ibridi e i doppi strati con ammortizzatore polimerico. Per ognuna di queste biomembrane artificiali verranno analizzati i metodi di formazione e gli utilizzi in campo biomedico. Verranno poi descritti i metodi di incorporazione delle proteine nel doppio strato lipidico e le tecniche per stabilizzare il bilayer e realizzare una piattaforma sensoriale. Nel Capitolo 3 verranno presentate le principali applicazioni che utilizzano membrane artificiali, sia per lo studio dei principali processi cellulari di membrana e screening dei farmaci sia per la realizzazione di piattaforme sensorizzate. Infine nel Capitolo 4. si considereranno le innovazioni attese nel campo delle biomembrane artificiali anticipando le loro potenziali applicazioni future. Infatti, le prospettive in questo campo sono molto promettenti soprattutto per quel che riguarda lo screening di nuovi farmaci.
Resumo:
Il metodo agli elementi finiti è stato utilizzato per valutare la distribuzione dei carichi e delle deformazioni in numerose componenti del corpo umano. L'applicazione di questo metodo ha avuto particolare successo nelle articolazioni con geometria semplice e condizioni di carico ben definite, mentre ha avuto un impatto minore sulla conoscenza della biomeccanica delle articolazioni multi-osso come il polso. Lo scopo di questo lavoro è quello di valutare gli aspetti clinici e biomeccanici dell’articolazione distale radio-ulnare, attraverso l’utilizzo di metodi di modellazione e di analisi agli elementi finiti. Sono stati progettati due modelli 3D a partire da immagini CT, in formato DICOM. Le immagini appartenevano ad un paziente con articolazione sana e ad un paziente con articolazione patologica, in particolare si trattava di una dislocazione ulnare traumatica. Le componenti principali dei modelli presi in considerazione sono stati: radio, ulna, cartilagine, legamento interosso, palmare e distale. Per la realizzazione del radio e dell’ulna sono stati utilizzati i metodi di segmentazione “Thresholding” e “RegionGrowing” sulle immagini e grazie ad operatori morfologici, è stato possibile distinguere l’osso corticale dall’osso spongioso. Successivamente è stata creata la cartilagine presente tra le due ossa, attraverso operazioni di tipo booleano. Invece, i legamenti sono stati realizzati prendendo i punti-nodo del radio e dell’ulna e formando le superfici tra di essi. Per ciascuna di queste componenti, sono state assegnate le corrispondenti proprietà dei materiali. Per migliorare la qualità dei modelli, sono state necessarie operazioni di “Smoothing” e “Autoremesh”. In seguito, è stata eseguita un’analisi agli elementi finiti attraverso l’uso di vincoli e forze, così da simulare il comportamento delle articolazioni. In particolare, sono stati simulati lo stress e la deformazione. Infine, grazie ai risultati ottenuti dalle simulazioni, è stato possibile verificare l’eventuale rischio di frattura in differenti punti anatomici del radio e dell’ulna nell’articolazione sana e patologica.
Resumo:
Liebesgrüße aus Deutschland è un’analisi satirica e umoristica della società tedesca, vista con gli occhi dello scrittore russo Wladimir Kaminer, che nel libro unisce esperienze personali da straniero appena arrivato in Germania a vicende più recenti che ha vissuto da scrittore affermato, intrecciandole con aspetti più o meno bizzarri che caratterizzano la società di questo paese. Nella mia proposta di traduzione di tre capitoli di questo libro l’obiettivo è stato quello di imitare il più possibile lo stile dell’autore e trasportare aspetti molto caratteristici della lingua e della cultura di partenza nella società e cultura dei lettori italiani, impresa piuttosto difficile data la differenza spesso molto grande tra caratteristiche peculiari delle due culture, per certi versi diametralmente opposte. I tre capitoli tradotti sono molto diversi tra loro sia nei contenuti sia nello stile di scrittura, il che ha favorito l’adozione di strategie diverse per ognuno di essi, in relazione alle varie caratteristiche dei testi che hanno un peso rilevante nella pianificazione della traduzione. Nell’analisi della traduzione sono presenti le motivazioni per cui sono state adottate determinate macrostrategie di traduzione per quanto riguarda ogni singolo capitolo, le spiegazioni sulle scelte traduttive, e commenti riguardo le scelte lessicali e sintattiche. Nella premessa alla traduzione sono illustrate alcune teorie della traduzione che stanno alla base della riflessione che ha poi portato all’azione concreta della traduzione dei tre testi.
Resumo:
La foca monaca (Monachus monachus, Hermann 1779) è il pinnipede più a rischio d’estinzione del mondo e pochi sono gli studi che hanno indagato l’impatto antropico dato dagli inquinanti chimici su questa specie. Questo studio si propone di analizzare la pressione che elementi in traccia, organoclorurati (OC) e, per la prima volta, idrocarburi policiclici aromatici (IPA) hanno sulla specie, studiando una della popolazioni più numerose presenti nel Mar Mediterraneo, ossia quella greca. Sono stati utilizzati campioni di 59 esemplari deceduti provenienti da diverse colonie residenti in Grecia, di ambedue i sessi, appartenenti a diverse classi d’età e riferibili ad un arco temporali di quasi 20 anni (1994-2013). Per i contaminanti organici (PCB, DDT ed IPA), caratterizzati da un comportamento lipofilico, sono stati utilizzati esclusivamente campioni di tessuto adiposo, mentre per l’analisi di elementi in traccia (essenziali: Fe, Co, Cu, Se, Zn, Mg; tossici: Cr, Ni, As, Cd, Pb, Hg) sono state impiegate diverse matrici, quali fegato, rene, muscolo, adipe, milza, polmone, cuore e pelo. I risultati evidenziano un’importante contaminazione dai OC (125.896,69±289.934,27 ng/g p.s.), in cui DDT e PCB sono presenti rispettivamente al 48,5% e 51,5%, mentre, tra i metalli considerati tossici (As, Cd, Pb, Hg, Cr, Ni), As e Hg sono gli elementi che destano maggiori preoccupazioni per la salute di Monachus monachus, presenti rispettivamente al 36,44% e 12,83%. IPA ed altri elementi in traccia analizzati invece non raggiungono di per sé concentrazioni di rischio per la specie, ma non si escludono possibili effetti sinergici tra i vari inquinanti. L’elaborazione del fingerprint tossicologico ha evidenziato un’eterogeneità nella pressione data dai contaminanti in studio, manifestando che alcune colonie di foca monaca in Grecia sono maggiormente soggette all’azione negativa di organoclorurati, idrocarburi policiclici aromatici o elementi in traccia tossici a seconda del caso.
Resumo:
Tesi sperimentale per testare la nuova libreria di Activity Recognition per Android di Google inc.
Resumo:
Scopo della tesi è illustrare l’evoluzione delle tecniche ecocardiografiche relativamente alla diagnosi precoce della cardiotossicità. L’elaborato espone le modalità di imaging ecocardiografico che vengono utilizzate per diagnosticare la cardiotossicità a partire dall’ecocardiografia bidimensionale, fino alle tecniche tridimensionali con acquisizione in tempo reale, attualmente in evoluzione. Si analizzano le varie tecniche diagnostiche rese disponibili dall’esame ecocardiografico: ecocardiografia a contrasto, doppler ad onda continua e pulsata e color doppler, e i metodi e le stime attraverso i quali è possibile quantificare i volumi cardiaci, indici della funzionalità del miocardio. La frazione di eiezione è infatti stata, fino ad ora, il parametro di riferimento per la verifica di lesioni cardiache riportate a seguito di terapia antitumorale. La cardiotossicità viene riscontrata per riduzioni dei valori della frazione di eiezione da ≥5% a <55% con sintomi di scompenso cardiaco e riduzione asintomatica da ≥10% al 55%. Tuttavia, l’osservazione di questo parametro, permette di quantificare il danno riportato quando ormai ha avuto ripercussioni funzionali. In campo clinico, si sta imponendo, al giorno d’oggi, l’analisi delle deformazioni cardiache per una valutazione precoce dell’insorgenza della cardiotossicità. Lo studio delle deformazioni cardiache viene effettuato tramite una nuova tecnica di imaging: l’ecocardiografia speckle tracking (STE), che consente un’analisi quantitativa e oggettiva, poiché indipendente dall’angolo di insonazione, della funzionalità miocardica sia globale sia locale, analizzando le dislocazioni spaziali degli speckles, punti generati dall’interazione tra ultrasuoni e fibre miocardiche. I parametri principali estrapolati dall’indagine sono: deformazione longitudinale, deformazione radiale e deformazione circonferenziale che descrivono la meccanica del muscolo cardiaco derivante dall’anatomia delle fibre miocardiche. La STE sviluppata inizialmente in 2D, è disponibile ora anche in 3D, permettendo la valutazione del vettore delle dislocazioni lungo le tre dimensioni e non più limitatamente ad un piano. Un confronto tra le due mostra come nella STE bidimensionale venga evidenziata una grande variabilità nella misura delle dislocazioni mentre la 3D mostra un pattern più uniforme, coerente con la normale motilità delle pareti cardiache. La valutazione della deformazione longitudinale globale (GLS), compiuta tramite ecocardiografia speckle tracking, viene riconosciuta come indice quantitativo della funzione del ventricolo sinistro le cui riduzioni sono predittive di cardiotossicità. Queste riduzioni vengono riscontrate anche per valori di frazioni di eiezione normale: ne risulta che costituiscono un più efficace e sensibile indicatore di cardiotossicità e possono essere utilizzate per la sua diagnosi precoce.
Resumo:
L’elaborato propone un’analisi dettagliata della configurazione del discorso pubblicitario, inteso come il risultato di una duplice operazione: quella di produzione del messaggio, a opera del pubblicitario, utente di precise strategie discorsive, e quella di interpretazione, da parte del destinatario che completa il significato dell’enunciato attribuendogli le proprie peculiari connotazioni. Il corpus utilizzato consiste in una raccolta di spot pubblicitari prodotti dall’azienda Barilla per i telespettatori francofoni, ed è stato reperito presso l’Archivio Storico di Barilla nella sede di Parma. L’illustrazione e la descrizione di alcune pubblicità scelte come modelli forniscono la base per l’approfondimento di alcune problematiche linguistiche e traduttologiche; in particolare, viene posto l’accento sulla nozione di ethos discorsivo, collocabile nell'ambito dell’analisi del discorso, e su quella di stereotipo linguistico, considerato come veicolo culturale e strumento dotato di straordinaria forza assertiva e pertanto prediletto dalla comunicazione pubblicitaria. Tale forma di linguaggio merita di essere analizzata e studiata nella sua ricca complessità, dal momento che è da considerarsi come il più efficace e moderno mezzo di diffusione, incorporazione e assimilazione di valori e comportamenti culturalmente orientati.
Resumo:
Il tema del mio elaborato finale è la sottotitolazione del film “A passeggio per Mosca” di Georgij Danelija (1963), un noto regista russo. I suoi film più famosi sono “Мимино” (Mimino) e “Осенный марафон” (“Maratona d’autunno”). L’attore protagonista del film è Nikita Michalkov, famoso attore e regista, nonché personaggio controverso della vita culturale russa; il suo film più famoso è “Утомлённые солнцем” (“Sole ingannatore”). I personaggi più anziani furono interpretati da attori famosi quali Rolan Bykov, attore di teatro, e Vladimir Basov, regista e attore straordinariamente versatile. I ruoli principali, invece, furono affidati ad attori meno noti: Aleksej Loktev e Evgenij Steblov, che si dedicarono entrambi al teatro per gran parte della propria vita, e Galina Pol’skich, che divenne una grande attrice di film drammatici. Straordinari sono anche il lavoro dell’operatore cinematografico Vadim Jusov e quello del compositore Andrej Petrov. Il film suscitò diverse impressioni nel pubblico e nella critica e fu accolto positivamente da Chruščёv: presto sarebbe diventato un simbolo del “Disgelo”, un periodo in cui Chruščёv effettuò un’opera di destalinizzazione dell’URSS: il clima era quindi più disteso, sebbene vi fosse un malcontento diffuso a causa dell’economia fallimentare dello Stato. La canzone finale, che contribuì al successo del film, esprime perfettamente quest’atmosfera spensierata, che pervade anche Mosca, la vera protagonista del film. Della capitale vengono inquadrati i luoghi più importanti: tra questi il parco Gorkij, la metropolitana e il GUM. Tradurre i sottotitoli del film non è stato facile. In particolare, ho incontrato difficoltà nel tradurre alcune particelle russe che non hanno un equivalente in italiano e battute in cui erano presenti importanti riferimenti culturali. Il lavoro a cui mi sono dedicata con più impegno è stato la traduzione della canzone finale: desideravo che i sottotitoli italiani fossero in rima e conservassero il significato dei versi originari.