351 resultados para Lunghezza della cerniera plastica, pushover, rotazione ultima, colonne in c.a.
Resumo:
Questo lavoro ha lo scopo di definire l’influenza del rapporto di aspetto (ovvero il rapporto tra lunghezza del giunto e diametro di accoppiamento) sulla resistenza statica di un adesivo epossidico in temperatura. Sono state eseguite, dunque, prove di accoppiamento e di disaccoppiamento su "pin and collar" fabbricati secondo la norma ISO 10123. Il materiale scelto è l’acciaio con quattro diversi livelli di rapporto di aspetto. La tesi fornisce dettagli sulla procedura sperimentale e sulla metodologia di elaborazione dei risultati, che sono stati analizzati con metodi statistici. Lo studio mira ad evidenziare se il rapporto di aspetto ha un effetto significativo sulla resistenza a taglio dell’adesivo alla temperatura di 80°C e, in caso affermativo, a recuperare la relazione tra il rapporto di aspetto e la forza adesiva.
Resumo:
I giunti ibridi sono impiegati in molte applicazioni meccaniche, avendo molti vantaggi, tra i quali quello di aumentare il carico trasferibile. Ci sono state ricerche in merito, le quali hanno valutato la dipendenza della resistenza a taglio di questi giunti rispetto a numerose variabili. Abbiamo poche informazioni, però, sulla dipendenza rispetto all'ER (Engagement Ratio, rapporto tra lunghezza e diametro di accoppiamento). Con questo lavoro la si vuole studiare nel caso di accoppiamenti con gioco in presenza di adesivo, considerando quattro livelli di ER. Per questo sono state effettuate prove di spiantaggio su pin e collar, dalle quali è risultata la presenza di una possibile dipendenza tra le due grandezze, seppur minima.
Resumo:
Tra tutti i fenomeni naturali osservabili, ne era presente uno particolarmente interessante e con il quale si aveva diretto contatto quotidianamente: la gravità. Dopo le innumerevoli osservazioni astronomiche effettuate da Galileo, fu Newton nel diciassettesimo secolo a capire che il moto dei pianeti era governato dalle medesime leggi che descrivono la caduta dei gravi sulla Terra e fu quindi lui che ci fornì una prima teoria della gravità con la quale si spiegarono le orbite dei pianeti con ottima precisione. Grazie al contributo di Einstein, la teoria si rinnovò e si arricchì, ma rimase pur sempre lontana dall' essere completa, tant' è che ancora oggi sono presenti molte domande a cui non siamo in grado di rispondere. In questo articolo ci occuperemo di tali quesiti, provando a formulare una teoria che sia in accordo con le attuali evidenze sperimentali. Nella prima parte, tratteremo le ragioni che hanno spinto i ricercatori ad introdurre le nuove teorie della gravità f(R); in particolare vedremo la peculiarità delle curve di rotazione delle galassie e perché ci sia il bisogno di tirare in ballo la materia oscura. Discuteremo anche alcuni problemi derivanti dall' evoluzione cosmica e altre incongruenze riguardanti la stabilità delle stelle di neutroni. In seguito mostreremo come ricavare l' equazione di Einstein partendo dai principi variazionali di Hamilton, e estenderemo tale ragionamento con lo scopo di ottenere un' equazione corrispondente ad una gravità modificata. Infine, verranno introdotte le teorie della gravità f(R), per mezzo delle quali cercheremo di discutere alcune possibili spiegazioni alle problematiche mosse nella parte introduttiva.
Resumo:
L'isolamento gravitazionale delle sonde dello spazio profondo durante le loro fasi di crociera ed i loro esigui livelli di vibrazioni, le rendono la migliore collocazione possibile per mini-laboratori automatici di fisica fondamentale da installare su di esse come strumenti scientifici. Date le note difficoltà di misurazione della costante di gravitazione universale, probabilmente dovute alla collocazione terrestre dei laboratori, si propone di dedicare un mini-laboratorio alla misurazione del valore locale ed istantaneo della costante G ed alla sua stabilità spazio-temporale durante il moto della sonda. La misurazione di G nel mini-laboratorio può essere effettuata rilasciando con attuatori elettrostatici, senza velocità relativa, due masse campione, preferibilmente due sfere d’oro da 1Kg, a distanza di 1 mm, e monitorando il loro libero moto, dominato dall’attrazione gravitazionale reciproca, con un sensore di spostamento laser interferometrico multicanale. Dopo il congiungimento le masse dovrebbero essere riposizionate e rilasciate nuovamente per una misurazione quasi continua della costante. Un meccanismo dorrebbe invece bloccare le masse durante le fasi dinamiche della sonda. Un sensore di spostamento interferometrico a fibre ottiche, FPS3010 della Attocube, appariva adatto ed un esperimento è stato realizzato per provarlo in un apparato simulante il mini-laboratorio. In una campana del vuoto isolata dalle vibrazioni, due cilindri in tungsteno da 1Kg sono stati sospesi orizzontante tramite micro-Dyneema a piastre in allumino movimentate da nanoposizionatori piezoelettrici dotati di encoder ottico nanometrico. Il sensore ha monitorato il moto radiale dei cilindri, le cui basi combacianti sono state posizionate a distanze di separazione variabili da 10 micron a 5000 micron. Malgrado il rumore meccanico ed una sorgente ignota di errore sistematico, un moto attrattivo è stato riscontrato differenzialmente o direttamente in molte misurazioni e nessuna ha mostrato un moto repulsivo. In alcune misurazioni è direttamente visibile la rotazione dell’asse di oscillazione dei cilindri sospesi. Il sensore si è comportato egregiamente.
Resumo:
I materiali fotocatalitici, se opportunamente irradiati con luce di una opportuna lunghezza d'onda, consentono un maggior abbattimento delle sostanze organiche e inorganiche nocive con le quali vengono a contatto. Essi sono in grado inoltre grazie alla loro spiccata idrofilia di conservare inalterato nel tempo il loro aspetto estetico. Il connubio ingegneria e chimica ha creato dunque materiali fotocatalitici contenenti al loro interno particelle di TiO2, il principale fotocatalizzatore in commercio, che, applicati in ambiti urbani ed edilizi come rivestimenti, pitture, rimescolato in pasta di malte o masselli autobloccanti, pitture o piastrelle antisettiche e vetri autopulenti, possono generare effetti positivi in termini sia di antinquinamento che di antibattericità. La tesi parte dalla descrizione delle reazioni chimiche che stanno alla base della fotocatalisi e prosegue descrivendo il fotocatalizzatore più attivo ed efficace fino ad ora scoperto, il TiO2. Nella seconda parte della tesi si citano le principali aziende italiane e mondiali che si sono impegnate nella produzione di materiali fotocatalitici, riportando le loro opere e i loro prodotti. Nella parte terza si vogliono invece fornire le informazioni generali attualmente conosciute sulla minaccia alla salute che può costituire l'utilizzo di materiali nanometrici come il TiO2. Nella parte quarta invece si risponde alle ancora frequenti domande riguardanti l'efficacia del TiO2 nelle applicazioni reali al variare del materiale di supporto, la sua efficacia nel lungo termine, il reale effetto autopulente nell'ambiente reale e nel suo impatto sull'ambiente. Si riportano i risultati di laboratorio riguardanti l'efficacia fotocatalitica in termini di degradazione di tinte e di angolo di contatto, direttamente applicati alla realtà delle costruzioni: su supporti diversi in termini di permeabilità e idrorepellenza, è stata applicata una sospensione acquosa fotocatalitica applicata sia a pennello che tramite getto spray HVLP. Alcuni campioni sono poi stati dilavati simulando l'azione atmosferica di weathering dell'area bolognese.
Resumo:
Nella regione del TIR, le transizioni spettrali vibro-rotazionali della CO2 sono sfruttate per ricavare la distribuzione di P e T negli esperimenti spaziali. Oltre all’importanza di questi due parametri, la loro conoscenza è necessaria per ricavare la distribuzione di qualsiasi molecola dalle sue transizioni spettrali. Per ricavare P e T si assume di conoscere il VMR della CO2. L’accuratezza con cui si ricava la distribuzione della CO2 insieme a quelle di P e T non è sufficiente. Inoltre, il VMR della CO2 aumenta nel corso degli anni. Per questo, in questa tesi si propone una nuova strategia per misurare la CO2 usando uno strumento satellitare a scansione del lembo. L’idea è quella di sfruttare le transizioni rotazionali pure dell’O2 nella regione del FIR per ricavare P e T. Poiché queste transizioni traggono origine da un momento di dipolo magnetico la loro forza di riga è molto bassa. Tuttavia, grazie alla grande abbondanza dell’O2 in atmosfera e alla lunghezza dei cammini ottici, queste transizioni sono tra le più intense nello spettro atmosferico del FIR. Il satellite considerato è posto su un’orbita quasi polare e lo strumento osserva l’emissione del lembo atmosferico in direzione opposta a quella di volo. Lo strumento ipotizzato è uno spettrometro a trasformata di Fourier con due porte di output ospitanti un detector per la regione del FIR e uno per quella del TIR. La risoluzione spettrale è di 0.004 cm-1. Mentre il NESR è di 5 nW. Il campionamento geometrico verticale dell’atmosfera è di 3 Km mentre quello orizzontale è di circa 100 Km. Usando la teoria dell’optimal estimation sono stati selezionati due set di intervalli spettrali da analizzare, uno per la regione del FIR e l’altro per la regione del TIR. Con queste ipotesi sono stati effettuati test di retrieval su osservati simulati per valutare le performance del sistema ipotizzato. Si è dimostrato che le transizioni della CO2 nella regione del TIR non sono sufficienti per ricavare P e T insieme al proprio VMR con precisione soddisfacente e che l’uso dell’informazione derivante dal FIR fa aumentare la qualità del retrieval. Le performance dell’esperimento permettono di ricavare il VMR della CO2 con una precisione di circa 1 ppm tra 10 Km e 60 Km con una risoluzione verticale di 3 Km e una orizzontale di circa 2.5° di latitudine. Si è quindi dimostrato la validità della strategia proposta in questo studio.
Resumo:
La morfologia della piattaforma continentale della Sicilia Settentrionale è il risultato dell'assetto geodinamico della zona e delle più recenti fluttuazioni glacioeustatiche del livello marino.Oggetto di questa tesi è stato lo studio degli elementi geomorfologici sommersi, risalenti all’ultima trasgressione marina, e del cuneo sedimentario olocenico da cui sono sepolti. Tramite i dati forniti da strumenti geofisici, quali l’ecoscandaglio a fascio multiplo (Multibeam) e i profili sismici Chirp Sub-bottom, è stato possibile lo studio di tali elementi e la redazione di due mappe che riportano le isobate delle profondità della superficie di massima ingressione marina e degli isospessori del cuneo olocenico di stazionamento alto. I depositi, nel corso del lavoro, sono stati suddivisi per facilitare la loro descrizione. L'analisi dei depositi trasgressivi ha permesso il riconoscimento di elementi morfologici quali frecce litorali (spit), isole barriera (barrier island), sistemi barriera-laguna e un sistema deltizio sommerso. Queste elementi sono stati ricondotti dunque ad una piattaforma relitta, ormai sommersa, le cui morfologie sono state plasmate dall'ultima trasgressione marina. Grazie ai profili chirp subbottom è stato inoltre possibile riconoscere un basamento carbonatico Meso-Cenozoico con un area di 23 km². I depositi olocenici di stazionamento alto occupano circa l'88% della superficie della piattaforma analizzata. Gli spessori maggiori, corrispondenti a 25m, sono stati riscontrati in prossimità della costa da cui degradano verso nord fino ad estinguersi. L'estensione del cuneo olocenico risulta essere influenzata dalle correnti, che trasportano i sedimenti verso est, dalla presenza degli alti morfologici, in prossimità della cui superficie i sedimenti si arrestano, e dall'apporto fluviale fornito dalle fiumare che sfociano nella zona analizzata. Quest'ultimo è il fattore che influenza maggiormente lo spessore del cuneo. Nelle aree di piattaforma prossime alle foci fluviali inoltre è stata riscontrata la deposizione di materiali grossolani che lateralmente sfumano a fini attraverso contatti eteropici.
Resumo:
Lo scopo di questa tesi è quello di evidenziare, attraverso varie analisi statistiche ed applicazione di modelli stocastici, il comportamento strutturale e funzionale dei dinucleotidi che compongono le sequenze di DNA di diversi organismi. Gli organismi che abbiamo scelto di prendere in considerazione sono l'uomo, il topo e l'Escherichia coli. Questa scelta non è stata casuale, ma oculata, al fine di mettere in risalto alcune differenze tra organismi eucarioti, quali l'uomo e il topo, ed organismi procarioti come il batterio E.coli. Nella prima parte del nostro studio, abbiamo computato le distanze che intercorrono tra occorrenze successive dello stesso dinucleotide lungo la sequenza, usando un metodo di non sovrapposizione, ed abbiamo iterato il calcolo per tutti i 16 dinucleotidi. Dopodiché ci siamo preoccupati di graficare le distribuzioni di distanza dei 16 dinucleotidi per l'E.Coli, il topo e l'uomo; gli istogrammi evidenziano un comportamento anomalo della distribuzione di CG che accomuna gli organismi eucarioti e di cui, invece, è esente l'organismo procariote esaminato. Questo dato statistico trova una spiegazione nei processi biologici di metilazione che possono innescarsi sul dinucleotide CG nelle sequenze eucariotiche. In seguito, per determinare quanto ciascuna delle 16 distribuzioni si discosti dalle altre abbiamo usato la divergenza di Jensen-Shannon. Per quantificare le differenze sostanziali tra le distribuzioni di CG dei 3 organismi considerati abbiamo deciso di verificare quale fosse il miglior fit per tali curve tra un esponenziale ed una power-law. L'esponenziale rappresenta un buon fit per le code delle distribuzioni di CG del topo e dell'uomo; ciò rivela la presenza di una lunghezza caratteristica per entrambi gli organismi. Nella seconda parte dello studio, i risultati vengono confrontati con modelli markoviani: sequenze random generate con catene di Markov di ordine zero (basate sulle frequenze relative dei nucleotidi) e uno (basate sulle probabilità di transizione tra diversi nucleotidi). Quest'ultima riproduce abbastanza fedelmente la sequenza biologica di partenza, per cui abbiamo scelto di utilizzare la catena Markov del 1° ordine per altre analisi statistiche riguardanti le distribuzioni dei nucleotidi, dinucleotidi, ed anche dei trinucleotidi con particolare interesse per quelli in cui è contenuto CG, in modo da verificare se l'anomalia si ripercuote anche in essi. Riteniamo pertanto che metodi basati su questo approccio potrebbero essere sfruttati per confermare le peculiarità biologiche e per migliorare l'individuazione delle aree di interesse, come le isole CpG, ed eventualmente promotori e Lamina Associated Domains (LAD), nel genoma di diversi organismi.
Resumo:
Negli ultimi decenni la materia oscura è stata oggetto di crescente interesse scientifico: dati sperimentali indicano che essa costituisce il 26.8% della massa totale dell'Universo ma le sue origini e natura rimangono ancora ignote. Essa interagisce solo gravitazionalmente in quanto priva di carica, caratteristica che ne rende molto difficile la rivelazione. Numerosi esperimenti in tutto il mondo sono alla ricerca di maggiori informazioni riguardo la natura della materia oscura tramite metodi di rivelazione indiretta e diretta; questi ultimi sono accumunati da rivelatori molto massivi per sopperire alla piccola sezione d'urto di interazione e situati in ambienti molto isolati per diminuire il rumore di fondo dovuto alla radioattività terrestre. Tra le varie ipotesi avanzate riguardo la natura della materia oscura spiccano le WIMP, Weakly Interacting Massive Particle. L'esperimento XENON, situato ai Laboratori Nazionali del Gran Sasso, si occupa della rivelazione diretta di WIMP studiandone l'urto elastico con i nuclei di Xeno, presente allo stato liquido e gassoso all'interno della TPC, il rivelatore fulcro dell'esperimento. I primi risultati dell'ultima fase del progetto sono attesi per l'inizio del 2016; grazie alla massa fiduciale di circa una tonnellata di Xeno, da cui il nome XENON1T, e a migliorie atte a diminuire il rumore di fondo, quali la scelta accurata di materiali a bassa radioattività e a un sistema di veto dei muoni, si ipotizza che il rivelatore raggiungerà una sensibilità due ordini di grandezza superiore a quelle finora raggiunte. Sono in fase di ricerca soluzioni per incrementare la raccolta di luce del rivelatore, nell'ottica di diminuire l'energia di soglia di rivelazione migliorandone la sensibilità. Una delle possibili soluzioni consiste nell'affiancare i PMT già in uso con fotomoltiplicatori al Silicio SiPM. Essi dovranno essere in grado di lavorare a una temperatura di sim ~170 K ed avere una buona efficienza di rivelazione per fotoni di lunghezza d'onda di ~178 nm. Questo lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo del lavoro di tesi presentato è stato la misura della variazione di guadagno e conteggi di buio dei SiPM a disposizione in funzione della temperatura
Resumo:
Obiettivo di questa tesi è l'analisi e l'approfondimento di una tecnologia di nuova generazione che prende il nome di iBeacon. Basata sulla localizzazione di prossimità (wireless) a bassi consumi energetici e sviluppata da Apple, l'iBeacon sfrutta il protocollo Bluetooth Low Energy con il quale riesce ad utilizzare al meglio l'energia, permettendo alle batterie dei dispositivi che lo implementano di durare molto più a lungo. In questa argomentazione, vengono elencate e descritte alcune tecniche di comunicazione wireless a medio-corto raggio (Wi-Fi, Infrarosso, RFID, NFC, Bluetooth, BLE), che utilizzano lo scambio di informazioni senza fili, descrivendone una breve storia, dalla loro evoluzione nel tempo e nei modi, ad alcune caratteristiche di utilizzo. L'argomentazione poi focalizzerà l'attenzione sui metodi di localizzazione utilizzati dall'iBeacon, fornendone le funzionalità e le caratteristiche principali di questa nuova tecnologia e discutendone i vantaggi, i limiti tecnologici e di sviluppo del protocollo, fino a delineare alcune soluzioni per quanto riguarda le soglie di sicurezza e di privacy. L'analisi poi confronterà l'iBeacon con i maggiori antagonisti che utilizzano questa tecnica di microgeolocalizzazione (NFC, EddyStone). Si cercherà inoltre di delineare in maniera più dettagliata le specifiche tecniche che costituiscono questa nuova tecnologia di prossimità, dal protocollo di comunicazione alla componentistica hardware. Successivamente verrà descritto come un dispositivo iOS si interfaccia con un iBeacon, delineandone le API e il setup e mostrando i diversi passaggi per la creazione di un prototipo di applicazione. Si cercherà infine di pianificare, progettare e costruire una rete con iBeacon. Come ultima analisi, si prenderà in esame la relazione tra l'iBeacon e l'Internet of Things (IoT), e gli sviluppi che potrà portare all'evoluzione del Marketing di Prossimità, mostrando un esempio concreto di utilizzo efficace di questa innovativa tecnologia (EXPO 2015).
Resumo:
Il presente lavoro di tesi è stato stilato dopo aver svolto un tirocinio curriculare presso l’azienda Robopac S.p.A. nello stabilimento di Villa Verucchio (Rn). Sono partito dal lavoro di raccolta e sintesi degli indici di produzione e delle scorte di magazzino fatto nel periodo di tirocinio, focalizzandomi poi sull’aspetto della gestione delle scorte. Da quest’ultima analisi è emerso che la gestione delle merci ha portato ad avere un alto valore economico del magazzino per cui l’obbiettivo di questo lavoro di tesi è stato fornire un modello per la determinazione della scorta ottimale che porti ad una riduzione del valore totale del magazzino. Inizialmente è stato affrontato il tema generale della logistica industriale, in particolare analizzando il sistema logistico attraverso le sue caratteristiche e funzioni e sono state descritte le tipologie di magazzini industriali secondo i diversi sistemi di stoccaggio. Successivamente è stato introdotto l’argomento principale, ossia i problemi e i modelli di gestione delle scorte. E' stata dapprima descritta e classificata la scorta, per poi analizzarne i modelli di gestione come il modello di Wilson, utilizzato per il questo lavoro, con particolare attenzione alla scorta di sicurezza. Infine è stato formulato l’indice di rotazione e l’analis ABC di Lorentz-Pareto. L'ultimo capitolo descrive l’azienda Robopac con attenzione sul magazzino, attraverso la rappresentazione del percorso delle merci all’interno dello stabilimento e della fase di estrazione del materiale, aprendo una finestra sulla gestione degli approvvigionamenti dell’azienda Robopac. Nella seconda parte si arriva ad affrontare l’argomento centrale di tale elaborato, la definizione di un modello per determinare la scorta ottimale a magazino e vengono evidenziati i risultati ottenuti.
Resumo:
In questa tesi si presenta l’attività didattica "Fascinating World of Geometric Forms", la relativa sperimentazione fatta su un campione di 175 studenti al quarto anno di scuola secondaria di secondo grado e i risultati ottenuti. In questo progetto, grazie alla penna 3D, è stato possibile fare matematica costruttiva in classe. Gli studenti hanno potuto disegnare e costruire nello spazio 3D, senza più essere costretti a disegnare in prospettiva sul foglio. La ricerca principalmente tenta di sviluppare l'intuito geometrico, pertanto è facilmente adattabile a studenti di varie età. Si propongono una serie di attività volte a rispondere alla domanda "Come uscire dal piano?" e, a tal proposito, si suggeriscono vari metodi: aggiungere la profondità agli elementi del piano; comporre sviluppi piani di poliedri; ruotare figure geometriche piane limitate attorno a un asse contenuto nel piano della figura; comporre nello spazio sezioni piane di quadriche. Questo progetto di ricerca, sviluppato sotto la supervisione del professor Alberto Parmeggiani del Dipartimento di Matematica di Bologna e in collaborazione con il professor Gianni Brighetti del Dipartimento di Psicologia di Bologna, si pone come obiettivo quello di avvicinare gli studenti allo studio della geometria dello spazio e, soprattutto, di sviluppare in loro la capacità di creare immagini mentali e concetti figurali.
Resumo:
Il piede, con la sua complessa struttura anatomica, permette la stabilità e la deambulazione e per questo risulta fondamentale studiarne l’anatomia, la morfologia e la biomeccanica. La Pedana Baropodometrica è uno strumento che misura le pressioni plantari e permette di stimare alcuni parametri morfologici e funzionali del piede in modo veloce e relativamente economico. Lo Scanner Plantare 3D permette di acquisire in tempi brevi la geometria del piede creandone un modello tridimensionale digitale. Queste qualità hanno agevolato la diffusione di questi strumenti nella produzione di ortesi plantari su misura e, dato il crescente interesse del mercato verso le tematiche di customizzazione, alla loro commercializzazione su larga scala. Per ammortizzare i costi, tuttavia, questi strumenti sono spesso basati su tecnologie low-cost. Lo scopo dello studio svolto in questa tesi è quello di determinare la bontà e l’accuratezza di alcuni parametri morfologici e funzionali del piede acquisiti con una pedana baropodometrica resistiva a basso costo. Questi valori sono stati rapportati con misurazione dirette e con dati raccolti dall’elaborazione dell’immagine ricavata con uno scanner plantare 3D. In particolare sono state valutate misure di lunghezza e larghezza del piede, dell’arch index definito come il rapporto tra l’area del mesopiede e l’area totale del piede meno le dita, dell’angolo di progressione del passo e del CPEI, un parametro che indica la variazione della traiettoria del centro di massa. In conclusione la pedana baropodometrica, pur non essendo precisa nel determinare la distribuzione delle pressioni massime, si è dimostrata sufficientemente accurata nella stima delle dimensioni del piede, delle aree di appoggio e di alcune caratteristiche funzionali del piede.
Resumo:
Dal 1949 al 1989 la Germania dovette fare i conti con le conseguenze della 2^ guerra mondiale e della guerra fredda, che portarono alla spaccatura ideologica e geografica del paese. La Repubblica Democratica Tedesca, costruita su modello del socialismo dell’Urss, era guidata dal partito della SED, che esercitò il proprio predominio sociale, politico ed economico sulla popolazione e sull’opinione pubblica, servendosi di mezzi sottili di influenza e di controllo e, non da ultimo, del linguaggio. Il progetto di questa tesi si basa sull’analisi e il sottotitolaggio di un notiziario del telegiornale della Germania Est, Aktuelle Kamera, e di un documentario prodotto dalla DEFA, l’impresa tedesco-orientale addetta alla produzione di film, con l’obiettivo di approfondire lo studio della propaganda degli ultimi anni di vita della RDT, che, grazie al controllo di tutti i mezzi di comunicazione, indottrinava i cittadini a una visione socialista del mondo e giustificava le scelte del governo. Attraverso il filtro cinematografico si possono delineare le caratteristiche della società tedesca orientale, che, pur sotto l’influenza sovietica, presentava una propria identità e cultura. Nel primo capitolo di questo elaborato verrà presentato il quadro storico di riferimento, ripercorrendo le tappe salienti che portarono alla formazione delle due Germanie e l’evoluzione sociale e politica della RDT; nel secondo capitolo ci si concentrerà sul sistema della propaganda creato dal regime con particolare attenzione al ruolo delle istituzioni, dei media e degli intellettuali. Inoltre si farà accenno all’opera di censura, al delicato mondo del consenso/dissenso e al Ministero della Sicurezza di Stato. Infine, nel terzo e ultimo capitolo verranno presentati i due documenti sottotitolati (il notiziario “1. Mai 1989” e il documentario “Berlin – die Hauptstadt der DDR”) e, basandosi su esempi concreti, verranno analizzate le strategie traduttive messe in atto durante la fase di traduzione.
Resumo:
Lo studio dell'ottica si incentra sull'indagine della natura della luce, delle sue proprietà e delle leggi che ne regolano i fenomeni fisici. Si possono, in complessivo, identificare tre branche: l'ottica geometrica, l'ottica ondulatoria e l'ottica quantistica. Quest'ultima esula dalla presente trattazione, che piuttosto si incentra sull'aspetto geometrico ed ondulatorio della radiazione luminosa. Con l'ottica geometrica viene identificato lo studio della luce come propagazione rettilinea di raggi luminosi. Essa include lo studio degli specchi e delle lenti, di particolare interesse per le applicazioni nella strumentazione astrofisica. All'interno del primo capitolo, dunque, sono enunciate le principali leggi che definiscono la propagazione rettilinea della luce, la sua riflessione contro una superficie o la sua rifrazione attraverso due mezzi differenti. L'ottica geometrica, in effettivo, consiste in un caso limite della più generica trattazione fornita dall'ottica ondulatoria. La condizione che demarca la possibilità di approssimare la trattazione nell'ambito geometrico, è definita dalla richiesta che la lunghezza d'onda della radiazione in esame sia di molto inferiore delle dimensioni lineari dell'ostacolo con cui interagisce. Qualora tale condizione non fosse soddisfatta, la considerazione della natura ondulatoria della luce non sarebbe più trascurabile. Nel secondo capitolo dell'elaborato, dunque, vengono presi in esame il modello ondulatorio della radiazione elettromagnetica ed alcuni fenomeni fisici che ne avvalorano la fondatezza; in particolare i fenomeni dell'interferenza e della diffrazione. Infine, nel terzo ed ultimo capitolo, sono affrontati alcuni esempi di applicazioni astrofisiche, sia nell'ambito dell'ottica geometrica che nell'ambito dell'ottica ondulatoria.