754 resultados para Perch.
Resumo:
Quello del falso è un problema con cui si sono dovuti confrontare gli specialisti di ogni epoca storica, ma che ha subito un’accelerazione e un’esasperazione con la storia del tempo presente, anche per via della simultanea presenza dei protagonisti che hanno reso più complessa una scena storica e memoriale segnata profondamente dal rapporto tra storici e testimoni e dall’articolazione della memoria pubblica e di quella privata. L’evento che più acutamente ha risentito del problema del falso in età contemporanea è certamente il genocidio degli ebrei compiuto dai nazisti durante la Seconda Guerra Mondiale perch è proprio al cuore dell’impresa genocidiaria che è avvenuta la grande falsificazione che ha alimentato qualsiasi successivo discorso revisionista. L’emersione del testimone sulla scena pubblica ha posto pertanto in modo acuto il problema dello statuto della testimonianza rendendo l’analisi del funzionamento della memoria indispensabile per comprendere quanto un testimone sia molto più utile per la descrizione, non tanto del fatto in sé, ma del modo in cui l’evento è stato socialmente codificato, registrato e trasmesso. Il legame tra i casi esaminati, pur nella loro estrema eterogeneità, spaziando da false autobiografie, come quella di Binjamin Wilkomirski, a testi controversi, come quello di Jean-François Steiner, o da racconti contestati, come quelli di Deli Strummer e Herman Rosenblat, a narrazioni che nel tempo hanno subito importanti variazioni, come nel caso Aubrac e nelle vicende del libro di Alcide Cervi, sarà stabilito grazie alla centralità giocata, in ognuno di essi, dalla forma testimoniale e dall’altrettanto fondamentale argomentazione in termini di affaire. Il problema del falso è stato perciò indagato all’interno delle ragioni storiche e culturali che hanno determinato la formazione discorsiva che ha per soggetto il testimone e la testimonianza come più autentico punto di vista sugli eventi del passato con le relative conseguenze sul piano storico e pubblico.
Resumo:
Al giorno d’oggi, la produzione di energia e di molecole di base per l’industria chimica è completamente dipendente da risorse non rinnovabili come petrolio, carbone e gas naturale ; con tali risorse in via di esaurimento e la sempre crescente domanda di energia e materiali da parte di tutte le economie, risulta obbligatorio sviluppare tecniche per la loro produzione da risorse rinnovabili. Le biomasse, oltre ad essere una fonte rinnovabile, generano minori emissioni di gas serra rispetto ai combustibili fossili, perch la CO2 rilasciata nei processi di utilizzo viene bilanciata da quella consumata nel processo di crescita delle biomasse stesse. Tuttavia, ad oggi, lo sfruttamento di queste fonti risulta ancora sfavorito economicamente a causa di processi industriali non ancora ottimizzati, i cui costi si ripercuotono sul prodotto finale. Le molecole derivanti dagli scarti lignocellulosici possono essere usate come molecole di partenza per industrie chimiche di qualsiasi tipo, da quelle farmaceutiche a quelle plastiche. Queste molecole sono già parzialmente funzionalizzate; ciò significa che la sintesi di prodotti chimici specifici richiede un minor numero di stadi rispetto ai building blocks petroliferi, con conseguente diminuzione di prodotti di scarto e sottoprodotti . Una delle molecole “piattaforma” identificate tra le più importanti per la produzione di diversi prodotti chimici, risulta essere il 5-idrossimetilfurfurale (HMF) , derivante dalla disidratazione di polisaccaridi esosi, da cui si può ottenere tramite ossidazione selettiva, l’acido 2,5-furandicarbossilico (FDCA), potenziale sostituto dell’acido tereftalico nella produzione del PET e molti altri prodotti. Lo scopo di questo lavoro di tesi è stato lo studio della reattività di catalizzatori a base di Pd e Au/Pd utilizzati nella reazione di ossidazione dell’HMF a FDCA. Il lavoro svolto ha avuto come obiettivi principali: • L’ottimizzazione della sintesi di nanoparticelle di Pd e Au/Pd a diverso rapporto molare, e la caratterizzazione delle sospensioni ottenute mediante analisi DLS, XRD e TEM. • La preparazione di catalizzatori supportati su TiO2 e la caratterizzazione dei catalizzatori ottenuti tramite analisi BET, TEM e analisi termiche TGA/DSC. • Lo studio dell’attività catalitica dei catalizzatori preparati nell’ossidazione selettiva in fase liquida del 5-idrossimetilfurfurale (HMF) ad acido 2,5-furandicarbossilico (FDCA) e del meccanismo di reazione.
Resumo:
Dopo gli indubbi sviluppi politici e legali tendenti all’uniformazione è inevitabile non sostenere che anche il mercato della gestione delle infrastrutture e del trasporto aereo a terra costituisce un fattore determinante del trasporto aereo con una più stretta necessità di uniformazione del quadro regolamentare. La gestione aeroportuale e i servizi connessi è collocata all’interno del diritto aereo. Perch si configuri il “trasporto aereo” (nozione dinamica base che caratterizza il diritto del trasporto aereo) si ha la necessità di un accordo tra due paesi – un permesso di volo designato – una finestra di orario di decollo e atterraggio e la regolamentazione delle relative attività connesse, affinché si svolgano in situazione di safety, quale conditio sine qua non di tutte le attività di aviazione. Tuttavia, la migliore dottrina sente il bisogno di una trattazione separata della materia diritto aereo in senso stretto e quella della disciplina aeroportuale, benché i due ambiti sono tra di loro contigui. Questo è legittimato da esigenze contrapposte fra gli operatori dei due settori. In ultima considerazione possiamo sostenere che gli sviluppi legislativi, sia nel diritto aeronautico e in quello marittimo, portano all’abbraccio della impostazione di un diritto dei trasporti inclusivo di ogni forma dell’attuazione del fenomeno trasporto, scollegandosi al solo fenomeno dell’esercizio nautico quale elemento caratterizzante della disciplina. Quale futuro legislativo si prospetta per la gestione del bene aeroporto? Quale sarà la sua dimensione legale su questioni importanti sulle quali esiste una normazione europea come l’allocazione delle bande orarie, tasse aeroportuali e assistenza a terra oppure su quelle che hanno un carattere prevalentemente nazionale? E infine, quale sarebbe la strada da seguire per regolare il nuovo mercato aeroportuale che è passato dalla idea della competizione per il mercato esplorando anche la competizione nel mercato, con aeroporti che si comportano come operatori in concorrenza tra loro?
Resumo:
Gli argomenti trattati all’interno di questa tesi di dottorato riguardano la sintesi e la modifica di polimeri ottenuti a partire da fonti rinnovabili. L’acido polilattico (PLA) è stato modificato per ottenere film estensibili per uso alimentare. La scelta del materiale si è basata sull’analisi del suo ciclo di vita e perch è riconosciuto come sicuro per l’utilizzo nel campo alimentare. Le formulazioni testate, a base di PLA, sono state preparate con l’aggiunta di una serie di additivi utilizzati per migliorare le proprietà meccaniche del materiale. La lavorazione è stata eseguita mediante estrusione, ottenendo dei pellet a composizione omogenea successivamente lavorati nell’estrusore a bolla, modalità industriale di produzione dei film estensibili. È stata poi effettuata la sintesi diretta di nuovi poliesteri insaturi a base di dimetil succinato e 1,6-esandiolo. L’insaturazione della catena è stata ottenuta mediante l’uso, durante la sintesi, di derivati dell’olio di ricino, l’acido ricinoleico e il suo derivato insaturo metil undecenoato. Un’altra molecola insatura utilizzata è stata il citronellolo, scelto tra i terpeni. I polimeri così ottenuti sono stati modificati tramite reazioni radicaliche indotte con radiazioni UV utilizzando sostanze antibatteriche (sale 3-esadecil-1-vinilimidazolo bromuro) al fine di ottenere materiali con attività biocida a lungo termine e senza rilascio. Si è proceduto inoltre alla polimerizzazione reversibile di monomeri furanici con oli vegetali utilizzando una strategia di tipo double click. Si è partiti dalla sintesi di monomeri derivanti da oli vegetali contenenti eterocicli furanici attaccati mediante addizione tiol-enica (prima reazione click chemistry) e si è proseguito con la loro successiva polimerizzazione attraverso una reazione di tipo Diels-Alder con molecole con gruppi maleimmidici (seconda reazione click chemistry). I polimeri così ottenuti sono materiali potenzialmente auto-riparanti, grazie alla possibilità di spostare l’equilibrio verso i prodotti o i reagenti semplicemente variando le condizioni di temperatura.
Resumo:
Le caratteristiche del 99mTc e la possibilità per gli ospedali di produrlo in loco quotidianamente grazie ai generatori, hanno reso questo radioisotopo il più utilizzato della fisica medica: è richiesto in circa l’80% delle procedure di medicina nucleare con circa 7 milioni di somministrazioni all’anno in Europa e 8 milioni negli USA. Inoltre il campo di applicabilità del 99mTc è molto vasto: viene infatti utilizzato per scintigrafie ossee, epatiche, renali, celebrali, tiroidee e per il controllo della funzionalità epatica. A causa del notevole incremento dell’insorgenza di patologie oncologiche e dell’aumento della popolazione, la richiesta di 99mTc è sempre cresciuta negli anni ed è ancora destinata a crescere nei prossimi; l’unico fattore attenuante è lo sviluppo di altre tecniche di diagnostica funzionale come la PET ( Positron Emission Tomography ). Nonostante la creazione del 99mTc da generatori di 99Mo sia ancora oggi il metodo di produzione più efficiente, si sta ponendo recentemente la necessità di ricercare nuove tecniche di produzione dell’isotopo per soddisfare le grandi quantità richieste dal mercato globale. Questo accade perch malgrado l’utilizzo del 99mTc sia in forte crescita, la produzione di 99Mo è destinata a diminuire in quanto necessita di reattori nucleari: gli ingenti costi delle moderne centrali e le elevate quantità di scorie prodotte, stanno guidando la politica mondiale verso una denuclearizzazione che renderà in pochi anni impossibile soddisfare la richiesta di 99Mo della medicina nucleare. Questo lavoro di tesi si colloca in questo contesto, cioè nella ricerca di un metodo alternativo per la produzione di 99mTc: l’irraggiamento con protoni di un target di 100Mo arricchito, in un ciclotrone ad uso medicale. L’obbiettivo che si vuole raggiungere è fornire una stima attendibile su tale produzione, valutare la qualità dell’isotopo e mettere in luce eventuali problematiche riscontrabili.
Resumo:
Questa tesi descrive lo sviluppo di un elettrodo modificato con un polimero isolante per la determinazione indiretta del radicale OH. I polimeri testati sono stati polifenolo, polipirrolo e polipirrolo sovraoossidato ed il primo è risultato quello con le migliori prestazioni. Il film di modificante è stato depositato per elettropolimerizzazione del fenolo in ambiente acido, su un elettrodo di carbone vetroso (GC) ed è risultato isolante e perfettamente adeso al GC, impedendo il trasferimento di carica alle più comuni sonde redox. L’attacco dei radicali OH, generati dalla reazione di Fenton o dalla fotolisi di H2O2, rimuove parzialmente il polimero dal GC, ripristinando parzialmente il comportamento conduttore dell’elettrodo. L’entità della degradazione del film polifenolico è stata valutata sfruttando la corrente relativa alla sonda redox Ru(NH3)63+, che rappresenta il segnale analitico per la determinazione del radicale OH. L’elettrodo è stato impiegato per stimare le prestazioni di foto catalizzatori a base di nanoparticelle di TiO2, ottenendo risultati correlati a quelli ricavati da un metodo HPLC. Inoltre esso è stato usato per sviluppare una nuova procedura per la determinazione della capacità di scavenging verso i radicali OH, che è stata applicata all’analisi di composti puri e campioni reali. I risultati erano confrontabili con quelli determinati con metodiche standardizzate, comunemente impiegate per la determinazione della capacità antiossidante. Inoltre è stato condotto uno studio riguardante la modifica di un elettrodo di platino con un idrossido misto a strati a base di cobalto e alluminio (LDH). In particolare si sono valutati gli effetti di diversi pretrattamenti del Pt sulle caratteristiche e prestazioni elettrocatalitiche del film di LDH nei confronti dell’ossidazione di anilina, fenolo e acido salicilico. Questi composti possono essere impiegati come molecole sonda per la determinazione del radicale OH e rivestono interesse da un punto di vista elettroanalitico perch portano facilmente alla passivazione della superficie di Pt.
Resumo:
ABSTRACT One of the major ecological challenges on Lake Victoria resources is the existence of “hot spots”, caused by human waste, urban runoff, and industrial effluents. The lake is tending towards eutrophication which is attributed to the increasing human population in its watershed. A report of the levels of perfluorooctane sulfonate and perfluorooctanoic acid in environmental matrices of Lake Victoria is presented, and the management implication of perfluorinated compounds and similar potential organic pollutants examined. Two widely consumed and economically important fish species namely Lates niloticus (Nile perch) and Oreochromis niloticus (Nile tilapia) were obtained from Winam gulf of Lake Victoria, Kenya, and analysed for perfluorooctane sulfonate and perfluorooctanoic acid in muscles and liver using liquid chromatography coupled with mass spectroscopy. Variability in the concentrations of perfluorooctanoic acid or perfluorooctane sulfonate in river waters (range perfluorooctanoic acid 0.4 – 96.4 ng/L and perfluorooctane sulfonate < 0.4 – 13.2 ng/L) was higher than for Lake waters (range perfluorooctanoic acid 0.4 – 11.7 ng/L and perfluorooctane sulfonate < 0.4 – 2.5 ng/L respectively). Significant correlations were tested between perfluorinated compounds levels in sediments, fish and water. Wastewater treatment plants and other anthropogenic sources have been identified as significant sources or pathways for the introduction of perfluoroalkyl compounds into Lake Victoria ecosystem. In this study, elevated concentrations of perfluorooctanoic acid and perfluorooctane sulfonate was found in two wastewater treatment plants (WWTPs) in Kisumu, City of Kenya. An alternative analytical method to liquid chromatography/ mass spectroscopy for analysis of perfluorocarboxylic acids in abiotic and biotic matrices where high concentrations are expected is also presented. Derivatisation of the acid group to form a suitable alkyl ester provided a suitable compound for mass spectroscopy detection coupled to gas chromatography instrumental analysis. The acid is esterified by an alkyl halide i.e benzyl bromide as the alkylating agent for Perfluorocarboxylic acids quantification. The study also involved degradability measurements of emerging perfluorinated surfactants substitutes. The stability of the substitutes of perfluorinated surfactants was tested by employing advanced oxidation processes, followed by conventional tests, among them an automated method based on the manometric respirometry test and standardized fix bed bioreactor [FBBR] on perfluorobutane sulfonate (PFBS), a fluoroethylene polymer, fluorosurfactant (Zonyl), two fluoraliphaticesters (NOVEC ™ FC4430 and NOVEC ™ FC4432) and 10-(trifluoromethoxy) decane-sulfonate. Most of these emmerging surfactants are well-established in the market and have been used in several applications as alternatives to PFOS and PFOA based surfactants. The results of this study can be used as pioneer information for further studies on the sources, behaviour and fate of PFOA and PFOS and other related compounds in both abiotic and biota compartments of Lake Victoria and other lakes. Further an overview in degradation of emerging perfluorinated compounds substitutes is presented. Contribution in method development especially for acid group based fluorosurfactants is presented. The data obtained in this study can particularly be considered when formulating policies and management measures for preservation and sustainability of Lake Victoria resources.
Resumo:
Background: studi in letteratura mostrano come l'accelerometria stia diventando una pratica clinica (e non solo) molto utile sia in ambito diagnostico sia riabilitativo; molti di essi sfruttano i dati provenienti da più sensori inerziali posti su un soggetto e ne ricavano l'andamento accelerometrico dei vari segmenti corporei durante il movimento in esame. Obiettivo: caratterizzare il cammino di soggetti sani ed osservare quello di alcuni casi patologici, parametrizzando l'accelerazione Antero-Posteriore. Gli indici sono: il Range dell'accelerazione, la Simmetria sulle accelerazioni e sugli intervalli di tempo tra un appoggio al suolo ed il successivo, la Simmetria nel dominio delle frequenze. Strumenti e Metodi: 10 volontari clinicamente sani hanno svolto 5 prove a velocità Spontanea, Lenta e Lentissima con il sensore inerziale G-Walk (BTS Milano) all'altezza di L5. I dati, acquisiti mediante il software G-Studio, sono stati elaborati grazie a Matlab. Risultati: è definita una fascia di normalità per ogni velocità. Conclusioni: le differenze tra il cammino sano e quello patologico si manifestano nelle grandezze di Range ed Indice di Simmetria sulle accelerazioni. I due parametri che misurano la simmetria nel dominio dei tempi ed in quello delle frequenze sono invece sostanzialmente simili. Tale distinzione è importante in medicina, perch permette di definire le cause di deficit motorio, il percorso chirurgico/riabilitativo da effettuare e l'entità del recupero funzionale.
Resumo:
Il presente elaborato ha lo scopo di analizzare lo stato attuale dell'accumulo dell'energia applicato al caso dell'energia eolica. Dopo una introduzione in cui viene presentato il perch della necessità di garantire sistemi di accumulo dell'energia e quali sono i relativi vantaggi, viene proposto un caso studio di un impianto eolico tipico: partendo dalla potenzialità produttiva dell'impianto e dal tipo di funzione che il sistema di accumulo deve svolgere si passa alla scelta e dimensionamento del sistema più adatto.
Resumo:
In questo lavoro di tesi è stato elaborato un modello analitico al fine di ottenere una stima dell’ampiezza di delaminazione a seguito di impatti a bassa velocità in laminati in composito, in particolare carbon/epoxy. Nel capitolo 2 è descritto il comportamento meccanico di tali laminati (equazioni costitutive della singola lamina, dell’intero laminato e costanti ingegneristiche dell’intero laminato per qualsiasi sistema di riferimento). Nel capitolo 3 viene descritta la filosofia di progettazione damage tolerance per tali materiali sottoposti a low-velocity impact (LVI) e richiamato il concetto di structural health monitoring. In particolare vengono descritti i tipi di difetti per un laminato in composito, vengono classificati gli impatti trasversali e si rivolge particolare attenzione agli impatti a bassa velocità. Nel paragrafo 3.4 sono invece elencate diverse tecniche di ispezione, distruttive e non, con particolare attenzione alla loro applicazione ai laminati in composito. Nel capitolo 4 è riportato lo stato dell’arte per la stima e la predizione dei danni dovuti a LVI nei laminati: vengono mostrate alcune tecniche che permettono di stimare accuratamente l’inizio del danno, la profondità dell’indentazione, la rottura delle fibre di rinforzo e la forza massima di impatto. L’estensione della delaminazione invece, è difficile da stimare a causa dei numerosi fattori che influenzano la risposta agli impatti: spesso vengono utilizzati, per tale stima, modelli numerici piuttosto dispendiosi in termini di tempo e di calcolo computazionale. Nel capitolo 5 viene quindi mostrata una prima formula analitica per il calcolo della delaminazione, risultata però inaffidabile perch tiene conto di un numero decisamente ristretto di fattori che influenzano il comportamento agli LVI. Nel capitolo 6 è mostrato un secondo metodo analitico in grado di calcolare l’ampiezza di delaminazione mediante un continuo aggiornamento della deflessione del laminato. Dal confronto con numerose prove sperimentali, sembra che il modello fornisca risultati vicini al comportamento reale. Il modello è inoltre fortemente sensibile al valore della G_IIc relativa alla resina, alle dimensioni del laminato e alle condizioni di vincolo. É invece poco sensibile alle variazioni delle costanti ingegneristiche e alla sequenza delle lamine che costituiscono il laminato. La differenza tra i risultati sperimentali e i risultati del modello analitico è influenzata da molteplici fattori, tra cui il più significativo sembra essere il valore della rigidezza flessionale, assunto costante dal modello.
Implementazione di un modulatore sigma-delta digitale per la sintesi di segnali pwm ad alta fedelta.
Resumo:
La modulazione a durata d'impulso (PWM) è utilizzata soprattutto perch permette di ottenere alta efficenza energetica. In ambito accademico è stato proposto un modulatore PWM che sfrutta la tecnica di noise shaping, Sigma Delta, per avere elevata fedeltà. Il lavoro di questa tesi è stato l'implementazione su FPGA del modulatore Sigma DeltaDigitale utilizzato: quarto ordine, con quantizzatore a 4 bit e SNR in banda di 60 dB. Il dimensionamento è stato fatto determinando l'effetto che la lunghezza delle parole dei segnali ha sul rumore prodotto dal sistema. Questo studio è stato svolto con analisi euristiche ed algoritmi di ricerca implementati in ambiente MATLAB. Lo studio fatto è di carattere generale ed estendibile a generiche architetture Sigma Delta.
Resumo:
L’applicazione della citogenetica convenzionale e molecolare può identificare: Ph-negatività, traslocazioni t(9;22) varianti e alterazioni citogenetiche addizionali (ACA) al cromsoma Ph in pazienti con LMC alla diagnosi. Prima dell’introduzione della terapia con Imatinib, esse mostravano un impatto prognostico negativo o non chiaro. Nel nostro studio, 6 casi di LMC Ph- erano trattati con Imatinib. La FISH identificava 4 casi con riarrangiamento BCR/ABL sul der(9q), 1 sul der(22q) e 1 su entrambi i derivativi. Quattro pazienti (66,7%) raggiungevano la RCgC, 2 fallivano il trattamento e 1 sottoposto a TMO. A causa dello scarso numero di casi, non era possibile nessuna correlazione con la prognosi. Nell’ambito di studi prospettici multicentrici del GIMEMA-WP, abbiamo valutato: traslocazioni varianti e ACA. Dei 559 pazienti arruolati, 30(5%) mostravano traslocazioni varianti, 24 valutabili in FISH: 18(75%) mostravano meccanismo 1-step, 4(16,7%) meccanismo 2-step e 2(8,3%) meccanismo complesso. Abbiamo confermato che le varianti non influenzano la risposta e la sopravvivenza dei pazienti trattati con Imatinib. Dei 378 pazienti valutabili alla diagnosi con citogenetica convenzionale, 21(5,6%) mostravano ACA: 9(43%) avevano la perdita del cromosoma Y, 3(14%) trisomia 8, 2(10%) trisomia 19, 6(28%) altre singole anomalie e 1 cariotipo complesso. La presenza di ACA influenzava la risposta: le RCgC e RMolM erano significativamente più basse rispetto al gruppo senza ACA e le curve di sopravvivenza EFS e FFS non erano significativamente diverse. Le curve di PFS e OS erano sovrapponibili nei due gruppi, per il basso numero di eventi avversi oppure perch alcuni raggiungevano la risposta con TKI di seconda generazione. Le anomalie “major route” mostravano decorso clinico peggiore, ma non è stato possibile determinare l’impatto prognostico in relazione al tipo di alterazione. Pertanto, le ACAs alla diagnosi rivestono un ruolo negativo nella prognosi dei pazienti trattati con Imatinib, che quindi rappresentano una categoria più a rischio per la risposta.
Resumo:
Attualmente Usme, caratterizzata come visto da un territorio principalmente a bassa densità, è ancora fortemente relazionata con la campagna perch costituita dall’insieme di aree agricole, o di quelli che una volta erano spazi coltivati più prossimi alla città compatta. Questo tipo di paesaggio rurale che caratterizza Usme è caratterizzato come già visto da un tessuto sfrangiato e discretizzato e rappresenta la porzione di territorio dove la città esercita l’impatto ambientale più intenso dovuto sia alla sua immediata vicinanza al contesto urbano che al carattere di scarsa identità che sembra esprimere. Qualunque intervento architettonico in un territorio di margine come quello di Usme dovrebbe confrontarsi con un sistema di relazioni a grande scala, che si rapporti con la geografia stessa del luoghi e con un orientamento e una misurazione visiva e fisica del territorio stesso. Allo stesso modo è necessario che il progetto comprenda anche il suolo stesso delle grande aree attualmente lasciate libere, ovvero che il progetto architettonico si integri con il progetto paesaggistico creando in questo modo nuove relazioni e nuove geometrie nell’assetto territoriale. In questo senso il progetto può dialogare con il territorio e mettere in relazione differenti situazioni morfologiche, sfruttandone le potenzialità. L’obiettivo è quindi quello di non costruire semplici volumi appoggiati sulla terra ma quello di modificare la terra stessa, entrando in relazione con essa in modo profondo. Il progetto così inteso è concepito, e prima ancora letto, secondo strati, i quali possono contaminarsi o possono semplicemente sovrapporsi. L’area di progetto, come già detto, è essenzialmente all’interno di un vuoto presente tra le due parti di città. Il nuovo edificio si conforma come un segno netto nel territorio, un viadotto, un tronco d’albero caduto che protegge il parco dalla città, un elemento primordiale che da una parte si incunea nel terreno e dall’altra si affaccia sulla valle. Vuole essere il segno di un naturale artificio, proponendosi al tempo stesso come simbolo e funzione. Il museo emerge dalla terra, ma sembra anche immergersi in essa. L’architettura del museo crea un nuovo paesaggio morfologicamente radicato al suolo, attraverso uno spazio parzialmente ipogeo che integra il museo all’interno della montagna attraverso la copertura continua con la topografia esistente, sottolineando il profilo della collina.
Resumo:
L’acceleratore di protoni e ioni pesanti LHC costruito presso i laboratori del CERN di Ginevra permette sviluppi straordinari nel campo della fisica delle particelle alle alte energie. Tra le diverse linee di ricerca attualmente operative lo studio del quark top riveste un ruolo di particolare rilevanza. Infatti, l’elevata energia accessibile alla macchina rende possibile la raccolta di campioni di elevata statistica necessari per uno studio dettagliato delle proprietà del quark top, la particella più pesante fino ad oggi nota. In particolare in questa tesi viene studiato, e confrontato con l'analisi standard, un nuovo metodo, chiamato “template overlap method”, per la selezione di quark top prodotti ad alta energia. L'obiettivo è valutare se questo nuovo metodo permetterà una migliore precisione nella misura della sezione d'urto differenziale di produzione di coppie tt nelle prossime prese dati dove l'energia nel centro di massa raggiungerà i 13 TeV. L'analisi, per ora, è stata svolta su dati montecarlo simulati per l'esperimento ATLAS ad una energia del centro di massa di 8 TeV. I risultati ottenuti sono incoraggianti perch mostrano un'alta efficienza di selezione all'aumentare dell'energia dei prodotti di decadimento del top.
Resumo:
La relazione interdisciplinare tra letteratura e fotografia, nella rilettura della storia recente del Mozambico, è l’oggetto di studio della presente tesi. Il presupposto coincide in primo luogo con la disamina interna della dialettica esistente tra archivio coloniale e oralità, modalità narrativa in parte transitata nella estória, declinazione lusofona della forma breve che permette di recuperare l’eredità popolare del racconto tradizionale. Il dialogo tra verbale e visuale consente a sua volta di stabilire nuovi paradigmi interpretativi nel dibattito postcoloniale tra memoria, trauma e rappresentazione. L’analisi comparativa tra la narrativa di João Paulo Borges Coelho e la fotografia di Ricardo Rangel rivela sguardi diversi sul mondo circostante, ma anche convergenze contemplative che si completano nell’incorporazione reciproca delle “omologie strutturali” comuni alle due modalità espressive. La fotografia colma delle lacune fornendoci delle visioni del passato, ma, in quanto “rappresentazione”, ci mostra il mondo per come appare e non per come funziona. Il testo letterario, grazie al suo approccio dialogico-narrativo, consente la rielaborazione museologica della complessa pletora di interferenze semantiche e culturali racchiuse nelle immagini, in altre parole fornisce degli “indizi di verità” da cui (ri)partire per l’elaborazione di nuovi archetipi narrativi tra l’evento rappresentato e la Storia di cui fa parte. Il punto di tangenza tra i due linguaggi è la cornice, espediente fotografico e narrativo che permette di tracciare i confini tra l’indicibile e l’invisibile, ma anche tra ciò che si narra e ciò che sta fuori dalla narrazione, ovvero fuori dalla storia. La tensione dialettica che si instaura tra questi due universi è seminale per stabilire le ragioni della specificità letteraria mozambicana perch, come afferma Luandino Vieira, “nel contesto postcoloniale gli scrittori sono dei satelliti che ruotano intorno ai «buchi neri della storia» la cui forza di attrazione permette la riorganizzazione dell’intero universo letterario.