942 resultados para fisica matematica cinematica relativa statica relativa dinamica relativa problema dei due corpi leggi di Newton
Resumo:
Il presente lavoro si riferisce ad una delle attività di monitoraggio topografico più diffuse e consolidate: il controllo altimetrico per mezzo della livellazione geometrica di precisione, finalizzato alla determinazione dei dislivelli – e della loro variazione nel tempo – tra capisaldi appositamente istituiti sulla struttura. Va ricordato infatti che in Topografia non è possibile determinare direttamente la quota assoluta di un punto, ma solamente il dislivello, ossia la differenza di quota fra punti della superficie fisica. Il caso di studio si riferisce nello specifico ad un oggetto di grandissimo interesse: le Due Torri di Bologna. La Torre degli Asinelli e la Torre Garisenda di Bologna sono infatti soggette da lungo tempo ad una attività di monitoraggio altimetrico con la tecnica della livellazione geometrica di precisione, oggi realizzata con strumentazione digitale. L’attività viene condotta dall’area di Geomatica del Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei Materiali (DICAM) dell’Università di Bologna in collaborazione con il Comune di Bologna. Scopo della tesi è illustrare gli aspetti teorici alla base della tecnica della livellazione geometrica e le operazioni che sono state eseguite sul campo ed in laboratorio, in affiancamento a quanto effettuato dal DICAM con il coordinamento del Prof. G. Bitelli. Nel Capitolo 1 viene descritta la metodologia di rilevamento mediante livellazione geometrica di precisione e la tecnica di elaborazione dei dati tramite la compensazione per osservazioni indirette secondo il principio dei minimi quadrati. Nel Capitolo 2 viene presentato il caso di studio e descritto il rilievo che è stato effettuato durante il periodo della tesi. Vengono illustrate le fasi operative sul campo e la successiva fase di predisposizione dei dati per la compensazione. Infine si illustra l’elaborazione numerica realizzata per la determinazione delle quote nel sistema di riferimento locale utilizzato.
Resumo:
In questo lavoro verra presentata la realizzazione e la caratterizzazione di transistor organici basati su un polimero conduttore, il poli(3,4-etilenediossitiofene) polistirene sulfonato, o PEDOT:PSS. Tali transistor rientrano nella categoria degli OECT o transistor elettrochimici organici e hanno la capacita di poter rilevare ed analizzare sostanze chimiche di diverso genere presenti in soluzione. I dispositivi implementati in questa tesi sono stati ottenuti tramite la deposizione del materiale organico conduttivo su substrato tessile al fine di creare un device completamente integrabile in un capo di abbigliamento o in un qualsiasi utilizzo in campo tessile. In particolare questi transistor sono stati studiati per la rilevazione di sostanze quali acido ascorbico, dopamina e adrenalina. Gli ultimi due analiti sono di importanza particolare poiche facenti parte della famiglia dei neurotrasmettitori. Inoltre in questa tesi sono stati creati fili di cotone conduttivi, sempre tramite l'utilizzo di PEDOT:PSS. Tali fili infatti sono risultati ottimi candidati per il trasporto di un segnale elettrico e per questo sono stati implementati nella costruzione di un OECT. La realizzazione dei fili conduttivi potra permettere un ulteriore avanzamento nella completa integrabilita dell'elettronica con il settore tessile. Una peculiarita aggiuntiva di questo lavoro e stata quella di utilizzare il sudore artificiale come elettrolita, oltre al normale PBS che costituisce ormai uno standard in questo tipo di ricerche. L'utilizzo del sudore artificiale rientra nell'ottica futura di un utilizzo di questi sensori come rilevatori di sostanze chimiche emesse dal corpo umano sfruttabili diversi ambiti, ovvero dall'attivita sportiva alla prevenzione, in ambito medico, di diverse malattie.
Resumo:
La tecnica olografica venne introdotta nel 1948 da Denis Gabor. Creò la parola holography combinando tra loro le parole greche holos, che vuol dire tutto, e graphein, che invece vuol dire scrivere. Con il termine olografia si intende le registrazione e la ricostruzione dell'ampiezza e della fase di un'onda. La prima si ricava dalle informazioni contenute nell'intensità delle frange luminose che costituiscono l'immagine di diffrazione, mentre la seconda si ottiene dalla distanza delle stesse. L'immagine di diffrazione non è altro che il prodotto dell'interferenza tra l'onda oggetto e l'onda di riferimento, che viene registrato solitamente su una lastra olografica o una pellicola, che si presenta come un susseguirsi di frange chiare e scure molto sottili, tanto da non essere visibili a occhio nudo a causa delle alte frequenze spaziali. Questa immagine riproduce l'oggetto se illuminato con un fascio luminoso simile all'onda di riferimento. Negli anni a seguire si sviluppò molto velocemente la tecnologia alla base dei computer che permise di trasferire sia il processo di registrazione che quello di ricostruzione su tali dispositivi. Un passo avanti venne fatto con l’introduzione dei Charged Coupled Devices (CCD) nella registrazione diretta di ologrammi, ad opera di Schnars e Juptner, con i quali venne eliminato definitivamente ogni tipo di passaggio fotografico intermedio. L'intero procedimento numerico di registrazione e ricostruzione venne riconosciuto in seguito come Olografia Digitale, e i suoi vantaggi rispetto all'olografia ottica erano ben chiari e ne permisero un largo impiego: dall'interferometria alla shearografia alla fotografia speckle. Questa tesi ha l'obiettivo di mostrare un'applicazione dell'olografia ottica e di infine tentare un primo approccio all'olografia digitale per mezzo di acquisizioni di figure di diffrazione attraverso un CCD e di simulazioni di generazione e ricostruzione di ologrammi su dispositivi elettronici.
Resumo:
In questo lavoro di tesi è presentato un metodo per lo studio della compartimentalizzazione dell’acqua in cellule biologiche, mediante lo studio dell’autodiffusione delle molecole d’acqua tramite uno strumento NMR single-sided. Le misure sono state eseguite nel laboratorio NMR all’interno del DIFA di Bologna. Sono stati misurati i coefficienti di autodiffusione di tre campioni in condizione bulk, ottenendo risultati consistenti con la letteratura. È stato poi analizzato un sistema cellulare modello, Saccharomyces cerevisiae, allo stato solido, ottimizzando le procedure per l’ottenimento di mappe di correlazione 2D, aventi come assi il coefficiente di autodiffusione D e il tempo di rilassamento trasversale T2. In questo sistema l’acqua è confinata e l’autodiffusione è ristretta dalle pareti cellulari, si parla quindi di coefficiente di autodiffusione apparente, Dapp. Mediante le mappe sono state individuate due famiglie di nuclei 1H. Il campione è stato poi analizzato in diluizione in acqua distillata, confermando la separazione del segnale in due distinte famiglie. L’utilizzo di un composto chelato, il CuEDTA, ha permesso di affermare che la famiglia con il Dapp maggiore corrisponde all’acqua esterna alle cellule. L’analisi dei dati ottenuti sulle due famiglie al variare del tempo lasciato alle molecole d’acqua per la diffusione hanno portato alla stima del raggio dei due compartimenti: r=2.3±0.2µm per l’acqua extracellulare, r=0.9±0.1µm per quella intracellulare, che è probabilmente acqua scambiata tra gli organelli e il citoplasma. L’incertezza associata a tali stime tiene conto soltanto dell’errore nel calcolo dei parametri liberi del fit dei dati, è pertanto una sottostima, dovuta alle approssimazioni connesse all’utilizzo di equazioni valide per un sistema poroso costituito da pori sferici connessi non permeabili. Gli ordini di grandezza dei raggi calcolati sono invece consistenti con quelli osservabili dalle immagini ottenute con il microscopio ottico.
Resumo:
In questo lavoro di tesi ci proponiamo di determinare lo spessore degli isotopi ^157Gd e ^155Gd in vista della misura della sezione d’urto di cattura neutronica presso la facility n_TOF del CERN. La principale motivazione dell’esperimento è legata alla necessità di ottenere misure più accurate per le applicazioni ai reattori nucleari. Inoltre, i nuovi risultati, potranno essere sfruttati anche per applicazioni ai recenti sviluppi nella Terapia di Cattura Neutronica e per costruire nuovi rivelatori nell’ambito della ricerca del neutrino. La misura sarà effettuata nella prima area sperimentale EAR-1 di n_TOF, equipaggiata con rivelatori, come per esempio gli scintillatori liquidi al benzene deuterato (C6 D6) particolarmente adatti per questi tipi di misura. La sezione d’urto di questi due isotopi cambia di molti ordini di grandezza al variare dell’energia dei neutroni incidenti. Per questo motivo, lo studio effettuato in questa tesi ha mostrato che sono necessari due campioni altamente arricchiti per ogni isotopo da misurare: un campione estremamente sottile per energie del neutrone fino a 100 meV, e uno più spesso per energie maggiori. Inoltre per questi campioni sono stati determinati le densità areali necessarie per lo svolgimento dell’esperimento affinchè avvenga il fenomeno di trasmissione dei neutroni.
Resumo:
La realtà virtuale è un campo in continua crescita e in costante studio, in particolare nell'applicazione nel campo del gaming e nella formazione. In questa tesi sono stati confrontati e testati due visori per la realtà virtuale di tipo immersivo: OSVR e Oculus Rift DK2. Per il confronto dei due dispositivi sono stati creati su Blender due modelli: una rappresentazione tridimensionale di Times Square molto realistica (sfruttando Google Street View per la visualizzazione degli edifici e dei banner pubblicitari) e un circuito di Go Kart stile cartoon. Successivamente alla creazione di questi, è stato utilizzato il motore grafico Unity per l'aggiunta della dinamica dei componenti dei visori e il completamento dei due progetti, per esempio l'utilizzo degli script per il movimento del go kart. Tramite lo strumento Profiler e il Frame Debugger di Unity sono stati eseguiti i test sulle performance e sono state svolte le considerazioni finali sui visori. I risultati ottenuti possono essere d'aiuto per uno studio successivo sulla realtà virtuale immersiva ed essere una base di partenza per le migliorie da adottare con lo scopo di ottenere migliori prestazioni ed una maggiore interattività con l'utente.
Resumo:
L'identificazione di un blazar è molto difficile, questo è un oggetto molto particolare e che ha un'attività molto ricca. Nella pratica l'identificazione di un blazar avviene confrontando la sua emissione in banda radio con la sua emissione in banda gamma, che sono entrambe proprie dei blazar. Il problema è che non si dispone di un telescopio in grado di rivelare con estrema precisione entrambe le bande, quindi si procede utilizzando i dati radio provenienti da un dato radiotelescopio e i dati in banda gamma provenienti da un altro telescopio. Quando le emissioni nelle due bande presentano, ad esempio, una variabilità simultanea, l'identificazione è certa. Ma questa minoranza di casi non è molto frequente e quindi spesso si procede con un'analisi probabilistica basata sulle posizioni delle sorgenti. Il lancio di Fermi nel 2008 ha portato ad un fortissimo aumento del numero di sorgenti gamma note e, fra queste, la maggior parte sono blazar. Una significativa frazione di queste sorgenti Fermi (circa il 30%) rimane non identificata. In questo lavoro vengono inizialmente caratterizzate le proprietà radio dei blazar e in particolare dei blazar gamma noti finora. In seguito verrà approfondita l'analisi delle sorgenti Fermi non identificate per stabilire una possibile compatibilità con le proprietà dei blazar e quindi per cercare di capire se queste sorgenti possano essere a loro volta dei blazar non ancora riconosciuti.
Resumo:
Il lavoro di questa tesi si propone di esaminare i dati di immagini cerebrali ricevuti da due differentii bobine RF per l'imaging in risonanza magnetica. La strumentazione utilizzata é: un apparecchio di RMN che utilizza uno scanner a 1.5T (GE Medical System signa HDx 15) e due differenti bobine a radiofrequenza: 1) 8-channel brain phased array coil GE (1.5T HD 8 Channel High Resolution Head Array per il GE HDx MR System); 2) GE Quad HEAD Birdcage Coil. I software utilizzati invece sono stati quattro, due per la segmentazione e la parcellizzazione dei dati dalle acquisizioni di MRI (FSL e Freesurfer), e due per l'analisi dei dati (SPSS e Microsoft Excel). I tool utilizzati di FSL sono stati SIENA, per un'indagine sulla variazione percentile della totalitá del volume cerebrale; SIENAX invece permette una segmentazione di volumi di 6 sotto regioni: sostanza grigia (GREY), sostanza bianca (WHITE), totalitá del cervello (BRAIN), liquor cerebrospinale dei ventricoli (vcsf), scaling volumetrico (vscaling), sostanza grigia periferica (pgrey). Freesurfer invece parcellizza la corteccia cerebrale e segmenta le zone della sostanza grigia profonda cerebrale. Lo scopo ultimo era quello di analizzare come la differenza di segnale acquisito dalle due bobine variasse i risultati delle analisi volumetriche delle immagini e vedere se il t-test evidenziasse variazioni sistematiche. Questa analisi aveva come scopo quello di determinare la possibilità di confrontare i soggetti i cui dati sono stati ottenuti con due bobine differenti. I dati analizzati non hanno evidenziato particolari differenze tra le due bobine, se non per i valori del liquor dei ventricoli che sono risultati variare, verosimilmente, per i processi fisiologici di atrofia della sostanza grigia cerebrale che avvengono nel tempo intercorso tra un'acquisizione e l'altra.
Resumo:
Lo scopo della tesi è di illustrare le principali tecniche spettroscopiche per l'indagine della materia mediante l'uso dei neutroni come sonda, con particolare attenzione rivolta alla diffusione anelastica su campioni monocristallini. Nel testo vengono esposti i processi di produzione dei neutroni tramite spallazione, fissione e fusione nucleare, e si descrive il reattore nucleare dell'Institut Laue-Langevin (ILL) di Grenoble. Inoltre, viene presentato uno studio della curva di dispersione dei modi vibrazionali acustici di un campione monocristallino di β-stagno a temperatura ambiente, effettuato presso l'ILL tramite un diffrattometro a triplo-asse. I risultati sono confrontati con i modelli teorici disponibili (S. H. Chen) e con dati sperimentali noti (J. M. Rowe).
Resumo:
L’interazione spin-orbita (SOI) nel grafene è attualmente oggetto di intensa ricerca grazie alla recente scoperta di una nuova classe di materiali chiamati isolanti topologici. Questi materiali, la cui esistenza è strettamente legata alla presenza di una forte SOI, sono caratterizzati dall’interessante proprietà di avere un bulk isolante ed allo stesso tempo superfici conduttrici. La scoperta teorica degli isolanti topologici la si deve ad un lavoro nato con l’intento di studiare l’influenza dell’interazione spin-orbita sulle proprietà del grafene. Poichè questa interazione nel grafene è però intrinsecamente troppo piccola, non è mai stato possibile effettuare verifiche sperimentali. Per questa ragione, vari lavori di ricerca hanno recentemente proposto tecniche volte ad aumentare questa interazione. Sebbene alcuni di questi studi abbiano mostrato un effettivo aumento dell’interazione spin-orbita rispetto al piccolo valore intrinseco, sfortunatamente hanno anche evidenziato una consistente riduzione della qualità del grafene. L’obbiettivo che ci si pone in questa tesi è di determinare se sia possibile aumentare l’interazione spin-orbita nel grafene preservandone allo stesso tempo le qualità. La soluzione proposta in questo lavoro si basa sull’utilizzo di due materiali semiconduttori, diselenio di tungsteno WSe2 e solfuro di molibdeno MoS2, utilizzati da substrato su cui sopra verrà posizionato il grafene formando così un’eterostruttura -nota anche di “van der Waal” (vdW)-. Il motivo di questa scelta è dovuto al fatto che questi materiali, appartenenti alla famiglia dei metalli di transizione dicalcogenuri (TMDS), mostrano una struttura reticolare simile a quella del grafene, rendendoli ideali per formare eterostrutture e ancora più importante, presentano una SOI estremamente grande. Sostanzialmente l’idea è quindi di sfruttare questa grande interazione spin-orbita del substrato per indurla nel grafene aumentandone così il suo piccolo valore intrinseco.
Resumo:
La validità della legge di gravitazione di Newton, o ISL (dall'inglese inverse square law) è stata ampiamente dimostrata dalle osservazioni astronomiche nel sistema solare (raggio d'azione di circa 10^{7}- 10^{9} km). Gli esperimenti effettuati su scale geologiche (raggio d'azione tra cm e km), eredi dell'esperimento di Cavendish, sono stati capaci di fornire un valore sperimentale della costante G della ISL affetto però da un'incertezza consistente (la precisione con cui si conosce G è dell'ordine di grandezza di 10^{-4}). L'interesse nella determinazione di un valore più preciso della costante G è aumentato negli ultimi decenni, supportato dalla necessità di mettere alla prova nuove teorie di gravitazione non Newtoniane emergenti, e da un avanzamento tecnologico negli apparati di misura, che sono ora in grado di rilevare l'interazione gravitazionale anche su distanze molto brevi (al di sotto del mm). In questo elaborato vengono brevemente presentate alcune delle teorie avanzate negli ultimi decenni che hanno reso urgente la riduzione dell'incertezza sulla misura di G, elencando successivamente alcuni importanti esperimenti condotti per la determinazione di un valore di G ripercorrendone brevemente i metodi sperimentali seguiti. Tra gli esperimenti presentati, sono infine analizzati nel dettaglio due esperimenti significativi: La misura della costante gravitazionale effettuata a corto raggio con l'utilizzo di atomi freddi nell'ambito dell'esperimento MAGIA a Firenze, e l'osservazione della presunta variazione di G su scale temporali relativamente lunghe, effettuata mediante l'osservazione (della durata di 21 anni)della pulsar binaria PSR J1713+0747.
Resumo:
La tesis está centrada en el patrimonio industrial, y trata de ahondar en los temas enunciados en el título, Criterios de restauración, intervención y revitalización del patrimonio industrial (capítulo 1). La fábrica de gas de San Paolo en Roma (capítulo 2): En el primer capítulo, se profundiza en los criterios institucionalizados de actuación en el patrimonio, pero también se habla sobre la singularidad, los valores originales, estratificados en cada construcción y su contexto. Ello resume la intención de la doctoranda al entender la necesidad del análisis de cada obra en modo profundo, concreto y abierto a novedosos acercamientos, antes de su transformación. Al hablar de intervención frente a restauración, se aborda la conocida polémica que plantea el modo de acercarse al legado histórico. Parece necesario enunciar cómo se consideran en el trabajo estos términos. Mientras la restauración (como diría Cesare Brandi, constituye el momento metodológico del reconocimiento de la obra de arte en su consistencia física y en su doble polaridad estética e histórica, en orden a su transmisión al futuro) es una acción más restrictiva, que implica atención suma a la recuperación y conservación de los valores significativos y únicos del bien, en comunicación con un (posible) equipo interdisciplinar; por intervención se entiende aquí un desarrollo más personal y libre por parte del proyectista, en el que se produce un proceso dialéctico entre la preexistencia y el posicionamiento crítico adoptado a la hora de dar un obligado nuevo uso a ese bien. Es decir, el contraste está en el diferente reconocimiento de la materialidad física y sus significados. En torno a la restauración/intervención, se analizan las perspectivas de actuación en España e Italia, contrastando factores como la formación del arquitecto o el entorno laboral-cultural, y utilizando el método analítico comparativo de casos. Habría un tercer concepto: el de revitalización del patrimonio industrial, Éste hace referencia a su transformación, a sus usos más comunes y compatibles, a la redimensión artística que ha experimentado la arquitectura industrial gracias al arte contemporáneo y a su relación con la Modernidad. Por último, se enuncia en el título el caso de estudio, la Fábrica, que ocupa el segundo capítulo. Se trata de un enorme conjunto industrial singular semi abandonado en el confín del centro histórico, cuyo protagonista es un gran gasómetro, que la autora ha tenido la oportunidad de descubrir en su estancia en la Ciudad Eterna. Este barrio constituyó el primer y único sector industrial de la Roma moderna a inicios del siglo XX. Por varias causas históricas y voluntad política, la ciudad prácticamente no tuvo más desarrollo industrial que el área mencionada, donde se implantaron servicios y actividades de gran transformación (Matadero, Mercados Generales, Almacenes Fluviales, Central Montemartini o esta fábrica). A partir de 1920, se empezó a construir un tejido productivo que la llevó de la situación de posguerra al milagro económico. Frente al mito de la Roma monumental o de la Roma cotidiana, aparece el aspecto industrial como mito de la contemporaneidad. Sin embargo, esta ciudad es demasiado antigua como para convertirse en moderna, y su proceso industrial en contraste con su larga historia resulta breve. La inmediata relación de la fase industrial romana con el resultado de este desarrollo viene identificada con las instalaciones señaladas, más significativas por su excepcionalidad que por la duración del momento irrepetible que representan. Su presencia física perdura a pesar de su abandono, aisladas tras su muro perimetral y casi desconocidas. Esto las hace apetecibles para la especulación inmobiliaria y resultan un caso de estudio ideal para realizar un Plan de Intervención Global, en el que determinar una serie de intervenciones necesarias, usos compatibles y directrices para la ordenación del conjunto, coherentes con los conceptos manejados en el primer capítulo. ABSTRACT The thesis focuses on industrial heritage, delving into the topics listed in its title, Criteria for the restoration, intervention and revitalisation of industrial heritage (chapter 1). The San Paolo gas factory in Rome (chapter 2): Chapter one elaborates on the official criteria to take action on heritage, but also deals with the singularity and original values unique to each construction and its context. This underlines the PhD candidate’s intentions by understanding the need for an in-depth and specific analysis, open to novel approaches to each site before its transformation. When speaking of intervention, as opposed to restoration, we address the well-known controversy that stems from the different ways of approaching historical heritage. It seems necessary to explain how these terms are interpreted in this piece of work. Whereas restoration (as Cesare Brandi would say, constitutes the methodological moment in which the work of art is appreciated in its material form and in its historical and aesthetic duality, with a view to transmitting it to the future) is a more restrictive action, demanding the utmost attention to the recovery and preservation of the piece of heritage’s defining and exceptional values, (ideally) in communication with a interdisciplinary team. By intervention, we hereby understand a more personal and free procedure carried out by the designer in which a dialectical process takes place between preexistence and the critical stance taken in order to give that good a much needed new use. That is, contrast lies in the different recognition of physical materiality and its meanings. As for the restoration/intervention dilemma, the different courses of action followed in Spain and Italy will be analysed, contrasting the architects’ training, the labourcultural environment and taking an analytical comparative case study method. There is a third concept: the revitalisation of industrial heritage, which refers to its transformation, its most common and compatible uses, the artistic redimensioning that industrial architecture has experienced thanks to contemporary art, and its relationship with Modernity. Lastly, the title refers to the case study, i.e., the analysis of the Factory, which makes up chapter 2. It is an enormous and semiabandoned peerless industrial complex on the edge of the historical city centre whose main landmark is a huge gasometer, which the author had the chance to discover during her stay in the Eternal City. This district made up the first and only industrial sector in the modern Rome of the early 20th century. Due to a number of reasons, both historical and political, barely no further industrial development took place in the city beyond the mentioned area, where processing services and activities were set up (Slaughterhouse, General Markets, Riverside Warehouses, Montemartini Power Plant or the said factory). In the 1920s began the construction of the productive fabric that raised the city from its postwar plight to the economic miracle. As opposed to the myth of monumental Rome and daily-life Rome, this industrial Rome rose as contemporaneity’s myth. However, this city is too ancient to become modern, and its industrial process strikes us as brief when confronted with its long history. The close relationship between Rome’s industrial stage and the consequences of this development is best represented by the aforementioned facilities, more relevant due to their uniqueness than the length of the once-in-a-lifetime moment they represent. Their physical presence lives on despite abandonment and isolation, as they stand vastly unknown behind their perimeter walls. This renders them appealing to property speculators, becoming an ideal case study for the creation of a Global Intervention Plan in which to determine a series of necessary actions, compatible uses and directives, all of them consistent with the concepts dealt with in chapter 1. RIASSUNTO La tesi è focalizzata sul patrimonio industriale e cerca di approfondire le tematiche contenute nel titolo, Criteri di restauro, intervento e rivitalizzazione del patrimonio industriale (capitolo 1). La Fabbrica del gas di San Paolo a Roma (capitolo 2): Nel primo capitolo vengono presi in esame i criteri istituzionalizzati di attuazione nel patrimonio, ma si parla anche della unicità, i valori originali, stratificati in ogni costruzione ed il suo contesto. Questo riassume l’intenzione della dottoranda di capire la necessità dell’analisi di ogni opera in modo profondo, concreto e aperto a nuovi approcci, prima della sua trasformazione. Nel parlare di intervento versus restauro, si affronta la famosa polemica che considera il modo di avicinarsi all’eredità storica. Appare necessario precisare come questi termini sono considerati in questo lavoro. Mentre il restauro (come direbbe Cesare Brandi, costituisce il momento metodologico del riconoscimento dell’opera d’arte nella sua consistenza fisica e nella duplice polarità estetica e storica, in vista della sua trasmissione nel futuro) è un’azione più restrittiva, e quindi implica massima attenzione al recupero e conservazione dei valori significativi ed unici del bene, in comunicazione con una (eventuale) squadra interdisciplinare; per intervento si intende qui un processo più personale e libero del progettista, nel quale si produce uno sviluppo dialettico tra la preesistenza e la posizione critica adottata quando si deve dare un nuovo uso di quel bene. Vale a dire che il contrasto risiede nel diverso riconoscimento della materialità fisica e i loro significati. Intorno al restauro / intervento, si analizzano le prospettive di attuazione in Spagna e Italia, contrastando diversi fattori come la formazione dell’architetto o l’ambiente lavorativo-culturale, ed impiegando il metodo analitico comparativo dei casi. Ci sarebbe un terzo concetto: quello della rivitalizzazione del patrimonio industriale. Questo fa riferimento alla sua trasformazione, ai suoi usi più comuni e compatibili, al ridimensionamento artistico vissuto dall’archeologia industriale grazie all’arte contemporanea ed al suo rapporto con la Modernità. In ultimo, si enuncia nel titolo il caso di studio, ovvero l’analisi della Fabbrica, che occupa il secondo capitolo. Si tratta di un enorme complesso industriale semi-abbandonato al confine con il centro storico, il cui protagonista è un grande gasometro, che l’autrice ha avuto modo di scoprire durante il suo soggiorno nella Città Eterna. Questo quartiere costituì il primo e unico moderno settore industriale della Roma moderna all’inizio del Novecento. Per diverse ragioni storiche e volontà politiche, la città praticamente non ha subito ulteriore sviluppo industriale oltre l’area citata, dove si impiantarono servizi e attività di grande trasformazione (Mattatoio, Mercati Generali, Magazzini Generali, Centrale Montemartini o questa fabbrica). Dal 1920, si inizió a costruire un tessuto prodottivo che portò la città dalla situazione post-bellica al miracolo economico. Di fronte al mito della Roma monumentale o della Roma quotidiana, appare questa Roma industriale come mito della contemporaneità. Tuttavia, questa città è troppo antica per diventare moderna, ed il suo processo industriale in contrasto con la sua lunga storia risulta breve. Il rapporto diretto della fase industriale romana con il risultato di questo sviluppo viene identificato con gli impianti segnalati, più significativi per la loro unicità che per la durata del momento irripetibile che rappresentano. La loro presenza fisica perdura nonostante l’abbandono, isolati dietro il loro muro di cinta e quasi sconosciuti. Questo li rende auspicabile per la speculazione immobiliare e sono un caso ideale per eseguire un Piano di Intervento Globale, che determini una serie di interventi necessari, usi compatibili e linee guida per la pianificazione del tutto, in linea con i concetti utilizzati nel primo capitolo.
Resumo:
Questo elaborato si pone l’obiettivo di dimensionare un prototipo di macchina aggraffatrice, utilizzata per creare la giunzione tra il fondo del barattolo, il corpo del barattolo stesso e la testa o cupola. La progettazione, in particolare, ha richiesto anche la verifica dei motori necessari alla movimentazione della macchina, con particolare attenzione alla fase di arresto di emergenza, in cui le inerzie in gioco risultano essere elevate e la durata del transitorio molto breve. Viene descritta la macchina nel dettaglio, focalizzandosi sulle principali caratteristiche che la rendono peculiare, procedendo poi con la costruzione di un modello cinematico complessivo, seguita dall’analisi cinematica del sistema. Si focalizza, in seguito, sul transitorio durante l’arresto di emergenza e, di conseguenza, sulla verifica dei motori, riducendo i modelli di ciascun sottogruppo della macchina all’albero motore. Il transitorio di emergenza viene analizzato anche con un secondo metodo, dove il dimensionamento del motore viene verificato con l’utilizzo di un software appositamente studiato per la scelta di servomotori. Confronto dei risultati ottenuti
Resumo:
La Sequenza Sismica Emiliana del 2012 ha colpito la zona compresa tra Mirandola e Ferrara con notevoli manifestazioni cosismiche e post-sismiche secondarie, soprattutto legate al fenomeno della liquefazione delle sabbie e alla formazione di fratturazioni superficiali del terreno. A fronte del fatto che la deformazione principale, osservata tramite tecniche di remote-sensing, ha permesso di individuare la posizione della struttura generatrice, ci si è interrogati sul rapporto tra strutture profonde e manifestazioni secondarie superficiali. In questa tesi è stato svolto un lavoro di integrazione di dati a varia scala, dalla superficie al sottosuolo, fino profondità di alcuni chilometri, per analizzare il legame tra le strutture geologiche che hanno generato il sisma e gli effetti superficiali percepiti dagli osservatori. Questo, non solo in riferimento allo specifico del sisma emiliano del 2012, ma al fine di trarre utili informazioni in una prospettiva storica e geologica sugli effetti di un terremoto “tipico”, in una regione dove le strutture generatrici non affiorano in superficie. Gli elementi analizzati comprendono nuove acquisizioni e rielaborazioni di dati pregressi, e includono cartografie geomorfologiche, telerilevamenti, profili sismici a riflessione superficiale e profonda, stratigrafie e informazioni sulla caratterizzazione dell’area rispetto al rischio sismico. Parte dei dati di nuova acquisizione è il risultato dello sviluppo e la sperimentazione di metodologie innovative di prospezione sismica in corsi e specchi d’acqua continentali, che sono state utilizzate con successo lungo il Cavo Napoleonico, un canale artificiale che taglia ortogonalmente la zona di massima deformazione del sisma del 20 Maggio. Lo sviluppo della nuova metodologia di indagine geofisica, applicata ad un caso concreto, ha permesso di migliorare le tecniche di imaging del sottosuolo, oltre a segnalare nuove evidenze co-sismiche che rimanevano nascoste sotto le acque del canale, e a fornire elementi utili alla stratigrafia del terreno. Il confronto tra dati geofisici e dati geomorfologici ha permesso di cartografare con maggiore dettaglio i corpi e le forme sedimentarie superficiali legati alla divagazione fluviale dall’VIII sec a.C.. I dati geofisici, superficiali e profondi, hanno evidenziato il legame tra le strutture sismogeniche e le manifestazioni superficiali seguite al sisma emiliano. L’integrazione dei dati disponibili, sia nuovi che da letteratura, ha evidenziato il rapporto tra strutture profonde e sedimentazione, e ha permesso di calcolare i tassi geologici di sollevamento della struttura generatrice del sisma del 20 Maggio. I risultati di questo lavoro hanno implicazioni in vari ambiti, tra i quali la valutazione del rischio sismico e la microzonazione sismica, basata su una caratterizzazione geomorfologico-geologico-geofisica dettagliata dei primi 20 metri al di sotto della superficie topografica. Il sisma emiliano del 2012 ha infatti permesso di riconoscere l’importanza del substrato per lo sviluppo di fenomeni co- e post-sismici secondari, in un territorio fortemente eterogeneo come la Pianura Padana.
Resumo:
Negli ultimi anni la teoria dei network è stata applicata agli ambiti più diversi, mostrando proprietà caratterizzanti tutti i network reali. In questo lavoro abbiamo applicato gli strumenti della teoria dei network a dati cerebrali ottenuti tramite MRI funzionale “resting”, provenienti da due esperimenti. I dati di fMRI sono particolarmente adatti ad essere studiati tramite reti complesse, poiché in un esperimento si ottengono tipicamente più di centomila serie temporali per ogni individuo, da più di 100 valori ciascuna. I dati cerebrali negli umani sono molto variabili e ogni operazione di acquisizione dati, così come ogni passo della costruzione del network, richiede particolare attenzione. Per ottenere un network dai dati grezzi, ogni passo nel preprocessamento è stato effettuato tramite software appositi, e anche con nuovi metodi da noi implementati. Il primo set di dati analizzati è stato usato come riferimento per la caratterizzazione delle proprietà del network, in particolare delle misure di centralità, dal momento che pochi studi a riguardo sono stati condotti finora. Alcune delle misure usate indicano valori di centralità significativi, quando confrontati con un modello nullo. Questo comportamento `e stato investigato anche a istanti di tempo diversi, usando un approccio sliding window, applicando un test statistico basato su un modello nullo pi`u complesso. Il secondo set di dati analizzato riguarda individui in quattro diversi stati di riposo, da un livello di completa coscienza a uno di profonda incoscienza. E' stato quindi investigato il potere che queste misure di centralità hanno nel discriminare tra diversi stati, risultando essere dei potenziali bio-marcatori di stati di coscienza. E’ stato riscontrato inoltre che non tutte le misure hanno lo stesso potere discriminante. Secondo i lavori a noi noti, questo `e il primo studio che caratterizza differenze tra stati di coscienza nel cervello di individui sani per mezzo della teoria dei network.