76 resultados para clostridium difficile
Resumo:
La movimentazione delle materie prime, degli intermedi e dei prodotti finali all’interno di una raffineria avviene attraverso una struttura logistica che prevede la ricezione delle materie prime, i trasferimenti delle sostanze tra le diverse unità produttive, la spedizione dei prodotti finiti. La distribuzione dei fluidi avviene su vie di tubazioni (pipe rack e trincee) che si possono articolare su un’ampia porzione di territorio, in prossimità di impianti, strade ed altri centri nevralgici. La perdita di contenimento accidentale dalle tubazioni può costituire un elemento di rischio di difficile gestione, proprio per la diffusione dei percorsi su un’area di vaste dimensioni. Il presente lavoro di tesi, svolto presso lo studio ICARO s.r.l. di Cortona, si propone di effettuare l’analisi del rischio dovuto al trasferimento dei fluidi all’interno di una raffineria, valutando la frequenza e la distribuzione spaziale degli effetti degli scenari incidentali finali che possono avere luogo in caso di rilascio. Le tubazioni prese in esame sono quelle di maggior impatto dal punto di vista del rischio a causa della pericolosità della sostanza trasferita e della vicinanza del percorso a punti nevralgici all’interno dello stabilimento; sulla base di questo criterio sono state analizzate le tubazioni per il trasferimento di GPL, H2S e benzina. I risultati ottenuti consentono di identificare soluzioni per l’ottimizzazione del layout della raffineria e costituiscono, più in generale, uno strumento analitico di supporto alle modifiche progettuali. L’elaborato è strutturato come segue. Nel Capitolo 1 è riportata la descrizione della raffineria e delle linee di interconnessione selezionate ai fini dello studio. Nel Capitolo 2 vengono identificate le tipologie più rappresentative di perdita di contenimento dalle linee e ne viene stimata la frequenza di accadimento. Nel Capitolo 3 viene illustrata una metodologia per la stima della probabilità di innesco che tiene in considerazione la circolazione di automezzi nelle strade interne della raffineria. Nel Capitolo 4 vengono esaminati, confrontati e selezionati i vari tipi di modelli di rilascio presenti nel package di simulazione Phast Professional 7.1 in vista della loro applicazione alle perdite dalle linee. Nel Capitolo 5 è riportato il calcolo delle frequenze di accadimento degli scenari incidentali finali, mentre nel Capitolo 6 sono illustrati i risultati relativi alla valutazione delle conseguenze. Nel Capitolo 7 viene effettuato lo studio dell’effetto domino, sviluppato in accordo ad un approccio metodologico innovativo. Infine nel Capitolo 8 vengono riportate alcune considerazioni finali.
Resumo:
La cosmologia ha come scopo lo studio di origine ed evoluzione dell’Universo, per averne una comprensione generale attraverso le leggi fisiche conosciute. Il modello del Big Bang, di cui si dà la descrizione teorica nel capitolo 1, è una delle formulazioni più recenti di teoria che mira a spiegare l’inizio e la successiva evoluzione dell’Universo, fino ad avanzare anche ipotesi sul suo destino futuro; è inoltre il modello generalmente accettato dalla comunità scientifica in quanto, di tutti i modelli proposti nel corso degli anni, è quello con più riscontri sperimentali e che meglio si trova in accordo con le osservazioni. I principali successi del modello vengono trattati nel capitolo 2. In particolare: si tratterà di redshift e legge di Hubble, collegati all’espansione dell’Universo, importante prova dell’attendibilità del modello del Big Bang; della radiazione cosmica di fondo, scoperta negli anni ’60 quasi per caso e poi ricondotta a ipotesi teoriche già avanzate anni prima nelle prime formulazioni del modello; della nucleosintesi primordiale, che spiega l’abbondanza attuale dei principali costituenti dell’Universo, H ed He, cosa che altrimenti non sarebbe spiegabile se si considerasse soltanto la formazione di tali elementi nelle stelle. Ovviamente anche questo modello, come si vede nel capitolo 3, non manca di problemi, a cui si è trovata una risoluzione parziale o comunque non definitiva; in questa sede tuttavia, per ragioni di spazio, tali problemi e la loro soluzione verranno soltanto accennati. Si accennerà al problema dell’Universo piatto e al problema dell’orizzonte, e a come essi possano essere spiegati introducendo il concetto di inflazione. Infine, nel capitolo 4, si accenna anche alla materia oscura, soprattutto per quanto riguarda le evidenze sperimentali che ne hanno permesso la scoperta e le prove successive che ne confermano l’esistenza. Tuttora ne ignoriamo natura e composizione, visto che a differenza della materia ordinaria non emette radiazione elettromagnetica, ma i suoi effetti gravitazionali sono evidenti ed è estremamente difficile che la sua esistenza possa essere messa in discussione.
Resumo:
Gli eventi che si sono verificati in Ucraina a partire dal novembre 2013 hanno coinvolto non solo la popolazione e la società del paese in questione, ma, direttamente o indirettamente, anche molte altre parti del mondo. Nonostante soprattutto in Europa la popolazione abbia seguito la crisi con particolare apprensione, anche in virtù della vicinanza geografica (oltre che per la molteplicità, la pericolosità e l’imprevedibilità dei suoi sviluppi), gli eventi che si sono susseguiti e le dinamiche che li hanno determinati sono talmente diversificati che per molti è ancora difficile comprendere pienamente ciò che sta succedendo in Ucraina. Lo scopo di questo elaborato è analizzare il ruolo dell’UE nell’attuale crisi in Ucraina (facendo particolare riferimento al periodo compreso fra novembre 2013 e settembre 2014) sotto diversi punti di vista e contestualizzando l’argomentazione con esempi tratti dalla cronaca degli ultimi mesi. Pur desiderando fornire una visione d’insieme delle problematiche legate al contesto ucraino, a causa dell’enorme complessità dell’argomento, nonché la sua attualità immediata e la carenza di materiale accademico a riguardo, si è deciso di concentrare questo elaborato sul ruolo dell’UE, al fine di studiare la situazione attraverso una prospettiva europea.
Resumo:
I tumori, detti anche ''la malattia del secolo'', portano ogni anno alla morte di oltre 7 milioni di persone al mondo. Attualmente è una malattia molto diffusa che colpisce soprattutto persone anziane e non solo; tuttavia ancora non esiste una cura ''esatta'' che riesca a guarire la totalità delle persone: anzi si è ben lontani da questo risultato. La difficoltà nel curare queste malattie sta nel fatto che, oltre ad esservi una grande varietà di tipologie (è quindi difficile trovare una cura unica), spesse volte la malattie viene diagnosticata molto tempo dopo la comparsa per via dei sintomi che compaiono in ritardo: si intende quindi che si parla di una malattia molto subdola che spesse volte lascia poche speranze di vita. Uno strumento, utilizzato assieme alla terapie mediche, è quello della modellizzazione matematica: essa cerca di descrivere e prevedere, tramite equazioni, lo sviluppo di questo processo e, come ben si intenderà, poter conoscere in anticipo quel che accadrà al paziente è sicuramente un fattore molto rilevante per la sua cura. E' interessante vedere come una materia spesso definita come "noiosa" ed ''inutile'', la matematica, possa essere utilizzata per i più svariati, come -nel caso specifico- quello nobile della cura di un malato: questo è un aspetto di tale materia che mi ha sempre affascinato ed è anche una delle ragioni che mi ha spinto a scrivere questo elaborato. La tesi, dopo una descrizione delle basi oncologiche, si proporrà di descrivere le neoplasie da un punto di vista matematico e di trovare un algoritmo che possa prevedere l'effetto di una determinata cura. La descrizione verrà fatta secondo vari step, in modo da poter rendere la trattazione più semplice ed esaustiva per il lettore, sia egli esperto o meno dell'argomento trattato. Inizialmente si terrano distinti i modelli di dinamica tumorale da quelli di cinetica farmacologica, ma poi verrano uniti ed utilizzati assieme ad un algoritmo che permetta di determinare l'effetto della cura e i suoi effetti collaterali. Infine, nella lettura dell'elaborato il lettore deve tenere sempre a mente che si parla di modelli matematici ovvero di descrizioni che, per quanto possano essere precise, sono pur sempre delle approssimazioni della realtà: non per questo però bisogna disdegnare uno strumento così bello ed interessante -la matematica- che la natura ci ha donato.
Resumo:
I componenti del carbonio in ambito strutturale (aeronautico, navale, automobilistico) sono soggetti a deterioramenti ambientali di difficile determinazione, in particolare alla temperatura e all'umidità. Scopo di questa tesi è determinare i danneggiamenti dei materiali compositi CFRP in funzione di un invecchiamento a diverse percentuali della temperatura di transizione vetrosa Tg. In particolare si vuole studiare e approfondire il processo di reazione della matrice e del carbonio. Per meglio descrivere il procedimento di deterioramento e reazione del materiale composito dovuto ad alti livelli di temperatura, mi sono avvalso del supporto pratico dell’azienda “Riba Composites” di Faenza che in particolare si occupa della prototipazione e produzione di componenti strutturali in materiali compositi avanzati e che si è dimostrata leader nel settore dei compositi CFRP. Pochi studi sono stati condotti su tale argomento. Da qui il mio interesse specifico nel volere studiare e dimostrare come questo processo possa ulteriormente apportare un aiuto agli studi in ambito strutturale già effettuati e pubblicati precedentemente. La dimostrazione pratica della seguente tesi è avvenuta, con l’aiuto dell’Ing. Paolo Proli, nel laboratorio di MaSTeR Lab dell’Università di Bologna, dove si è deciso di eseguire vari invecchiamenti termici a diverse temperature per constatare i livelli di deterioramento e influenza delle variazioni di temperatura sulla matrice del composito preso in analisi. Gli effetti di tale studi sono stati sostenuti anche grazie alla guida del Professore Lorenzo Donati, e verranno dettagliatamente evidenziati nello specifico con spiegazioni in ambito teorico e dimostrazioni pratiche affiancate da schemi dimostrativi e supporto grafico.
Resumo:
Uno dei cardini nel programma di ricerca attuale del Large Hadron Collider (LHC) al CERN è l’approfondimento della conoscenza relativa al bosone di Higgs e agli accoppiamenti di questa particella, di recente scoperta, con le altre del Modello Standard. Il prossimo Run di LHC sarà caratterizzato da collisioni di fasci di protoni con un'energia di 6.5 TeV ciascuno e renderà possibile l’acquisizione di grandi campioni di dati nei quali si prevede un aumento della statistica per tipologie di eventi che fino a questo momento è stato problematico studiare. Tra questi la produzione per Higgs-strahlung del bosone di Higgs associato al bosone vettore Z, che, essendo caratterizzata da una bassa sezione d’urto, è sempre stata considerata un processo molto difficile da investigare. Questa tesi fornisce uno studio preliminare della fattibilità di recuperare in modo efficiente questo canale, con l’obiettivo di individuare alcuni tagli che permettano di ripulire il grande fondo adronico prodotto nelle collisioni protone-protone a LHC. La presente analisi è stata effettuata su campioni di dati ottenuti tramite una generazione Monte Carlo e una simulazione parametrica del rivelatore ATLAS. Sebbene la statistica dei campioni MC sia ancora limitata e la simulazione della risposta del detector non sia dettagliata, le tecniche e i tagli utilizzati in questo lavoro di tesi potranno dare utili indicazioni per futuri studi più dettagliati e per l'investigazione di questo processo una volta che i dati del prossimo Run di LHC a √s=13 TeV saranno disponibili.
Resumo:
Negli ultimi anni la tecnologia ha svolto un ruolo sempre più importante nella formazione degli interpreti. All'interno del corso di Metodi e Tecnologie per l'Interpretazione si è quindi deciso di far conoscere agli studenti il software InterpretBank, programma sviluppato da Claudio Fantinuoli per assistere l'interprete durante tutte le fasi dell'interpretazione, dalla preparazione al lavoro in cabina. Le nuove generazioni di studenti usano quotidianamente le TIC e sono dunque molto recettivi alle innovazioni tecnologiche. Non avendo informazioni sul comportamento degli studenti nell'uso del software, si è deciso di condurre uno studio esplorativo che ha coinvolto un campione di studenti attualmente iscritti al corso di laurea magistrale in interpretazione. Dopo una fase formativa in cui gli studenti hanno imparato a conoscere e usare il software, si è svolta una simulazione finale nel corso della quale è stato osservato l'approccio degli studenti nell'uso di InterpretBank. La percezione del software da parte degli studenti è stata rilevata a mezzo questionario, i cui risultati sono stati confrontati con i dati raccolti durante la simulazione. Quanto emerso da questa analisi è poi stato confrontato con l'opinione di una giovane interprete freelance con esperienza presso le istituzioni europee. Dallo studio sono emersi dati interessanti. L'opinione degli studenti e dell'interprete riguardo al software è stata molto positiva. L'esperienza pratica nell'uso del software si è dimostrata utile per sviluppare negli studenti la consapevolezza del corretto uso del software. Sono emersi anche aspetti problematici. Gli studenti tendono infatti ad affidarsi troppo al software durante l'IS e il programma viene a volte percepito come fonte di distrazione che rende difficile concentrarsi sulla resa nel suo complesso. Si ritiene che un approccio graduale con esercizi mirati e l'esperienza pratica nell'uso del software possano aiutare gli studenti a comprendere come conciliare ricerca della terminologia e atto interpretativo, nonché ad imparare come suddividere l'attenzione durante l'IS.
Resumo:
In questo lavoro di tesi è stata studiata l'anisotropia magnetica di film sottili epitassiali di La0.7Sr0.3MnO3 (LSMO), cresciuti con la tecnica Channel Spark Ablation su substrati monocristallini di SrTiO3 (001). L'interesse nei confronti di questi materiali nasce dal fatto che, grazie alla loro proprietà di half-metallicity, sono usati come iniettori di spin in dispositivi per applicazioni in spintronica, l'elettronica che considera elemento attivo per l'informazione non solo la carica elettrica ma anche lo spin dei portatori. Un tipico esempio di dispositivo spintronico è la valvola di spin (un dispositivo costituito da due film ferromagnetici metallici separati da uno strato conduttore o isolante) il cui stato resistivo dipende dall'orientazione relativa dei vettori magnetizzazione (parallela o antiparallela) degli strati ferromagnetici. E’ quindi di fondamentale importanza conoscere i meccanismi di magnetizzazione dei film che fungono da iniettori di spin. Questa indagine è stata effettuata misurando cicli di isteresi magnetica grazie ad un magnetometro MOKE (magneto-optical Kerr effect). Le misure di campo coercitivo e della magnetizzazione di rimanenza al variare dell'orientazione del campo rispetto al campione, permettono di identificare l'anisotropia, cioè gli assi di facile e difficile magnetizzazione. I risultati delle misure indicano una diversa anisotropia in funzione dello spessore del film: anisotropia biassiale (cioè con due assi facili di magnetizzazione) per film spessi 40 nm e uniassiale (un asse facile) per film spessi 20 nm. L'anisotropia biassiale viene associata allo strain che il substrato cristallino induce nel piano del film, mentre l'origine dell'uniassialità trova la giustificazione più probabile nella morfologia del substrato, in particolare nella presenza di terrazzamenti che potrebbero indurre una step-induced anisotropy. Il contributo di questi fattori di anisotropia alla magnetizzazione è stato studiato anche in temperatura.
Resumo:
Le Associazioni Non Profit giocano un ruolo sempre più rilevante nella vita dei cittadini e rappresentano un'importante realtà produttiva del nostro paese; molto spesso però risulta difficile trovare informazioni relative ad eventi, attività o sull'esistenza stessa di queste associazioni. Per venire in contro alle esigenze dei cittadini molte Regioni e Province mettono a disposizione degli elenchi in cui sono raccolte le informazioni relative alle varie organizzazioni che operano sul territorio. Questi elenchi però, presentano spesso grossi problemi, sia per quanto riguarda la correttezza dei dati, sia per i formati utilizzati per la pubblicazione. Questi fattori hanno portato all'idea e alla necessità di realizzare un sistema per raccogliere, sistematizzare e rendere fruibili le informazioni sulle Associazioni Non Profit presenti sul territorio, in modo che questi dati possano essere utilizzati liberamente da chiunque per scopi diversi. Il presente lavoro si pone quindi due obiettivi principali: il primo consiste nell'implementazione di un tool in grado di recuperare le informazioni sulle Associazioni Non Profit sfruttando i loro Siti Web; questo avviene per mezzo dell'utilizzo di tecniche di Web Crawling e Web Scraping. Il secondo obiettivo consiste nel pubblicare le informazioni raccolte, secondo dei modelli che ne permettano un uso libero e non vincolato; per la pubblicazione e la strutturazione dei dati è stato utilizzato un modello basato sui principi dei linked open data.
Resumo:
Tra i vari impatti causati dall’aumento costante di CO2 nell’atmosfera troviamo l’acidificazione oceanica. Le conseguenze di questo processo non sono interamente conosciute. Per questo è importante conoscere la risposta all’acidificazione degli organismi marini e degli ecosistemi. Lo scopo di questo lavoro è valutare le conseguenze dell’acidificazione su comunità meiofaunali epifite. Sono stati quindi condotti campionamenti in situ, in una zona acidificata in conseguenza della presenza di vents idrotermali presenti nell’isola di Ischia (Italia). La zona di studio indagata è stata suddivisa in due siti, differenti per esposizione al moto ondoso. All’interno di ciascuna esposizione sono stati individuate tre stazioni, differenti per il grado di acidificazione. Sono stati prelevati campioni di alghe lungo il gradiente di acidificazione con associata la meiofauna e sono stati considerati come substrato secondario. Le alghe sono state analizzate attraverso descrittori della loro complessità mentre gli organismi sono stati contati e classificati a livello di grandi taxa. I descrittori sintetici di ricchezza tassonomica e di abbondanza non presentano valori di correlazione alti con i descrittori di complessità algale. Invece, i risultati ottenuti considerando l’intera comunità mostrano una relazione significativa fra la struttura delle comunità meiofaunali e l’acidificazione e anche con la diversa esposizione al moto ondoso. Infine dalle analisi condotte mediante regressione multipla fra tutti i descrittori algali e la struttura di comunità si nota come i primi non giustificano da soli le variazioni dei popolamenti meiobentonici. In definitiva questi risultati sembrerebbero dimostrare che la struttura delle comunità meiofaunali venga influenzata sia dalla acidificazione che dall’esposizione al moto ondoso oltre che dalla struttura dell’habitat. È tuttavia difficile definire se le variazioni nella struttura di comunità sono dovute ad una azione parallela e sinergica dei fattori considerati (esposizione e gradiente) o se si tratta di un effetto a cascata dove l’acidità influenza le comunità algali che a loro volta strutturano le comunità bentoniche associate. In prospettiva di studi futuri sarebbe quindi interessante condurre uno studio simile prendendo in considerazione le possibili relazioni specie-specifiche intercorrenti tra la struttura delle comunità meiofaunali e le differenti specie algali.
Resumo:
Questa tesi Magistrale è frutto di un'attività di ricerca, che consiste nella realizzazione di un'indagine geofisica di tipo geoelettrico (ERT Electrical Resistivity Tomography). Lo scopo è quello di caratterizzare l'idrogeologia di una porzione limitata dell'acquifero freatico costiero ravennate, situato nella Pineta Ramazzotti di Lido di Dante, cercando di apportare nuove conoscenze sulle dinamiche che favoriscono l'ingressione marina (problema di forte attualità)che potrebbero contribuire a migliorare la gestione e la tutela delle risorse idriche. In questo contesto la tesi si pone come obiettivo quello di valutare l'applicabilità del metodo geoelettrico verificando se questo è in grado d'individuare efficacemente l'interfaccia acqua dolce-salata e le strutture presenti nel sottosuolo, in due tipologie di ambiente, con e senza un sistema di dune. I risultati dimostrano che dal punto di vista scientifico, il metodo geoelettrico ha verificato il principio di Ghyben-Herzberg, il quale suppone che vi sia una relazione inversa tra quota topografica e limite superiore della zona satura con acqua salata, inoltre si è riscontrata una certa stagionalità tra i profili acquisiti in momenti diversi (influenzati dalla piovosità). Mentre dal punto di vista tecnologico, il metodo, è di difficile utilizzo negli ambienti di transizione tanto ché chi si occupa professionalmente di questi rilievi preferisce non eseguirli. Questo è dovuto alla mancanza di un protocollo per le operazioni di acquisizione e a causa dell'elevato rumore di fondo che si riscontra nelle misurazioni. Con questo studio è stato possibile calibrare e sviluppare un protocollo, utilizzabile con diverse spaziature tra gli elettrodi, che è valido per l'area di studio indagata. Si è riscontrato anche che l'utilizzo congiunto delle informazioni delle prospezioni e quelle dei rilievi classici (monitoraggio della superficie freatica, parametri chimico-fisici delle acque sotterranee, rilievo topografico e sondaggi geognostici), generino un prodotto finale di semplice interpretazione e di facile comprensione per le dinamiche in atto.
Resumo:
L'obiettivo di questo elaborato é quello di mettere in evidenza una categoria critica dei rifiuti: i pannolini usa e getta. Essi, infatti, consumano una quantità ingente di risorse ed energia ed inoltre producono un enorme impatto ambientale connesso allo smaltimento finale. Si pensi che quest'ultimi rappresentano circa il 5% del totale dei rifiuti prodotti: 2 miliardi di pannolini solo in Italia che impiegano più di 500 anni per decomporsi in discarica. Per studiare questo fenomeno si è presa in considerazione una cooperativa sociale bolognese che ha molto a cuore la salvaguardia dell'ambiente e che, attraverso un suo progetto, il progetto Lavanda, ha istituito una lavanderia che si occupa di fornire attraverso il noleggio pannolini lavabili agli asili del territorio: la cooperativa Eta Beta. Inoltre, recentemente, essa ha deciso di utilizzare anche pannolini compostabili, forniti dall'azienda IES Gas, per ridurre ulteriormente le emissioni nell'ambiente. Infatti il motore principale della cooperativa è quello di coniugare la raccolta differenziata alla riduzione dei rifiuti, concetto che dovrebbe essere alla base di ogni azienda, ogni famiglia, ogni persona ma che in Italia risulta di difficile realizzazione.Utilizzando i dati dalla Cooperativa e contattando le cooperative che collaborano con essa (Cadiai e Karabak) ed anche gli asili affiliati si è deciso di effettuare un'analisi statistico - gestionale per individuare il numero medio di pannolini utilizzati da un bambino in un anno scolastico andando a considerare diverse variabili come la tipologia di asilo, l'età dei bambini o le presenze. Dopo questa parentesi 'gestionale', lo studio ha ripreso un'impronta 'ambientale': infatti si è andato a studiare il processo anaerobico e aerobico per lo smaltimento dei pannolini compostabili attraverso un esperimento svolto presso il laboratorio di Chimica e di Processo del DICAM, facoltà di Ingegneria, Alma Mater Studiorum di Bologna
Resumo:
Conoscere dal punto di vista tecnico-costruttivo una costruzione storica è fondamentale per un’attendibile valutazione della sicurezza strutturale attuale e per la scelta di un eventuale ed efficace intervento di miglioramento. Per le strutture di interesse storico appartenenti al patrimonio culturale, ma anche per gli altri edifici, risulta difficile conoscere le origini del manufatto, le modifiche avvenute nel corso del tempo dovute a fenomeni di danneggiamento derivanti dal peggioramento delle condizioni dei materiali e dall’avvenimento di eventi calamitosi a causa della mancanza di documentazione storica. La mia tesi e’ focalizzata su tecniche di indagine non distruttive in modo da migliorare la conoscenza della struttura per poi intervenire in modo corretto. L’obiettivo del lavoro svolto e’ stato indagare il contributo delle indagini sperimentali alla diagnosi di edifici storici, in particolare elementi strutturali lignei e di muratura applicando indagini sperimentali non distruttive. Ho dapprima descritto lo stato dell’arte delle varie prove effettuate attraverso la lettura e il confronto di diversi articoli tecnico-scientifici riportando gli obiettivi, la strumentazione impiegata e i risultati ottenuti dalle diverse prove. Ho poi effettuato uno studio del materiale legno utilizzato per le costruzioni, riportandone la descrizione dal punto di vista strutturale, le caratteristiche fisiche, chimiche e meccaniche, le diverse classificazioni e le fasi di lavorazione. Quindi ho analizzato alcune delle prove non distruttive necessarie per una diagnosi di elementi lignei. Per ogni prova vengono riportate alcune caratteristiche, il principio di funzionamento e la strumentazione utilizzata con eventuali software annessi. Negli ultimi 3 capitoli si procede con l’applicazione sperimentale delle prove in sito o in laboratorio precedentemente descritte, in diversi casi di studio; in particolare 1) l’applicazione della prova di compressione assiale su alcuni provini ricavati da un elemento strutturale in legno antico per ricavare vari parametri fisici e meccanici; 2) lo studio di una capriata di legno presente in laboratorio, recuperata dopo il sisma dell’Emilia del 2012, iniziando dall’ispezione visuale classificazione a vista degli elementi sulla base di quanto riportato nella normativa per poi analizzare i dati delle varie prove non distruttive eseguite. 3) Infine è applicata la prova termografica ad un edificio di interesse storico, come l’ex Monastero di Santa Marta, situato in via S. Vitale a Bologna per indagare la tipologia strutturale, le tecnologie costruttive impiegate nelle varie epoche di questo complesso.
Resumo:
L’oggetto di questa tesi di laurea è un intervento di riqualificazione delle Ex Officine Meccaniche Reggiane, un’area industriale, sita a Reggio Emilia, che nel corso degli anni ha subìto una graduale dismissione, sino allo stato attuale di completo abbandono. Il tema riveste un’importanza focale nelle città moderne, affette da un elevato livello di migrazione e riorganizzazione dell’industria, che trasforma vaste aree di produzione in vuoti urbani di difficile gestione. I problemi fondamentali sono infatti la notevole dimensione degli stabilimenti abbandonati e la loro posizione, un tempo strategica, ma che ora risulta critica per una lettura unitaria della città e delle sue connessioni. L’area in oggetto, dedicata nel corso degli anni a diversi tipi di produzione, tra le quali quelle ferroviaria e dell’aviazione, è locata in prossimità del centro storico di Reggio Emilia, separati solamente dalla linea ferroviaria storica con cui si interfaccia direttamente. L’espansione della città ha portato ad inglobare lo stabilimento, che risulta quindi chiuso in se stesso e fortemente vincolante per le connessioni della città. Gli scopi dell’intervento sono quindi quelli di generare connessioni tra le parti di città circostanti e di permettere il riappropriamento dell’area alla popolazione. Per raggiungere tali scopi è stato necessario aprire il forte limite perimetrale esistente ed individuare nuovi percorsi di attraversamento, ma anche nuove funzioni ed attrattività da inserire. Vista la frammentazione dell’area in una serie di edifici, lo studio si è poi concentrato su un edificio tipo, allo scopo di individuare un’ipotesi di intervento più dettagliata. Le strategie degli interventi sono il risultato di interazione tra le necessità di mantenere le strutture ed il carattere dell’area, di introdurre funzioni attrattive e di ottenere adeguati livelli di comfort ambientale e prestazioni energetiche.
Resumo:
Molti concetti basilari dell'Analisi Matematica si fondano sulla definizione di limite, della quale si è avuta una formulazione rigorosa solo nel XIX secolo, grazie a Cauchy e a Weierstrass. Il primo capitolo ripercorre brevemente le tappe storiche di un percorso lungo e difficile, durato circa 2000 anni, evidenziando le difficoltà dei grandi matematici che si sono occupati dei concetti infinitesimali. Nel secondo capitolo vengono esposte le possibili cause delle difficoltà degli studenti nell'apprendimento dei limiti. Nel terzo capitolo vengono descritte ed analizzate le risposte degli studenti liceali ed universitari ad un questionario sui limiti.